De zin en onzin van 4K en hoger

© PXimport

De zin en onzin van 4K en hoger

Geplaatst: 23 januari 2020 - 04:11

Aangepast: 25 november 2022 - 10:20

Ronald Smit

Fabrikanten zijn goed op stoom als het gaat om resoluties van tv’s. 4K is inmiddels de norm en 8K staat op het punt de nieuwe ongekroonde koning te worden. Leuk. Maar is het zinvol? Dat valt in de praktijk best tegen!

De stap van ‘standard definition’ (SD) televisie, zoals we die decennia lang kenden van de aloude beeldbuis-tv naar ‘high definition’ (HD) was een grote. Full HD levert een resolutie van 1920 x 1080 pixels. In vergelijking met de aloude beeldbuis-tv die een (omgerekende) resolutie kende van 768 x 576 pixels was het alsof je ineens naar real-life beelden zat te kijken. Ook de overgang van de beeldbuis naar LCD was een verademing, vanwege bijvoorbeeld het ontbreken van trillingen. Eigenlijk is die Full HD-resolutie nog altijd de ‘sweet spot’ voor vele toepassingen. Denk aan pc- en laptopschermen, maar natuurlijk ook aan de huiskamer-tv. Bij een normale kijkafstand en normale schermafmetingen levert het een haarscherp beeld op waarbij geen afzonderlijke pixel te zien is.

Marketing

Waarom dan toch 4K en inmiddels zelfs 8K? Wel, ten eerste is dat – natuurlijk – een marketingverhaal. Aan de huidige tv valt eigenlijk nog verrassend weinig te verbeteren. Kies uit LCD of OLED, waarbij geldt dat bij deze laatstgenoemde variant de pixels zelf licht uitstralen. Uit is zwart en dus écht zwart, wat voor een uitstekend contrast zorgt. Maar wel tegen een prijs: OLED-schermen gaan minder lang mee dan een LCD-scherm, terwijl ook het gevaar op inbranden aanwezig is. Veelbelovend zijn microled-schermen. OLED-schermen zijn gebaseerd op organisch materiaal dat relatief snel ‘vergaat’. Microled’s zijn ‘echte’ LED’s met dezelfde kenmerken als de LED-indicator op je portable radio of het display van je klokradio. Ze hebben de dus geen last van organische achteruitgang en gaan veel langer mee. De eerste toestellen staan inmiddels op springen. Zodra de prijs voldoende daalt, vagen ze de OLED-schermen weg. Dát is een veel grotere doorbraak dan steeds maar stijgende resoluties.

Kijkafstand versus schermgrootte

Goed, terug naar die resolutie. Daarbij maakt het niet uit welk type scherm je gebruikt. Op zich klinkt het natuurlijk logisch: hoe meer pixels, hoe scherper je beeld wordt. Echter: dat geldt eigenlijk alleen als je dichter op dat scherm zit. Bij een bepaalde afstand zie je geen enkel verschil meer tussen Full HD, 4K en 8K. En dan doelen we op een vergelijking met dezelfde schermgrootte. Ga jij een mega-grote tv in je huiskamer hangen, terwijl je niet ver genoeg van dat toestel vandaan zit dan merk je wel een verschil tussen Full HD en 4K. De pixels worden immers groter en dus duidelijker zichtbaar bij een lagere resolutie. Het gaat dus echt om kijkafstand versus schermgrootte. Waarbij je je natuurlijk af kunt vragen of een mega-tv in de huiskamer echt lekker kijkt. Maar da’s een kwestie van persoonlijke smaak.

Bij deze kijkafstand en schermgrootte is het voor velen al heel moeilijk om het verschil tussen Full HD en 4K te zien, laat staan 8K

© PXimport

Stijgend energieverbruik

Het energieverbruik van hogere resoluties is ook een probleempje. Zowel bij de bron als in de tv zelf. De televisie moet simpelweg veel meer data verwerken bij hogere resoluties, wat krachtiger beeldprocessoren vereist. Ook het smart deel van de tv moet overweg kunnen met de hoge resolutie, wat een steviger interne GPU vereist. Sluit jij een laptop, game console of capabele tablet aan op een 4K of zelfs 8K-scherm, dan heb je een knappe GPU nodig om een acceptabele framerate bij die resoluties te houden. Een steviger GPU met vooral ook meer videogeheugen vreet energie. Het is precies de reden dat veel laptops nog altijd met een Full HD scherm worden uitgeleverd. Los van de flink hogere kosten van de GPU is het energieverbruik simpelweg een probleem.

Computer en hoge schermresoluties

Dat 4K-schermen best bruikbaar zijn bewijst Apple alweer een tijdje met z’n iMac’s. We zien daar wel meteen een ander – keurig opgelost – ‘probleem’. Eigenlijk is die 4K-resolutie zinloos voor computergebruik. Zinloos in die zin, dat de gebruikersinterface wel heel priegelige elementen zou gaan tonen. Daarom zet Apple een soort van virtuele resolutie in. Daarbij wordt een lagere resolutie – bijvoorbeeld 1920 x 1080 – ‘uitgesmeerd’ over 4K. Scaling heet dat, en als je het goed doet levert dat haarscherpe beelden op. Voordeel is dat veel programma’s niet in 4K-resolutie hoeven te rekenen, zoals bijvoorbeeld een tekstverwerker. Kortom: de volledige 4K-resolutie van het scherm wordt ten volle benut, maar programma’s ‘zien’ een lagere resolutie. Dezelfde truc wordt trouwens ook toegepast bij iPad’s. Windows 10 kent ook een vorm van scaling, maar die is eigenlijk dramatisch van kwaliteit. Het levert wollige teksten op en andere vage schermelementen. Behalve voor gamen heeft een hogere resolutie dan Full HD onder Windows dan ook nauwelijks zin. Je kijkt ofwel naar veel te kleine schermteksten, pictogrammen en wat dan ook. Of je kiest voor scaling, waarna de beeldkwaliteit hollend achteruit gaat. Je ziet hier duidelijk de roots van Windows: het kantoor, alwaar fratsen als zeer hoge resoluties geen rol spelen. Mac’s komen traditioneel uit de grafische hoek, waarbij zeer veel aandacht wordt besteed aan scherpe weergave onder alle omstandigheden.

Apple heeft de techniek van scaling perfect in de vingers en past deze toe bij onder meer iMacs en iPad's

© PXimport

Arme gamer: je blijft investeren

Voor gamers betekent gamen in 4K-resolutie een forse investering in hardware (om het over 8K maar helemaal niet te hebben). Mits je tenminste in de hoogste resolutie op 60 beelden per seconde wilt kunnen spelen, zonder irritante vertragingen en haperingen. De videokaart met GPU speelt hier de grootste rol, inclusief de hoeveelheid videogeheugen. Goedkoop zijn videokaarten die 60 fps op 4K resolutie onder alle omstandigheden halen niet bepaald. Bovendien is het een kat-en-muisspel. Games worden grafisch steeds zwaarder, waardoor je vroeger of later tegen een exemplaar aanloopt dat je videokaart niet meer bij kan benen. Dan kun je je afvragen wat slimmer is: wéér een nieuwe videokaart kopen, of simpelweg op een wat lagere resolutie gaan spelen?

Deel dit artikel
Voeg toe aan favorieten