L'achat d'un téléviseur ultra haute définition est-il judicieux ? Les scientifiques répondent par la négative.

LONDRES – « Vaut-il la peine d’acheter un téléviseur ultra haute définition ? Avez-vous réellement besoin d’un écran 4K ou 8K pour profiter d’une meilleure expérience visuelle à domicile ? » Ce sont les questions que se posent des chercheurs de l’Université de Cambridge et de Meta Reality Labs. Selon eux, l’œil humain a une limite de résolution, ce qui signifie qu’il n’est capable de percevoir qu’un nombre limité de pixels. Au-delà de cette limite, un écran fournit à nos yeux plus d’informations qu’ils ne peuvent en détecter , comme l’explique un article intitulé « Votre téléviseur ultra HD en vaut-il la peine ? Des scientifiques mesurent la limite de résolution de l’œil humain », publié sur le site web de Cambridge.
Afin de calculer la limite de résolution, les chercheurs ont mené une étude dans laquelle ils ont mesuré la capacité des volontaires ayant participé à cette recherche à « détecter des caractéristiques spécifiques dans des images en couleur et en niveaux de gris sur un écran, en regardant les images de face et avec une vision périphérique, et en fonction de la distance à laquelle elles se trouvaient », poursuit le texte.
VOUS POURRIEZ ÊTRE INTÉRESSÉ PAR : Quels travailleurs seront les plus touchés par l'IA ? Les jeunes ou les travailleurs expérimentés ?
Ce que Maliha Ashraf, Alexandre Chapiro et Rafał K. Mantiuk, auteurs de cette nouvelle recherche, ont découvert, c’est que « la limite de résolution précise dépend de plusieurs variables, telles que la taille de l’écran, l’éclairage de la pièce et la distance entre le spectateur et l’écran », note l’Université de Cambridge.
Ainsi, les chercheurs de l'Université de Cambridge et de Meta Reality Labs ont pu démontrer que, dans un salon moyen où le téléviseur est situé à environ 2,5 mètres, un écran ultra haute définition, tel que 4K ou 8K, de 44 pouces n'offre aucun avantage supplémentaire par rapport à un écran « Quad HD » de même taille.
Les résultats de cette nouvelle étude ont été publiés aujourd'hui dans Nature Communications .
De plus, Ashraf, Chapiro et K. Mantiuk ont créé un calculateur en ligne gratuit où les utilisateurs peuvent saisir la taille de leur pièce, les dimensions de leur téléviseur et la résolution pour déterminer l'écran le plus adapté à leur domicile.
« Tout consommateur qui achète un nouveau téléviseur est bombardé d'informations techniques de la part des fabricants, qui tentent de le convaincre que la résolution de l'écran, qu'il s'agisse de Full HD, de 4K ou de 8K, offre la meilleure expérience visuelle », explique l'Université de Cambridge.
Par conséquent, selon les chercheurs, un téléviseur avec un plus grand nombre de pixels n'offre pas toujours une meilleure perception visuelle, car l'œil humain a une limite de résolution qui dépend de facteurs tels que la taille de l'écran, la distance de vision et la vision centrale ou périphérique. De plus, Ashraf, Chapiro et K. Mantiuk ont constaté qu'un nombre de pixels plus élevé implique un coût et une consommation d'énergie plus importants, sans pour autant garantir une meilleure expérience visuelle.
CE QUI POURRAIT VOUS INTÉRESSER : Vos enfants parlent-ils à l'IA ? Voici les 10 points clés à connaître.
Selon Maliha Ashraf, auteure principale de cette nouvelle étude et chercheuse au Département d'informatique et de technologie de l'Université de Cambridge, « alors que d'importants efforts d'ingénierie sont déployés pour améliorer la résolution des écrans d'appareils mobiles, la réalité augmentée (RA) et la réalité virtuelle (RV), il est crucial de connaître la résolution maximale au-delà de laquelle les améliorations supplémentaires n'apportent aucun avantage perceptible ». Ashraf conclut en soulignant qu'« il n'existe cependant aucune étude mesurant avec précision ce que l'œil humain peut voir ni les limites de sa perception ».
Le professeur Rafał Mantiuk, co-auteur de l'étude et membre du département d'informatique et de technologie de l'université de Cambridge, explique que « plus un écran possède de pixels, moins il est efficace, plus son coût est élevé et plus il requiert de puissance de traitement ». Mantiuk estime que « c'est pourquoi nous voulions savoir à partir de quel point il n'est plus pertinent d'augmenter la résolution des écrans ».
Un nouveau système expérimental nous permet de mesurer ce que l'œil peut voir.
De même, Ashraf, Chapiro et K. Mantiuk ont mis au point un système expérimental composé d'un écran coulissant qui leur a permis de mesurer avec précision ce que l'œil humain est capable de voir lorsqu'il observe des motifs sur un écran.
Ainsi, au lieu de mesurer les caractéristiques d'un écran particulier, ils ont décidé de mesurer les pixels par degré (PPD), c'est-à-dire le nombre de pixels individuels contenus dans un degré du champ visuel. « Mesurer le PPD permet de répondre à une question plus pertinente que “Quelle est la résolution de cet écran ?”. Cela permet plutôt de répondre à la question “Comment cet écran apparaît-il de ma position ?” », explique l'Université de Cambridge, ajoutant que « la norme de vision 20/20, largement acceptée et basée sur l'échelle de Snellen (connue de tous ceux qui ont déjà passé un examen de la vue), suggère que l'œil humain peut distinguer 60 pixels par degré . »
« Cette mesure a été largement acceptée, mais personne ne s'était arrêté pour la mesurer sur des écrans modernes, plutôt que sur un tableau d'affichage mural conçu à l'origine au XIXe siècle », a déclaré Ashraf.
« Nos résultats établissent la norme en matière de développement d'écrans, avec des implications pour les futures technologies d'imagerie, de rendu et d'encodage vidéo », a conclu le Dr Alex Chapiro, co-auteur de l'étude et membre de Meta Reality Labs.
Avec des informations de l'agence de presse EFE et de l'Université de Cambridge
Vanguardia




