Alors pour une fois c'est moi qui vai devoir te contredire.
True color = 24 bits, soit tu as raison 16.7 millions de couleurs. Mais cela n'a rien à voir avec la vue ! Le Bon Dieu ne nous a pas créés en 24 ou 32 bits.
Si on travaille sur des fichiers 16bits/canal en HD ce n'est pas pour le nombre de couleurs affichées, c'est en partie pour la finesse des dégradés pas exemple. La question n'est pas le spectre de l'oeil humain, c'est son aptitude à différencier les couleurs. Si tu modifie par exemple le contraste d'une image ou tu as un ciel bleu typique de mes contrées, passé un certain stade tu auras des bandes de dégradé dans le ciel sur tu es sur du 8 bits/canal. Ca n'arrivera pas en 16 bits/canal, du moins beaucoup moins vite. Le problème n'est pas le nombre de couleur mais l'écart entre les teintes pour simplifier. Si deux nuances sont contiguës en 8 bits/canal elles ne le seront plus en 16 bits/canal. Même chose pour le son par exemple, c'est dans les variations de dynamique à très faibre volume que tu entend les différences de résolution, en 24 bits (alors que le son CD est de 16 bits) tu entendras beaucoup plus de nuances dans les pianissimo. Après une fois que tout est mastérisé, pas de soucis, tu repasses en 16 bits si tu veux. Mais y'a plus d'infos sur du son 24 bits, alors quand tu fais un mix il sera beaucoup plus fin. Par exemple, en ce qui me concerne (je suis zicos à la base), le son CD m'arrache un peu les oreilles parfois, et entre un bel enregistrement analogique sur vinyle et sa version sur CD, je préfère de loin supporter les crachouillis de la poussière du vinyle. Bien sûr pour cela il faut une chaîne hifi de compète. Et la le numérique est imbattable, à coût et technologie égale il est bien moins cher. Et surtout il est reproduisible à l'infini sans perte parce qu'on ne copie pas le signal mais l'info. C'est comme quand on te chuchotte à l'oreille, t'entends mal mais tu comprends donc tu peux le hurler par la suite, peu importe, il n'y aura pas de distorsion de signal, sauf si tu te pètes les cordes vocales.
Et puis il y a une très grossière erreur quand on dit que l'oeil est 24 bits, l'oeil est analogique et non numérique, il n'a donc pas de "saut" entre deux nuances, le passage est continu donc même supérieur à une résolution de 16 bits/canal. Mais 16 bits/canal c'est déjà très bien. Par conséquent, pour être au plus près de la perception visuelle il faut un max d'infos pour traduire les nuances, après tu peux repasser le fichier en 8 bits / canal pour faire la sortie, pas de soucis.
Et crois-moi la différence "saute aux yeux".
Donc ça serait très dommage de se passer d'un affichage 10 bits/canal. Il est capable de retranscrire une bien plus large palette dynamique. Surtout dans les tons intermédiaires. Rien à voir avec le spectre qu'il peut restituer.