StartseiteArtikel

Wie viele Leute spielen nachts auf ihrem Handy und werden dann von HDR-Fotos geblendet?

差评2025-12-01 08:24
Es leuchtet ein wenig und funkelt ein wenig.

Wenn Sie in letzter Zeit oft im Internet surfen, etwa auf Xiaohongshu oder Weibo, dann ist es sehr wahrscheinlich, dass Sie wie Tony mitten in der Nacht im Bett auf das Bild eines Beitrags klicken und plötzlich von der hellen Bildschirmbeleuchtung fast geblendet werden...

Oft passiert es sogar, dass nur das Bild extrem hell leuchtet, während der Rest des Bildschirms normal bleibt...

Zwar ist es etwas gewöhnungsbedürftig, plötzlich geblendet zu werden, aber die Bilder sind wirklich scharf und durchscheinend, und die Qualität ist um einiges besser als früher.

Der Grund, warum Sie plötzlich so eine Blendwirkung bekommen, ist, dass die verschiedenen Smartphone-Hersteller und Social-Media-Plattformen kürzlich daran gearbeitet haben, etwas namens HDR-Bilder zu unterstützen.

Sie kennen vielleicht das Konzept von HDR schon gut, aber was viele nicht wissen, ist, dass die Social-Media-Plattformen erst ab 2025 wirklich alle Smartphones in der Lage machten, HDR-Bilder anzusehen und zu teilen. Man könnte 2025 als das "Jahr Null" bezeichnen.

Hier ein direktes Beispiel: Vor ein paar Jahren, wenn Sie ein HDR-Bild an ein Gerät schickten, das HDR nicht unterstützte, sah das Bild möglicherweise so aus wie hier unten...

Links: Originalbild; Rechts: Empfängergeät

Also, wenn das Gerät es nicht unterstützt, okay, aber dass man es nicht mal ansehen kann, was soll das heißen...

Um zu verstehen, warum HDR solche Probleme hat, müssen wir von Anfang an anfangen.

Die Anzeigestandards für Fotos werden normalerweise in zwei Kategorien unterteilt: SDR und HDR. SDR (Standarddynamikumfang) war der ältere Standard.

Frühe digitale Bilder waren normalerweise im SDR-Format. Dies geht sogar bis in die Zeit der Fotografiefilme zurück. Im Allgemeinen reichte es, wenn das Bild eine Farbtiefe von 8 Bit und eine Helligkeit von 100 Nits hatte.

Heute betrachtet sind diese Parameter ziemlich schlecht. Warum hat man das früher nicht gemerkt? Weil auch die Anzeigegeräte damals schlecht waren. Solange es ein Bildschirm war, reichte es ja. Man konnte es ja noch ansehen...

Außerdem war es früher beliebter, Fotos auszudrucken, statt sie am Computer anzusehen.

Aber das bedeutet nicht, dass HDR noch nicht existierte. Wenn man wirklich genau wissen will, geht das früheste Beispiel bis ins Jahr 1850 zurück. Ein französischer Fotograf namens Gustave Le Gray überwand die Dynamikbegrenzungen des Films durch zwei separate Belichtungen.

Es gibt zwei einfache Methoden für separate Belichtungen. Eine Methode besteht darin, Bereiche mit stark unterschiedlichen Helligkeiten getrennt aufzunehmen. Die andere Methode ist, das helle und das dunkle Gebiet einer Szene getrennt aufzunehmen und dann auf einem einzigen Fotopapier zu kombinieren, um ein Bild mit vollständigen Details im hellen und dunklen Bereich zu erhalten.

Das bedeutet, dass schon vor über einem Jahrhundert Fotografen entdeckten, dass man die Dynamikbegrenzungen des Films überwinden kann, indem man mehrere Belichtungen desselben Ortes macht und die Bilder kombiniert.

In der digitalen Zeit geht die Forschung zu HDR auf das Jahr 1997 zurück. Ein Professor an der Universität von Südkalifornien entwickelte die Technologie für HDR-Bilder.

Einige Jahre später unterstützten einige professionelle Kameras eine Funktion namens "Bracketing". Einfach ausgedrückt, werden mehrere Fotos derselben Szene mit unterschiedlicher Belichtung aufgenommen, was die Grundlage für die Entwicklung der HDR-Technologie bildete.

Diese Funktion war normalerweise für professionelle Fotografen gedacht und musste in Kombination mit der HDR-Kombinationsfunktion in Adobe Photoshop verwendet werden.

Nach langem Experimentieren hat HDR endlich die Zeit des wilden Wachstums überwunden und hat sich in der professionellen Fotografie etabliert.

Bis dahin war HDR noch hauptsächlich für professionelle Benutzer gedacht. Der eigentliche Motor für die Verbreitung von HDR unter normalen Verbrauchern war der Fortschritt der Smartphones.

Allerdings sind die Smartphones nicht nur die Treiber für die Verbreitung von HDR-Bildern, sondern auch die Ursache für die Verwirrung...

Die iPhone 12-Serie war die erste, die HDR-Bilder perfekt unterstützte, sowohl beim Aufnehmen als auch beim Anzeigen.

Aber wenn man in die Kameraeinstellungen geht, wird man feststellen, dass Apple für die Aufnahme von HDR-Bildern das HEIF-Format verwendet, nicht das übliche JPG-Format.

Ein Grund dafür ist, dass Apple eine Technologie namens Gain Map (Verstärkungskarte) verwendet, die die Helligkeitsunterschiede zwischen HDR und SDR aufzeichnet.

Wenn HDR-Inhalte auf einem SDR-Gerät angezeigt werden, liest das System nur das Basisbild. Auf einem HDR-Gerät ändert die Verstärkungskarte die Helligkeit des Geräts, um die HDR-Inhalte anzuzeigen.

Das HEIF-Format ist flexibler und kann die spezielle Gain Map von Apple direkt einbetten und auch Tiefeninformationen, Live-Fotos und andere Daten speichern.

Bei Apple läuft alles rund um HDR reibungslos, aber bei Android... Ich kann es nur mit "Jeder macht es auf seine Weise" beschreiben...

Der Hauptgrund ist, dass sowohl die Hardware als auch die Software bei Android die Unterstützung von HDR später implementiert haben.

Beispielsweise unterstützt Apple das HEIF-Format seit der iPhone 7, und der A10-Chip kann HEIF-Bilder auch hardwarebeschleunigt dekodieren. Bei Android unterstützt Qualcomm das hardwarebeschleunigte Dekodieren von HEIF erst ab dem Snapdragon 855, was zwei Jahre später als bei Apple ist.

Die Hardware ist nicht das einzige Problem. Aufgrund der großen Unterschiede in den Systemversionen und der Konfiguration von neuen und alten Android-Geräten ist die Implementierung von HDR auf der Softwareebene auch sehr schwierig.

Und natürlich ist es auch wichtig, dass Google bisher keine einheitlichen Standards für HDR-Bilder auf Android festgelegt hat.

Daher haben die chinesischen Hersteller sich entschieden, eigenständig an der Technologie zu arbeiten. Wenn Google es nicht macht, machen sie es selbst...

Zum Beispiel hat das Find X3 von OPPO damals viel Aufsehen erregt, weil es HEIF unterstützte und die aufgenommenen HDR-Bilder sehr beeindruckend waren.

Vivo hat ähnlich vorgegangen. Zuerst hat das X80 Pro die eigene XDR Photo-Technologie eingesetzt.

Obwohl die HDR-Effekte der verschiedenen Hersteller gut sind, können sie nur in den eigenen Systemalben bewundert werden. Dritte Apps sehen immer noch normale Fotos, und manchmal sind die geschickten Fotos sogar kaputt...

Nicht nur OPPO und Vivo, sondern auch Huawei, Xiaomi und Honor haben in den letzten Jahren stark in die Fototechnologie investiert. Dadurch herrscht in China derzeit ein Zustand, in dem jeder Hersteller seine eigene HDR-Technologie entwickelt.

Und vergessen Sie nicht, dass Apple immer noch in seinem eigenen Ökosystem arbeitet...

Jetzt verstehen Sie vielleicht, warum ich am Anfang gesagt habe, dass die Situation um HDR so chaotisch ist...

Endlich hat Google auf der I/O-Entwicklerkonferenz 2023 in Verbindung mit der Ankündigung von Android 14 eine neue Funktion namens Ultra HDR vorgestellt.

Wichtig ist, dass Ultra HDR der offizielle Standard von Android 14 ist. Damit gibt es endlich einen gewissen Grad an Einheitlichkeit bei HDR auf Android.

OPPO und Vivo haben sich entschieden, diesen Standard zu unterstützen und kompatibel zu sein, um sich an das native Android anzupassen.