Sofort nach dem Verkauf zusammengebrochen? Die Kamera des iPhone 17 hat einen Fehler, und es ist zur Normalität in der Branche geworden, dass es Misserfolge gibt.
Einer der Vorteile beim Kauf eines iPhones ist, dass es sich um eine internationale Marke handelt. Sobald etwas schief geht, schauen die Menschen auf der ganzen Welt zu, und alle Medien berichten beeifert darüber.
Und tatsächlich, ich habe das neue iPhone gerade erst in die Hände bekommen, und schon ist etwas schief gelaufen...
Es war der Verkaufsstarttag des neuen Modells. Als ich morgens aufwachte und meine Social-Media-Apps öffnete, war ich nicht überrascht, dass die Newsfeed voll von Beiträgen über das iPhone 17 waren. Unser Team von Lei Technology war früh am Morgen schon in der Schlange vor dem Apple Store im Tianhuan Center, um das Produkt so bald wie möglich zu erhalten und Inhalte für euch zu erstellen. Interessierte Leserinnen und Leser sollten also nicht den Kanal wechseln.
Interessanterweise mischen sich in die Stimmen der glücklichen Neukaufenden und der Wütenden über die Preiserhöhungen durch Schwarzhändler einige andere Stimmen.
Vielleicht haben die indischen Programmierer von Apple gewusst, dass bald ein Festtag ansteht. Bevor die Experten ihre neuen iPhone 17s richtig in die Hand bekamen, stellten sie fest, dass das von ihnen teuer gekaufte "Jahresflaggschiff" in Sachen Fotografie ein ziemliches Problem hatte, nämlich einen ziemlich komischen Bug.
(Quelle: CNN)
Ja, Sie haben richtig gesehen. Es ist ein schwarzer Block, umgeben von mehreren unregelmäßigen weißen Kurven.
Dies ist kein Bühnenaufbau für ein Konzert. Laut der Technologieplattform MacRumors hat Apple zugegeben, dass es bei den iPhone 17-Serien und dem iPhone Air Probleme mit der Kamera gibt. Wenn die Kamera direkt von einer sehr hellen LED-Lampe bestrahlt wird, können schwarze Quadrate und weiße Kurven auf den Fotos auftreten. Derzeit kann dieses Problem immer wieder reproduziert werden, weshalb man es kaum als zufälliges Problem bezeichnen kann.
Plötzlich erhob sich ein Sturm der Kritik.
Hat das iPhone 17 schon beim Verkaufsbeginn einen Bug?
So ist die Sache:
Kürzlich veröffentlichte Henry Casey, ein Testredakteur von CNN Underscored, einen Vorabtest des iPhone Air. Neben der Bewertung der Leistung und Qualität des Produkts beschrieb er auch seine Unzufriedenheit mit der Lautsprecherqualität und der Fotografie. Die wichtigste Aussage lautet wie folgt:
"Ich habe auch ein seltsames Abbildungs Problem festgestellt. Bei etwa jedem zehnten Foto, das ich mit dem iPhone Air und dem iPhone 17 Pro Max machte, war ein kleiner Teil des Bildes schwarz, einschließlich Teilen der weißen Wellenlinien auf der großen LED-Wand hinter der Band."
(Quelle: CNN)
Wenn Casey nicht darauf hingewiesen hätte, hätte ich das als eine interessante Bühnenkunst aufgefasst...
Natürlich ist es nur eine Scherz. Ich bin tatsächlich sehr neugierig, was diesen Bug verursacht. Wir wissen, dass Konzerte und Live-Events für viele Benutzer eine der wichtigsten Aufnahmesituationen für Smartphones sind. Ohne funktionierende Kamera ist das unmöglich.
Apples Erklärung ist sehr vage. Man sagt nur, dass die direkte Bestrahlung der Kamera durch eine sehr helle LED-Beleuchtung diesen Fehler verursachen kann.
Heutzutage betonen die meisten Smartphone-Hersteller die "Computational Photography". Apple ist hierbei einer der Pioniere. Insbesondere bei Konzerten, wo es große Unterschiede in der Helligkeit gibt, wird das HDR-Modul automatisch aktiviert, um sowohl die Details im Dunklen als auch die Konturen im Helleren zu erfassen.
Nachdem das HDR-Modul aktiviert ist, nimmt das iPhone innerhalb von Sekundenbruchteilen mehrere Fotos mit unterschiedlicher Belichtung auf. Beispielsweise nimmt es ein Foto mit starker Unterbelichtung, um die Details der Bühnenbeleuchtung und der LED-Bildschirme zu erfassen, ein Foto mit normaler Belichtung, um die mittleren Tonwerte zu erhalten, und ein Foto mit starker Überbelichtung, um die Details in den dunklen Ecken zu erfassen.
(Quelle: X)
Anschließend werden diese Fotos von der ISP und der NPU zu einem einzigen Foto mit vielen Details zusammengefügt.
Das Problem liegt an den LED-Bildschirmen bei Konzerten. Sie blinken mit einer so hohen Frequenz, dass das menschliche Auge es nicht wahrnehmen kann (PWM-Dimmung). Wenn das iPhone mit hoher Geschwindigkeit Fotos macht, kann das erste Foto den Moment aufnehmen, in dem die LED leuchtet, was zu Überbelichtung führt, während das nächste Foto den Moment der Dunkelheit aufnimmt.
Wenn der Algorithmus mit zwei Fotos konfrontiert wird, die an derselben Stelle so stark widersprüchliche Informationen enthalten, wird er verwirrt und gibt einfach eine Menge beschädigter, überlaufener oder undefinierter Daten aus.
Das Ergebnis sind die seltsamen schwarzen Kästen, weißen Linien und Rauschen auf den Fotos.
Natürlich ist dies nur eine Vermutung der Nutzer. Eines ist aber sicher: Es ist nicht, dass Ihre Objektivlinse kaputt ist oder der CMOS-Sensor durch einen Laser beschädigt wurde. Es handelt sich höchstwahrscheinlich um einen kleinen Softwarebug.
Apple hat angekündigt, den Bug in einer kommenden Software-Update zu beheben, hat aber noch kein Datum für die Veröffentlichung des Patches angegeben.
Wenn Fehlschläge zur Norm in der Smartphone-Industrie werden
Einige Leserinnen und Leser werden vielleicht schon wütend sein und mit den Fingern auf die Tastatur hauen:
"Ein Smartphone, das mehr als 10.000 Yuan kostet, und es gibt solche scheinbar triviale Softwarefehler? Tim Cook, der Alte, will nur Geld verdienen!"
Meine Empfehlung ist, sich nicht zu beeilen.
Diese Art von "Fehlschlägen" bei der Computational Photography in bestimmten Situationen ist in der gesamten Smartphone-Industrie keine Seltenheit. Apple ist nicht der Erste, der in diese Falle gerät, und sicher auch nicht der Letzte.
Hier nehmen wir das berühmte "P-Mondmodus"-Kontroverse als Beispiel.
(Quelle: X)
Vor einigen Jahren haben viele Smartphone-Hersteller ihr "Super-Mondmodus" propagiert. Fast alle Hersteller behaupteten, dass ihre Smartphones Mondfotos mit klaren Details und sichtbaren Kratern machen können. Und tatsächlich, auch Anfänger konnten solche Fotos machen. Viele Leute waren beeindruckt und sagten "Technik und Magie".
Ein kritischer Nutzer hat ein Experiment gemacht: Er hat ein unscharfes Mondfoto auf einem Computerbildschirm gezeigt und es mit seinem Smartphone fotografiert. Das Ergebnis war ein hochauflösendes Mondfoto. Manche Leute haben sogar festgestellt, dass man mit diesen Smartphones ein klares Mondfoto von jedem runden Leuchtmittel machen kann.
Am Ende haben einige Hersteller einfach einen Schalter für diesen Modus in der Kamera-App hinzugefügt.
Jetzt sprechen wir über das "HDR-Kompositions-Gespenst", das fast jeder Nutzer schon einmal erlebt hat.
(Quelle: Google)
Dieses Phänomen ist noch häufiger als das "P-Mondmodus"-Problem und zeigt die Grenzen des Algorithmus bei der Verarbeitung dynamischer Szenen. Wenn Sie das HDR-Modul aktivieren und ein sich bewegendes Objekt fotografieren, wie z. B. ein herumlaufendes Haustier oder einen winkenden Freund, und dann das Foto vergrößern, werden Sie möglicherweise an den Rändern des Objekts ein halbtransparentes "Gespenst" oder ein Doppelbild finden.
Die Entstehung dieses "Gespensts" ist ähnlich wie beim Bug des iPhone 17. Wie bereits erwähnt, muss das HDR-Modul mehrere Fotos aufnehmen und zusammenfügen. Wenn sich das Objekt während dieser Sekundenbruchteile bewegt, kann es passieren, dass der Algorithmus diese Fotos nicht richtig ausrichten und zusammenfügen kann, was zu diesem Phänomen führt.
Um dieses Problem zu lösen, hat Google einen neuen räumlichen Kombinationsalgorithmus entwickelt, der entscheidet, ob jedes Pixel die Bildinhalte kombinieren soll. Dieser Algorithmus wurde über eine nachträgliche Software-Update an die betroffenen Pixel-Smartphones verteilt.
Genau wie Apple es jetzt tun will.
Zusammenfassung: Kleinigkeiten, aber das iPhone 17 ist immer noch erwartenswert
Hat die iPhone 17-Serie einen Fehlschlag erlitten?
Meine Einschätzung ist, dass es zwar einige Bugs gibt, aber keine großen Probleme.
Letztendlich liegt das Problem daran, dass die physikalischen Gesetze die Grenzen der Smartphone-Fotografie festlegen. Deshalb ist die "Computational Photography" unvermeidlich. Sie ist zwar eine ideale Lösung für diese physikalischen Grenzen, aber sie bringt auch eine Reihe von Problemen mit sich, die man nicht vorhergesehen hat.
(Quelle: Lei Technology)
Wenn Sie einer der ersten Besitzer des iPhone 17 sind, sollten Sie sich nicht in Rage versetzen und nicht sofort in den Service gehen.
Erstens, anhand unserer Tests mit dem iPhone 17 Pro Max vor einem Mini-LED-Bildschirm war es in der realen Welt sehr schwierig, dieses Problem zu reproduzieren. Wir haben fünf Minuten lang Fotos gemacht, und kein einziges Foto hatte dieses Problem. Wahrscheinlich tritt es nur in komplexen Umgebungen wie Konzerten auf.
Zweitens, Apples OTA-Update-Geschwindigkeit ist ziemlich schnell. Es ist sehr wahrscheinlich, dass das nächste Update dieses Problem beheben wird. Da es sich um kein Hardwareproblem handelt, wird es möglicherweise bereits behoben sein, bevor Sie überhaupt auf dieses Problem stoßen.
Es ist also nicht notwendig, sich über das Update zu beklagen.
Dieses Phänomen ist in der Branche allgegenwärtig. Bei der Veröffentlichung des Google Pixel 6 war die Fingerabdruckerkennung so langsam wie bei einem Faultier. Aber bald wurde der Algorithmus über ein Software-Update optimiert. Auch chinesische Premium-Smartphones erhalten oft nach der Veröffentlichung Updates, um die Farbwahrnehmung und die Autofokuslogik der Kamera zu verbessern, basierend auf den Bewertungen von Fachleuten und Nutzern.
Die Existenz von "Patches" zeigt, dass die Hersteller ständig bemüht sind, ihre Produkte zu verbessern.
Natürlich wäre es besser, wenn diese Optimierungen vor der offiziellen Veröffentlichung des Produkts abgeschlossen werden könnten.