Warum ist der Samsung Exynos 2600 fehlgeschlagen? Eine Rezension enthüllt die Wahrheit.
Es ist allgemein bekannt, dass Samsung in der Galaxy S-Serie dieses Jahres seinen eigenen SoC, den Exynos 2600, "eingeschränkt" wieder eingeführt hat.
Man spricht von "eingeschränkt", weil der Exynos 2600 nicht nur in einigen (europäischen) Regionen erhältlich ist, sondern auch in den europäischen Modellen nicht im hochwertigsten Galaxy S26 Ultra verbaut wurde. Offensichtlich fehlt Samsung an "Zuversicht".
Warum verwendet Samsung den Exynos 2600 nicht in großem Maßstab? Einerseits soll es ein Vertrag mit Qualcomm geben, wonach Samsung in seiner Produktlinie einen bestimmten Anteil an Snapdragon-Plattformen im Gesamtabsatz aufrechterhalten muss.
Andererseits wissen diejenigen, die sich die ausländischen Tests angesehen haben, möglicherweise bereits von der katastrophalen Energieeffizienz des Exynos 2600.
In vielen Tests von Medien hat es sich als sehr stromhungrig erwiesen
Beispielsweise zeigten die Tests von TechStation365 mit GeekBench 6, dass die Spitzenleistung des Exynos 2600 bis zu 30,22 W betragen kann, was um über 40 % höher ist als die des Snapdragon 8 Gen 5 Extreme.
In den Akkutests von Android Addicts hat der Galaxy S26 Ultra mit Exynos 2600 eine rund 30 % kürzere Akkulaufzeit als der gleiche Model mit Snapdragon 8 Gen 5 Extreme.
Selbst in Datei-Entpackungstests hat ein Medium festgestellt, dass der durchschnittliche Stromverbrauch des Exynos 2600 fast doppelt so hoch war wie der des Snapdragon 8 Gen 5 Extreme (13 W vs. 5 W), was sehr überraschend war.
Eine Testbericht hat unsere Aufmerksamkeit erregt
Neulich hat das bekannte Notebook-Testmedium NoteBookCheck einen kurzen Bericht veröffentlicht, in dem es heißt, dass in ihren Tests die Benchmark-Ergebnisse und der Stromverbrauch der Exynos 2600-Modelle mit denen des Snapdragon 8 Gen 5 Extreme "gleichwertig" waren.
Die von NoteBookCheck veröffentlichten Benchmark-Daten
Sobald diese Aussage gemacht wurde, war es nicht einmal nötig, dass wir uns wunderten, denn in der Diskussion zu diesem Artikel war es schon voller Kritik. Einige haben die Tester beschuldigt, "lügenhafte Angaben" zu machen, andere Leser haben die Tests als "voreingenommen" bezeichnet.
Die zugehörigen Benchmark-Stromverbrauchsdaten
Eigentlich möchten wir nicht voreilig behaupten, dass dieses Medium absichtlich die Wahrheit verschleiert oder Daten manipuliert, denn es hat tatsächlich Daten von zwei Testprogrammen und mehreren Dutzend Messpunkten veröffentlicht, was schon eine beträchtliche Arbeit ist. Was uns wirklich nachdenken lässt, ist eher die "Testmethode", die NoteBookCheck verwendet hat, denn dadurch konnten wir die konkreteren Gründe für das "Scheitern" des Exynos 2600-Chips besser verstehen.
Entwurfsfehler oder Spielermentalität? Vielleicht beides
Warum sagen wir das? Weil die beiden Programme, die NoteBookCheck in seinen Tests verwendet hat, GeekBench 5 und GFXBenchmark sind. Im Vergleich zu den gängigeren Testprogrammen in der Branche (z. B. Antutu V11, GeekBench 6 und 3DMARK, die wir bei San Yi Sheng Huo häufig verwenden) unterscheiden sie sich vor allem darin, dass die Testdauer normalerweise kürzer ist und die verwendeten Befehlssätze und APIs älter sind. Sie können die neuesten Chip-Fähigkeiten wie die Arm v9-Architektur und die Hardware-Raytracing-Einheiten nicht wirklich nutzen und die Testbelastung auch nicht auf das Maximum bringen.
Wenn wir annehmen, dass die Testdaten von NoteBookCheck nicht gefälscht sind, besteht die Möglichkeit, dass ihre Ergebnisse eher darauf hinweisen, dass der Exynos 2600 bei der Ausführung älterer Befehlssätze und bei niedriger bis mittlerer Belastung tatsächlich eine gute Energieeffizienz und Leistung hat. Aber sobald er auf Anwendungen trifft, die auf die neue Architektur "optimierter" sind, oder auf kontinuierlich hohe Belastungen stößt, verschlechtert sich seine Leistung plötzlich?
Was noch interessanter ist, zeigt diese scheinbar "fehlgeschlagene" Testbericht von NoteBookCheck, dass das Entwicklungsteam des Samsung Exynos 2600 möglicherweise den gleichen Fehler gemacht hat. Das heißt, als sie diesen Chip bewerteten, haben sie nicht die neuesten Anwendungen und die strengsten Belastungstests verwendet, sondern nur bemerkt, dass er in der "Alltagsnutzung" mit niedriger bis mittlerer Belastung mit den Konkurrenten mithalten kann, und dachten, er sei bereits marktfähig.
Natürlich könnte man auch von einer "Komplexitätstheorie" sprechen. Das heißt, man denkt, dass die neuen Befehlssätze nicht so schnell verbreitet werden und die Verbraucher in der Alltagsnutzung auch keine so hohe Belastung haben. Deshalb entscheidet man sich, den Chip auf den Markt zu bringen, auch wenn man weiß, dass er in bestimmten Szenarien "scheitern" wird.
【Die Bilder in diesem Artikel stammen aus dem Internet】
Dieser Artikel stammt aus dem WeChat-Account "San Yi Sheng Huo" (ID: IT-3eLife), Autor: San Yi Jun. Veröffentlicht von 36Kr mit Genehmigung.