StartseiteArtikel

Aufklärung der Investitionsnebel um Large Language Models: Detaillierte Notizen aus einer privaten Sitzung von Silicon Rabbit mit vier Kernfachleuten der Silicon Valley AI-Riesen

硅兔赛跑2025-07-01 18:14
Wie kann man die Investitionslogik von Large Language Models (LLM) durchschauen? Herr Silicon Rabbit hat eine private Sitzung mit Silicon Valley-AI-Riesen organisiert. Dieser Artikel enthüllt erste-Hand-Einsichten in die Anwendungen von multimodalen KI, die Kommerzialisierungspfade sowie die technologischen Unterschiede zwischen China und den USA.

Wie kann man die Investitionslogik von Large Language Models (LLM) durchschauen? Silicon Rabbit hat eine private Sitzung mit Silicon Valley's AI-Giganten organisiert. Dieser Artikel enthüllt erste Einsichten in die Anwendungen von Multimodal-AI, die kommerzielle Umsetzung und die technologischen Unterschiede zwischen China und den USA.

Als Silicon Rabbit, der die Innovationspulse in Silicon Valley langfristig beobachtet und dokumentiert, wissen wir, dass in der globalen Welle, die von generativer AI ausgelöst wurde, eine enorme Kluft zwischen der öffentlichen Information und der industriellen Realität besteht. Täglich werden neue Modelle veröffentlicht, und jede Woche gibt es neue Finanzierungsnachrichten. Doch die echten Entscheidungsgrundlagen stammen nicht nur aus Pressemitteilungen oder Analysereports.

Um die Oberfläche zu durchdringen und den wahren Rhythmus der Branche zu spüren, hat Silicon Rabbit kürzlich für ein erstklassiges chinesisches Broker-Forschungsinstitut und ein Team von führenden öffentlichen Investmentfonds eine private Austauschveranstaltung im Herzen von Silicon Valley in den USA organisiert. Wir hatten das Vergnügen, vier AI-Experten einzuladen, die sich im Zentrum des globalen Technologiesturms befinden – sie kommen jeweils aus Google (intensiv an der Entwicklung von Multimodal-Modellen wie Gemini beteiligt), Meta (Leitung der Implementierung von GenAI in der Werberekommandationssystem), Apple (Leitung der Training von Grundstrukturen von Large Language Models) sowie einem internationalen E-Commerce-Riesenunternehmen (Verantwortlich für die Generierung von Milliarden von Dollar Umsatz durch AI).

Dies war keine oberflächliche Trendpräsentation, sondern eine tiefe Auseinandersetzung über die technologische Umsetzung, die kommerziellen Herausforderungen und die Investitionslogik. Dieser Artikel wird die Kernpunkte dieser Sitzung im Licht der neuesten Branchenentwicklung für Sie ausführlich nachbesprechen.

Teilung der vier Kernpunkte

Punkt 1: Multimodal-AI (Multimodal LLM) – Die sichere Revolution von der technologischen Spitze zur industriellen Anwendung

Während der Markt noch die Fähigkeiten von reinen Text-Large Language Models verdaut, hat ein Technologieleiter von Google, der intensiv an der Entwicklung seines führenden Multimodal-Modells beteiligt ist, deutlich darauf hingewiesen, dass Multimodalität die unvermeidliche Entwicklungstrend von AI ist und ihr kommerzieller Wert weit über das von reinen Text-Modellen hinausgehen wird.

Was ist echte Multimodalität? Es ist nicht nur, dass AI Bilder "versteht" oder Stimmen "hört", sondern dass es verschiedene Informationsmodalitäten wie Text, Bild, Audio und Video in einem einzigen Modell integriert und transmodale Verständnis, Schlussfolgerung und Generierung vornimmt. Diese Ansicht stimmt mit dem Trend überein, den Silicon Rabbit in seinen Artikeln seit langem betont hat. Über das Expertennetzwerk von Beta Consulting konnten wir diese Richtung in der industriellen Umsetzung von ersten Händen bestätigen.

Die Schlüsselanwendungsbereiche beginnen sich abzuzeichnen:

Die nächste Generation von semantischer Suche: Die Nutzer werden nicht länger auf die Textsuche beschränkt sein. Sie können ein Gebäude mit ihrem Smartphone fotografieren und fragen: "Erzähle mir die Geschichte dieses Baustils und empfehle mir nahe gelegene Kaffeeshops." Dies erfordert, dass AI gleichzeitig das Bild (Baustil), die geografische Position und die Textanweisung versteht.

Immersive Bildung und Ausbildung: Stellen Sie sich einen AI-Lehrer vor, der die Bewegungen eines Schülers bei einem Physikexperiment durch die Kamera beobachtet (Video), seine mündlichen Äußerungen hört (Audio) und seine Experimentnotizen liest (Text) und so Echtzeit- und individualisierte Anleitung gibt. Dies wird von der Theorie zur Realität werden.

Ultra-individueller E-Commerce und Inhaltsgenerierung: In zukünftigen E-Commerce-Plattformen wird AI basierend auf den von Ihnen gespeicherten Outfit-Bildern, den von Ihnen angesehenen Videos und den von Ihnen gelikten Musikstücken ein komplettes, Ihrem Geschmack entsprechendes "digitale Image" und eine virtuelle Ausstellungshalle für Sie generieren. Dahinter steckt ein tiefes Verständnis der mehrdimensionalen Daten der Nutzer.

Investitionsempfehlung: Bei der Bewertung eines Multimodal-AI-Projekts sollte man nicht nur die technischen Indikatoren betrachten, sondern auch die Fähigkeit der Datenintegration und die Tiefe der Umsetzung in bestimmten Szenarien prüfen.

Punkt 2: Die "Effizienzgrenze" der Kommerzialisierung: Die Billionen-Dollar-Herausforderung von Modellkompression und Produkthaftung

"Ein mächtiges Modell mit hunderten von Milliarden Parametern ist wie ein Formel-1-Rennwagen – mit extrem guten Leistung, aber es kann nicht auf die Stadtstraßen gefahren werden." Ein Technologieleiter von Meta, der die Implementierung von GenAI in der Werberekommandationssystem leitet, hat mit dieser lebhaften Metapher die Kernherausforderung der Kommerzialisierung auf den Punkt gebracht.

Das "Eisberg" der Kosten: Die Trainingskosten (Millionen bis Milliarden von Dollar) sind nur die Spitze des Eisbergs. Die Inferenzkosten sind die tatsächlichen hohen Kosten für die Langzeitbetreuung. In einem Szenario wie dem Werbesystem, das pro Sekunde eine riesige Anzahl von Anfragen verarbeiten muss, würde die Kosten exponentiell steigen, wenn es keine effiziente Inferenzlösung gäbe.

Die Schlüsseltechnologien, um die Kluft zu überbrücken: Wie kann man ein riesiges Modell auf einem Rechenleistungseingeschränkten Cloud-Server oder sogar auf einem Mobilgerät deployen, ohne die Leistung stark zu beeinträchtigen? Die Branche konzentriert sich derzeit auf die folgenden Technologien, die auch von Beta Consulting bei der Bewertung der technologischen "Schutzmauern" von AI-Unternehmen für die Kunden im Fokus stehen:

Quantisierung (Quantization): Approximation der hochpräzisen 32-Bit-Fließkommazahlen in einem Modell durch niedrigpräzisere 16-Bit- oder sogar 8-Bit-Ganzzahlen, um so die Modellgröße und die Rechenleistung erheblich zu reduzieren.

Pruning: Identifizierung und Entfernung der weniger wichtigen Verbindungen in einem neuronalen Netzwerk, um das Modell zu "dünnen".

Knowledge Distillation: Ein riesiges und präzises "Lehrermodell" lehrt ein leichtgewichtiges "Schülermodell", damit das letztere bei kleinerer Größe ähnliche Fähigkeiten wie das erstere hat.

Investitionsempfehlung: Bei der Investition in AI-Projekte sollte man nicht nur die Modellleistung (Benchmark) beachten, sondern auch die pro-Inferenzkosten, die Reife des Modellkompressions-Technologiestapels und die Leistung unter realen kommerziellen Belastungen prüfen. Dies bestimmt direkt, ob das Geschäftsmodell funktionieren kann.

Punkt 3: Die strukturelle Veränderung der AI-Investitionslogik: Vom "Modell ist König" zum "Infrastruktur + vertikale Anwendungen"

Ein Technologieleiter von Apple, der für das Training der Grundstrukturen von Large Language Models verantwortlich ist, hat eine wichtige Beobachtung geteilt: Die Chancen, ein ähnliches Basis-Large Language Modell wie GPT einfach zu kopieren, schließen sich. Diese Beobachtung bestätigt erneut die Ansicht, die Silicon Rabbit in mehreren Analyseartikeln vorgebracht hat: Die AI-Investition wandert von der Verfolgung des Modells selbst hin zu einem praktischeren Ansatz in der Infrastruktur und den vertikalen Anwendungen.

Die Goldene Zeit der "Wasserhändler": Die Logik der AI-Infrastruktur: Die Basis-Large Language Modelle werden zunehmend "kommerzialisiert", und die "Wasser, Strom und Gas" für die Training, Deployment und Datenverwaltung dieser Modelle werden zum neuen Werttreiber. Die Investitionshotspots sind AI-Chips, Vektordatenbanken, MLOps und Entwicklungswerkzeugketten.

Der Wert der "Goldschmiede": Die Logik der vertikalen AI: Die Kombination der Fähigkeiten von allgemeinen Large Language Modellen mit tiefem Fachwissen und proprietären Daten in einer bestimmten Branche schafft einen nicht leicht ersetzbaren Wert. Erfolgreiche Beispiele sind Harvey AI in der Rechtsprechung und GitHub Copilot in der Softwareentwicklung.

Investitionsempfehlung: Das Investitionsportfolio sollte von der Einseitigkeit auf Modellunternehmen hin zu einer vielfältigen Konfiguration von "Infrastruktur + mehrere vertikale Anwendungen" verschoben werden. Bei der Bewertung von vertikalen AI-Projekten sind die branchenspezifischen Datenbarrieren und die Tiefe der Workflow-Transformation die Kernfaktoren.

Punkt 4: Die wahre Situation des Wettlaufs zwischen China und den USA in der AI: Die strategische Differenzierung zwischen grundlegender Innovation und Marktansatz

Ein Wissenschaftler eines internationalen E-Commerce-Riesenunternehmens mit über zehn Jahren Erfahrung in der AI-Umsetzung hat uns ein detaillierteres Bild des Wettbewerbs zwischen China und den USA in der AI gezeichnet. Er meint, dass die einfache Frage, "wer vorne liegt", die wichtigen strategischen Unterschiede übersieht.

USA: Stärken in der "von 0 bis 1" grundlegenden Innovation. Ihre Stärke liegt in der Definition der nächsten Generation von Modellarchitekturen und der Führung bei der technologischen Paradigmenwandel.

China: Stärken in der "von 1 bis N" massiven Marktansatz. Ihre Stärke liegt in der Kombination von AI mit komplexen nationalen Anwendungen und der schnellen kommerziellen Umsetzung.

Investitionsempfehlung: Internationale Anleger müssen diese grundlegenden strategischen Unterschiede verstehen. Dies ist der Schlüssel, wie Beta Consulting bei der Bereitstellung von internationalen technologischen Due Diligence-Services für die Kunden den Kernwert schafft – wir helfen den Kunden nicht nur, die Technologie selbst zu verstehen, sondern auch das wahre Potenzial und die Risiken der Technologie in einer bestimmten Marktumgebung.

Dieser Artikel stammt aus dem WeChat-Account “Silicon Rabbit” (ID: gh_1faae33d0655), Autor: Silicon Rabbit, veröffentlicht von 36Kr mit Genehmigung.