DeepSeek bringt die Nacht vor dem Boom china-kompatibler Produkte in Bewegung: "Silicon Flow" hat eine Finanzierung in Höhe von 100 Millionen Yuan abgeschlossen | Erstveröffentlichung durch Zhiyong
Text|Deng Yongyi
Redaktion|Su Jianxun
Konnte jemand vorhersehen, dass DeepSeek weltweit explodieren würde? Zumindest vor der Veröffentlichung von DeepSeek-V3 war Yuan Jinhui, der an der Front des großen Modellschlachtfelds „Schaufeln verkauft“, unsicher.
Am 28. Januar erinnerte er sich in den sozialen Medien an eine Geschichte: Einen Monat bevor DeepSeek explodierte, schlug Liang Wenfeng vor, dass SiliconFlow DeepSeek-V3 bereitstellen sollte, mindestens 20 H800, 80 Stück wären ideal. Yuan Jinhui rechnete schnell nach, dass allein die Rechenleistungskosten für 80 H800-Server im Monat fünf bis sechs Millionen kosten würden, und diese Maschinen möglicherweise nicht einmal voll genutzt würden. „Das Risiko war zu groß, also habe ich nicht gesetzt.“
Anschließend explodierte DeepSeek weltweit, und der Ansturm des Traffics ließ seine Website und App schnell zusammenbrechen, während begeisterte Nutzer eifrig nach Kanälen suchten, um DeepSeek normal zu nutzen. Yuan Jinhui bemerkte: „Jetzt ist DeepSeek so beliebt, aber die Entscheidungsfehler lassen einen mit trockenen Augen zurück.“
Schnell verwandelte sich diese Reue in starke Handlungsfähigkeit. Mit unzureichender Rechenleistung wandte sich SiliconFlow an Huawei und arbeitete mit Hochdruck an der Anpassung von DeepSeek-R1 & V3 auf den Ascend-Chips. Das gesamte Frühlingsfest arbeitete das Team von SiliconFlow ohne Pause.
Sie handelten schnell genug, um die erste Flut von Traffic zu bewältigen. Am 1. Februar veröffentlichte SiliconFlow das vollwertige DeepSeek-R1 & V3 basierend auf Huaweis Ascend-Rechenleistung, was schnell eine große Anzahl von Entwicklern und Einzelbenutzern anzog.
△Bildquelle: SimilarWeb
Diese Kooperation räumte geschickt die Zweifel des Marktes an der Leistungsgrenze von einheimischen Chips aus und bewies, dass die Bereitstellung von DeepSeek auf einheimischen Chips vergleichbare Ergebnisse wie bei der Bereitstellung auf High-End-GPU-Modellen weltweit erzielen kann. Gleichzeitig löste diese Zusammenarbeit unbeabsichtigt eine Feier der einheimischen Substitution aus.
SiliconFlow bewies damit auch seine AI Infra-Stärke. „Besonders nach der Markteinführung von DeepSeek R1 & V3 können wir die hereinströmenden Kooperationsanfragen momentan kaum bewältigen“, sagte Yuan Jinhui.
Gerade als SiliconFlow explodierte, vernahm „ Emerging Intelligence“, dass SiliconFlow Ende 2024 eine Pre-A-Finanzierungsrunde in Höhe von einer Milliarde RMB abgeschlossen hatte, angeführt von Huachuang Capital, gefolgt von Puhua Capital, wobei der Altinvestor Yaotu Capital ebenfalls nochmals stark investierte. Huaxing Capital fungierte als exklusiver Finanzberater.
Bemerkenswert ist, dass SiliconFlow vor dieser Finanzierungsrunde Meituan als strategischen Investor aufgenommen hatte.
Im August 2024 interviewte „Emerging Intelligence“ den Gründer Yuan Jinhui, als SiliconFlow gerade sein einjähriges Bestehen feierte und die MaaS-Plattform SiliconCloud vorgestellt hatte.
Man kann sich SiliconCloud als einen „Großmodell-API-Supermarkt“ vorstellen, bei dem sich Entwickler einfach registrieren, ihr gewünschtes Modell auswählen und Anwendungen entwickeln können, ohne Server kaufen zu müssen. Sogar die von SiliconFlow angepassten und optimierten Modelle reagieren schneller als die ursprünglichen Modelle und senken die Kosten der Inferenz.
In diesem Jahr erlebte SiliconFlow ein mindestens zehnfaches Marktwachstum. SiliconCloud hat bereits über drei Millionen Nutzer und verarbeitet täglich über hundert Milliarden Token-Anfragen – im letzten Jahr nach dem Start waren es noch täglich einige Milliarden.
△Bildquelle: SiliconFlow
Im Entwicklerkreis hat SiliconFlow einen guten Ruf, und seine Modellservices werden wegen ihrer günstigen Preise und ihrer überragenden Leistung als „Cyber Buddha“ bezeichnet. SiliconCloud hat nun über hundert gängige Modelle im Angebot, darunter die vollwertigen Versionen von DeepSeek-R1 & V3, Qwen, FLUX.1, CosyVoice und bietet komplette Werkzeuge für die Modelltraining, Feinabstimmung, Hosting bis hin zur Bereitstellung, um den verschiedenen Anwendungsszenarien von Entwicklern und Unternehmenskunden gerecht zu werden.
Im Juli 2024 brachte SiliconFlow auch ein neues Produkt auf den Markt: das auf ComfyUI basierende Cloud-Knoten-Plugin BizyAir.
BizyAir ist ein Bildgenerierungswerkzeug, das es KI-Entwicklern und -Schöpfern ermöglicht, direkt auf Cloud-Computing-Ressourcen zurückzugreifen, um Bildaufgaben zu erledigen, ohne sich Gedanken über die Beschränkungen von Grafikkarten und Umgebungen machen zu müssen. Bis jetzt unterstützt BizyAir Dutzende von Modellen und unterstützt den Mischbetrieb von lokalen ComfyUI-Knoten und hat bereits fast zehntausend Nutzer gewonnen.
△Bildquelle: SiliconFlow
In diesem Jahr begann SiliconFlow auch mit der Kommerzialisierung im B2B-Bereich und etablierte Partnerschaften mit führenden Cloud-Anbietern, Chipherstellern, großen Modellfirmen und Anwendungsunternehmen wie Huawei, Amazon Web Services, Nvidia.
Was Unternehmensdienstleistungen betrifft, so hat SiliconFlow bereits in mehreren Szenarien wie große Sprachmodelle, Bildgenerierung, Videoproduktion Leuchtturm-Kundenreferenzen umgesetzt. SiliconFlow bietet derzeit vier Servicemodelle an, darunter spezielle Instanzen, Power-Management, private MaaS-Versionen und All-in-One-Geräte basierend auf der Huawei Ascend 910-Serie NPU.
Zweifellos hat DeepSeek die trüben Wolken über dem Bereich der großen Modelle im Jahr 2024 verjagt, und ein großes neues Kapitel hat begonnen. Im Jahr 2024 erklärte Yuan Jinhui gegenüber „Emerging Intelligence“, dass nach der Einführung von GPT-4o die Einschränkungen der Sprach- und Wissensfähigkeiten großer Modelle weitgehend gelöst seien, mit Ausnahme der logischen Schlussfolgerungen.
Mit der Einführung von OpenAI o1 und DeepSeek R1 wurde ein bedeutender Fortschritt bei der Lösung des Problems der „logischen Fähigkeiten“ in großen Modellen gemacht, was ein großartiger Vorteil für den Anwendungsmarkt ist.
„Es ist zu erwarten, dass Anwendungen auf Basis von DeepSeek im In- und Ausland explodieren werden, dieser Tag ist endlich gekommen“, sagte Yuan Jinhui.
Im Folgenden ein Frage-Antwort-Gespräch zwischen „Emerging Intelligence“ und dem Gründer Yuan Jinhui:
„Emerging Intelligence“: Was waren die Meilenstein-Fortschritte, die SiliconFlow nach der letzten Finanzierungsrunde in Bezug auf die Produkte erzielt hat? Wie stark haben sich die Schlüsselleistungen verbessert?
Yuan Jinhui: Wir haben vor allem die Anpassung an Huawei Ascend-Chips vorgenommen, das ComfyUI-Cloud-Knoten-Plugin BizyAir open-sourced und kontinuierlich neue Modelle sowie Funktionen wie Modell-Feinabstimmung und -Hosting eingeführt.
Die Leistung der zugrunde liegenden Inferenz-Frameworks gehört nach wie vor zur Branchenführung. Performance-Optimierung ist eine Aufgabe, die langfristige und kontinuierliche Investitionen erfordert.
„Emerging Intelligence“: Welche Rückmeldungen hat der Markt nach der Einführung der relevanten Produkte gegeben? Welche wichtigen Fortschritte gab es bei der kommerziellen Umsetzung?
Yuan Jinhui: SiliconCloud hat ein explosionsartiges Wachstum erlebt, mit derzeit über drei Millionen Nutzern und täglichen Token-Anfragen von über hundert Milliarden. BizyAir hat ohne größere Promotion fast zehntausend Nutzer gewonnen.
In Bezug auf die kommerzielle Umsetzung, insbesondere nach der Einführung von DeepSeek R1 & V3, waren die hereinströmenden Kooperationsanfragen überwältigend.
„Emerging Intelligence“: Im Juli letzten Jahres führte SiliconFlow BizyAir ein. Warum wurde dieses Produkt auf den Markt gebracht? Was ist die strategische Ausrichtung?
Yuan Jinhui: BizyAir war eine überraschende Entwicklung. Ursprünglich war es ein experimentelles Projekt, das den Nutzern helfen sollte, mit kostengünstigen Inferenzdienstressourcen leichter an Bildgenerierungen zu arbeiten. Vor BizyAir hatten wir bereits mit unserem open-source, leistungsstarken Bild-/Video-Inferenzbeschleunigungskomponentenmodul OneDiff, das flexibel und reich an Modellunterstützung ist, einen guten Ruf gewonnen. Im Laufe der Arbeit mit OneDiff haben wir häufige Schmerzpunkte von Bildnutzern, wie langsame Bildausgabe, umständliche Workflow-Kombinationen und hohe Einstiegshürden, entdeckt. Daher haben wir versucht, BizyAir zu entwickeln, das nach der Veröffentlichung bei den Nutzern sehr beliebt war und sich schnell verbreitet hat.
„Emerging Intelligence“: Letztes Jahr sagten Sie, dass die Einschränkungen der Sprach- und Wissensfähigkeiten großer Modelle weitgehend gelöst sind, mit Ausnahme der Logik. Ist die logische Fähigkeit nach Deepseek V3 nun ausreichend, um im Jahr 2025 phänomenale Anwendungen zu ermöglichen?
Yuan Jinhui: Zu dieser Zeit gab es noch kein OpenAI o1, DeepSeek-R1. Ihre Veröffentlichung hat die starke logische Schlussfolgerungsfähigkeit der Modelle gezeigt, und DeepSeek-R1 hat den Denkprozess vollständig offengelegt, sodass es eher wie ein nachdenklicher Mensch aussieht.
Jetzt können Entwickler mit Standard-APIs viele coole Anwendungen erstellen. Es ist zu erwarten, dass Anwendungen auf Basis von Open-Source-Modellen wie DeepSeek weltweit explodieren werden, dieser Tag ist endlich gekommen.
„Emerging Intelligence“: Kürzlich hat SiliconFlow schnell DeepSeek auf Ascend bereitgestellt, und während des Frühlingsfestes strömten viele Entwickler herein. Was haben Sie an der Front gesehen?
Yuan Jinhui: Ursprünglich dachte ich, wir könnten diese Welle von Nutzern handhaben, aber die Marktnachfrage nach DeepSeek-R1 & V3 war zu groß. Derzeit müssen wir den Zugriff freier Nutzer drosseln, aber wir arbeiten aktiv daran, die Ressourcen zu erweitern, in der Hoffnung, den Nutzern einen unbeschränkten Zugang zu ermöglichen.
Als Entwicklungs- und Unternehmens-API-Plattform hat allein der Playground auf der Website täglich Hunderttausende von aktiven Nutzern, was das immense Bedürfnis nach DeepSeek zeigt.
„Emerging Intelligence“: Viele Drittanbieter-Unternehmen haben angekündigt, dass sie DeepSeek-R1 & V3 integrieren, aber warum gibt es so wenige Unternehmen, die die vollwertige Version anbieten können?
Yuan Jinhui: Einerseits erfordert die Bereitstellung einer vollwertigen Version von DeepSeek R1 & V3 erheblich Ressourcen. Die Bereitstellung mit 80 H800-Einheiten kostet monatlich fünf bis sechs Millionen für Rechenleistungskosten, und für viele Unternehmen ist es günstiger, SiliconCloud-ähnliche Cloud-Service-APIs zu nutzen, als es lokal zu betreiben.
Andererseits sind die technischen Herausforderungen bei der Bereitstellung von MoE-Modellen wie DeepSeek R1 & V3 sehr groß und erfordern ein professionelles AI Infra-Team, um erfolgreich zu deployen und die Leistung zu optimieren. SiliconFlow's SiliconCloud war die erste Plattform in China, die DeepSeek-Modelle von Drittanbietern einsetzte, und sie war die erste AI Infra-Firma, die DeepSeek-R1 & V3 auf einheimischen Chips adaptierte und einsetzte.
Umschlagquelle|AI Design
👇🏻 Scannen Sie den QR-Code, um der „Intelligent Emerging-AI-Community“ beizutreten 👇🏻
Willkommen in der Gruppe
Willkommen zum Austausch
Dieser Artikel stammt von dem WeChat-Öffentlichen Konto „Emerging Intelligence” , Autor: Deng Yongyi, veröffentlicht mit Genehmigung von 36Kr.