Intel und Volcengine schließen sich zusammen, um die Ära der "globalen Effizienzoptimierung" einzuleiten.
Der globale Markt steht vor einer beispiellosen Explosion des Rechenleistungbedarfs.
Insbesondere in einer Zeit, in der die Multimodalitätstechnologie immer reifer wird und die Implementierung von Unternehmens-Agenten immer erfolgreicher ist, befinden sich immer mehr Unternehmen an der Spitze der AI-Transformation.
Wenn es jedoch mehr Modelloptionen gibt und der Rechenleistungbedarf stetig wächst, stellt sich die Frage, wie man die Wirtschaftlichkeit gewährleistet, wie man eine hohe Durchsatzrate und eine geringe Latenz erreicht und wie man bei Stabilität, Zuverlässigkeit und Kompatibilität gezielter vorgehen kann. All dies hat dazu geführt, dass die AI in die Cloud-Native-Ära eintritt.
Am 19. Dezember wurde auf der Winter-Force-Konferenz 2025 von Volcengine das Doubao-Großmodell 1.8 und das Audio-Video-Erstellungsmodel Seedance 1.5 pro vorgestellt. Laut offiziellen Testdaten gehört das Doubao-Großmodell in Bezug auf Multimodalitätsverständnis, Generierungsfähigkeit und Agentenfähigkeit zur weltweiten Spitzengruppe.
Laut Tan Dai, Präsident von Volcengine, hat die tägliche Token-Nutzung des Doubao-Großmodells bis Dezember diesen Jahres die Marke von 50 Billionen überschritten und gegenüber dem Vorjahr um mehr als das Zehnfache zugenommen.
An diesem entscheidenden Punkt, an dem AI in allen Branchen eingesetzt wird, wie erreicht Volcengine die Allgemeinverfügbarkeit von AI?
Die Cloud-Native-Lösung hinter der Explosion
„Daten sind das Öl der neuen Ära“, sagte Tan Dai, Präsident von Volcengine, in einem Interview. Die zweite Welle der Cloud-Computing-Branche liegt in der Intelligenz. Dies bedeutet nicht nur, dass der Wert der Daten genutzt werden kann, sondern auch, dass die Geschäftsanwendungen von Ende zu Ende umgesetzt werden können. Basierend auf Großmodellen werden MaaS (Modell als Dienstleistung) und AI-Agenten in den nächsten Jahren die vorherrschende Erzählung sein.
Basierend auf diesem Konzept hat Volcengine eine Reihe von Maßnahmen ergriffen.
Im Unterschied zur 1.0-Ära ist der Hauptakteur in der Cloud-Native-Welt nicht mehr die Webseite, sondern der Agent. Die Branche sieht das Jahr 2025 als das Jahr der Agenten. Als wichtiges Trägermedium für die Implementierung von Großmodellen bestimmt die Fähigkeit der Agenten die Tiefe der Großmodellanwendungen.
Um die Fähigkeitsgrenze der Agenten zu überwinden, konzentriert sich Volcengine auf die Grundlagenmodelle und führt häufige Modelleupdates durch. So hat es Modelle entwickelt, die sowohl Leistung als auch Kosteneffizienz bieten. Beispielsweise hat die neueste Version des Videoerstellungsmodel Seedance-Serie eine höhere Flexibilität: Seedance-1.0-Lite setzt den Fokus auf die Kosten und berücksichtigt auch die Geschwindigkeit, um für die häufige Erstellung geeignet zu sein. Seedance-1.0-Pro kann filmreifes Bild und native Soundeffekte erzielen, unterstützt die freie Generierung von 2–12 Sekunden 1080P, die Erzählung mit mehreren Szenen und die genaue Bezugnahme auf Anweisungen, um die Bedürfnisse der filmischen Sinneserzählung zu erfüllen.
Das Audio-Video-Erstellungsmodel Seedance 1.5 pro hat eine noch beeindruckendere Vollständigkeit. Es nutzt eine innovative Architektur für die gemeinsame Generierung von Audio und Video, unterstützt verschiedene Elemente wie Umgebungsgeräusche, Hintergrundmusik und menschliche Stimmen und erreicht eine Millisekunden-schnelle Synchronisierung von Bild und Ton. Bei der Behandlung von Dialogen unterstützt das Modell mehrsprachige Gespräche mit mehreren Personen, eine genaue Stimme-Lippen-Synchronisierung, die auch chinesische Dialekte (wie Sichuanisch, Kantonesisch usw.), Englisch und kleine Sprachen abdeckt, und erhöht somit die Realität des Videoinhalts und das Potenzial für die globale Erstellung.
Andererseits arbeitet Volcengine auch mit Ökosystempartnern zusammen, um die Hardwarekonfiguration zu verbessern und ein neues Modell der Cloud-Edge-Ende-Kooperation zu eröffnen. Durch die enge Zusammenarbeit von Hardware und Software in einem Ökosystemlösung wird die AI-Fähigkeit maximiert.
Im Juni dieses Jahres hat Volcengine auf der Frühjahrs-Force-Konferenz 2025 gemeinsam mit Intel die vierte Generation der allgemeinen Recheninstanzen (ECS) mit Intel Xeon 6 Performance Core-Prozessoren vorgestellt, was die traditionellen Anwendungen und die AI-Anwendungen umfassend verbessert hat.
Nach Schätzungen hat die Basisversion der allgemeinen Recheninstanzen g4i im Vergleich zur vorherigen Generation eine 20%-ige und 19%-ige Leistungssteigerung bei der MySQL-Datenbank und der Web-Anwendung erreicht. Die Rechenleistungserweiterte Version g4ie hat eine 15%-ige und 26%-ige Leistungssteigerung bei der Videodekodierung und der Bildrendering erreicht. Die I/O-erweiterte Version g4il hat auch eine 13%-ige und 30%-ige Leistungssteigerung bei der Spark-Big-Data-Verarbeitung und der Redis-Datenbank erreicht.
In der Vision von Volcengine spielt die CPU auch in der AI-Ära eine wichtige Rolle. Durch die enge Kooperation mit der GPU bietet sie eine Ende-zu-Ende-Unterstützung für Unternehmens-AI-Agenten. Ihre Eigenschaften liegen in der hohen Parallelität, der schnellen Reaktion, der weiteren Optimierung der Rechenleistungskosten und der Gewährleistung von Sicherheit und Privatsphäre.
Insbesondere in Bezug auf die Sicherheit ist für viele Unternehmen die Stabilität und Sicherheit der Geschäftsprozesse von zentraler Bedeutung. Mit der zunehmenden Einbindung von Großmodellen in die Branchen werden immer mehr hochwertige und sensible Daten zu Schlüsselfaktoren für die AI-Anwendung.
Die vertraulichen Virtualisierungsinstanzen, die von Volcengine und Intel TDX erstellt wurden, ermöglichen es, dass sowohl der Informationsextraktions- und -verarbeitungsprozess in der RAG-Anwendung, der Datenbankprozess als auch der Modellgenerierungsprozess direkt auf die vertraulichen virtuellen Maschinen zugreifen können, ohne dass das mittlere Framework der Anwendung geändert werden muss. Dadurch wird die Isolation und der Schutz in der Cloud gewährleistet, und die Daten sicherheit wird bei der RAG-Bereitstellung gewährleistet.
Das Cloud-Speichersystem von Volcengine hat auch die Komprimierungsbeschleunigungstechnologie (Intel® QAT) des Xeon-Prozessors integriert, um die Effizienz der Datenkomprimierung und -dekomprimierung zu verbessern und eine bessere Komprimierungsrate und eine geringere Latenz als der Software-LZ4-Algorithmus zu erreichen. Die QAT-Hardwarebeschleunigung generiert CRC32-Prüfungen, um die Integrität der Daten zu gewährleisten, und unterstützt die symmetrische Verschlüsselung im AES-XTS-Modus, um die Zuverlässigkeit der Daten zu erhöhen.
Eine so starke, flexible und kosteneffiziente Lösung bildet schließlich die elastische AI-Infrastrukturbasis für Unternehmen und beschleunigt den Intelligenzierungsprozess der Unternehmen. Wie Guo Wei, Vizepräsident der Marketing-Gruppe von Intel und Generalmanager in China, sagte: „Der Schlüssel zur Freisetzung des wahren Werts der AI liegt darin, sie auf einfache und erweiterbare Weise in die Unternehmensprozesse und die persönlichen Erlebnisse zu integrieren. Mit den Stärken von Volcengine bei der Ressourcenplanung der Rechenleistung und der Optimierung der Massen-AI-Inferenz erstrecken wir die Innovation auf der Chip-Ebene nahtlos über die Cloud-Native-Architektur bis an den Rand und an das Ende, um die effiziente Kooperation und die einheitliche Bereitstellung von vielfältigen und heterogenen Rechenleistungressourcen zu erreichen und eine stabile und zuverlässige Serviceumgebung zu schaffen, die es Entwicklern und Unternehmen ermöglicht, sich auf die Geschäftsinovation und die Umsetzung zu konzentrieren.“
Vor der Allgemeinverfügbarkeit der AI: Die Cloud-Edge-Ende-Kooperation schafft neue Chancen
Die Cloud-Native-AI von Volcengine ist nicht nur eine technologische Innovation, sondern auch die Schlüsselinfrastruktur für die zukünftige Umsetzung von AI-Anwendungen. Durch die Zusammenarbeit mit Intel in Bezug auf die Trend der „Cloud-Edge-Ende-Kooperation“ wird Volcengine die Anwendung der AI in einer breiteren Palette von Branchen und Szenarien vorantreiben.
Auf der Standfläche der Winter-Force-Konferenz 2025 von Volcengine konnten wir auch die vielfältigen Anwendungen von Volcengine und Intel an den Rändern und an den Endgeräten sehen.
Bei der Grundlagenverwaltung von Gemeinden stehen die Mitarbeiter oft vor einer Vielzahl von alltäglichen und komplexen Aufgaben, die eine breite Palette von Geschäftsbereichen abdecken und oft miteinander verwoben sind. Wie kann die AI hier einen Wert schaffen? Der Gemeindesonderassistent „Hua Gege“ ist die Antwort. Mit der Fähigkeit der intelligenten Intentionenerkennung des Unternehmens-AI-Arbeitsplatzes kann er automatisch die verschiedenen Bedürfnisse der Benutzer in unterschiedlichen Bereichen verstehen und diese genau an die entsprechenden Agenten zuweisen, um die Funktionen, die ursprünglich in mehreren Systemen verteilt waren, nahtlos zu verbinden und natürlich zusammenzuarbeiten.
Hinter dem reibungslosen Benutzererlebnis steht die Lösung des Intel HiAgent Intelligenten All-in-One-Geräts. Es richtet sich insbesondere auf die Probleme wie die häufige Umschaltung bei der Anforderung von mehreren Agenten in verschiedenen Domänen, das fragmentierte Erlebnis und das Verlust der Kontextinformationen und optimiert diese Probleme auf der Grundlage des Unternehmens-AI-Arbeitsplatzes von Volcengine HiAgent. Es leitet automatisch die Anforderungen und den Kontext der Benutzer in verschiedenen Domänen an die entsprechenden Agenten weiter, aggregiert die diskreten Funktionen und schafft digitale Mitarbeiter mit „mehreren Fähigkeiten“, um das Benutzererlebnis und die Verarbeitungseffektivität zu verbessern. Darüber hinaus senkt es auf eine flexible und kostengünstige Weise die Einführschwelle und die Rechenleistungskosten.
Während der Münchner Automesse hat Dongchedi, ein Auto-Informationsportal, gemeinsam mit Intel eine Ausstellung für die Welt der Zukunft organisiert und die Obergrenze des immersiven Erlebnisses neu definiert.
Über die PICO VR-Brille kann die 6DoF-Virtualisierungsumgebung, die von der Intel PC- und Serverplattform angetrieben wird, einfach gesagt, nicht nur die Kopfrotation der Benutzer (3 Rotationsfreiheitsgrade) unterstützen, sondern auch die Positionsbewegung der Benutzer im Raum erfassen (3 Translationsfreiheitsgrade), um ein echtes räumliches Gehen und Interaktionsgefühl zu ermöglichen. Dies erfordert jedoch auch eine sehr geringe Latenz, um ein hochwertiges immersives Erlebnis zu gewährleisten. Daher wird in Zusammenarbeit mit der RTC-Echtzeitkommunikationstechnologie mit geringer Latenz und hoher Parallelität das Ziel erreicht, dass mehrere hochauflösende Videos mit geringer Latenz auf die VR-Geräte übertragen werden können.
An der persönlichen Endgeräteseite entsteht auch ein neues Arbeitsmodell für die Inhaltserstellung, das auf der elastischen AI-Fähigkeit von Intel und Volcengine basiert. Das Intel AI PC Video Editing Demo, ein vollautomatisches Videoerstellungstool, das auf dem LLM/VLM-Großmodell und der hybriden Rechenleistung von Endgerät und Cloud basiert, optimiert die Effizienz des Produktionsprozesses erheblich durch die flexible Kombination der Rechenleistung.
Beispielsweise kann die GPU am Endgerät das VLM-Modell ausführen, um die Videomaterialien tiefgehend zu analysieren und in strukturierte Daten umzuwandeln, die dann in die Cloud hochgeladen werden. Das LLM-Modell in der Cloud kann dann seine Stärken ausspielen und automatisch die Themenermittlung, die Erzählungsplanung, die Szenenaufteilung, die Hintergrundmusikauswahl und die Untertitelgenerierung basierend auf den Anweisungen der Benutzer durchführen. Basierend auf dem Skriptplan wird die Aufgabe dann wieder an das lokale Endgerät zurückgegeben, um die Videobearbeitung, -zusammenstellung und -exportierung abzuschließen. Durch die Zusammenarbeit zwischen Endgerät und Cloud wird die Arbeitsleistung der Videoersteller maximiert.
In der AI-Ära ist die Rechenleistung zu einer „neuen Energie“ für den Unternehmenswettbewerb geworden. Die Cloud-Edge-Ende-Kooperation lässt die Fähigkeit der Unternehmens-AI-Agenten stetig reifer werden. Als wichtiges Maß für den Wert der AI hat die tägliche Nutzungsanzahl des Doubao-Großmodells um das 253-fache zugenommen, von 120 Milliarden pro Tag im Mai letzten Jahres auf 30 Billionen pro Tag im September dieses Jahres.
Bis jetzt hat das Doubao-Großmodell in mehreren Schlüsselbranchen eine tiefe Einbindung erreicht,