StartseiteArtikel

Das DeepSeek-V3.2-Exp-Modell wird veröffentlicht und Open-Source gemacht, und die Preise für die API werden erheblich gesenkt.

36氪的朋友们2025-09-29 20:09
Unter der neuen Preispolitik wird die Kosten für Entwickler, die die DeepSeek API aufrufen, um mehr als 50 % sinken.

Am 29. September wurde das DeepSeek-V3.2-Exp-Modell offiziell veröffentlicht und auf Huggingface und ModelScope Open Source gestellt. Derzeit wurden die offizielle App, die Webseite und die Mini-App synchron auf DeepSeek-V3.2-Exp aktualisiert, und die API-Preise wurden erheblich gesenkt.

Nach Angaben der offiziellen Seite ist das DeepSeek-V3.2-Exp-Modell eine experimentelle Version. Als Zwischenschritt in Richtung auf eine neue Generation von Architekturen wurde in V3.2-Exp auf der Grundlage von V3.1-Terminus die DeepSeek Sparse Attention (eine sparse Attention-Mechanik) eingeführt, und es wurden explorative Optimierungen und Validierungen hinsichtlich der Effizienz von Training und Inference für lange Texte durchgeführt.

Genauer gesagt hat die DeepSeek Sparse Attention (DSA) erstmals einen feingranularen sparsen Attention-Mechanismus realisiert und hat die Effizienz von Training und Inference für lange Texte erheblich verbessert, ohne die Ausgabe des Modells nennenswert zu beeinträchtigen.

Nach einer Meldung des offiziellen WeChat-Accounts von "Huawei Computing" wurde am 29. September DeepSeek-V3.2-Exp veröffentlicht und Open Source gestellt, und die Architektur der sparsen Attention wurde eingeführt. Ascend hat schnell die Anpassung und Bereitstellung auf der Grundlage von Inference-Frameworks wie vLLM/SGLang abgeschlossen, um den 0-Tag-Support für DeepSeek-V3.2-Exp zu realisieren, und hat alle Inference-Codes und Operator-Implementierungen für Entwickler Open Source gestellt.

DeepSeek sagte auch, dass bei der Erforschung des neuen Modells viele neue GPU-Operatoren entworfen und implementiert werden mussten. Die offizielle Seite nutzt die Hochsprache TileLang für die schnelle Prototypentwicklung, um tiefere Erkundungen zu unterstützen. In der letzten Phase wird TileLang als Genauigkeits-Baseline verwendet, und es werden schrittweise effizientere Versionen mit unteren Sprachen implementiert. Daher enthalten die hauptsächlich Open Source gestellten Operatoren sowohl die TileLang- als auch die CUDA-Version. Die offizielle Seite empfiehlt der Community, bei Forschungsexperimenten die auf TileLang basierende Version zu verwenden, um das Debugging und die schnelle Iteration zu erleichtern.

Dank der erheblichen Reduzierung der Servicekosten des neuen Modells wurden auch die Preise der offiziellen API entsprechend gesenkt. Unter der neuen Preisrichtlinie wird die Kosten für Entwickler, die die DeepSeek-API aufrufen, um mehr als 50 % gesenkt.

DeepSeek veröffentlichte am 21. August offiziell DeepSeek-V3.1. Diese Aktualisierung enthält die folgenden Hauptänderungen: Erstens eine hybride Inference-Architektur, bei der ein Modell sowohl den Denkmodus als auch den Nicht-Denkmodus unterstützt; zweitens eine höhere Denkeffizienz, da DeepSeek-V3.1-Think im Vergleich zu DeepSeek-R1-0528 in kürzerer Zeit eine Antwort geben kann; und schließlich eine stärkere Agent-Fähigkeit, da durch die Post-Training-Optimierung die Leistung des neuen Modells bei der Werkzeugnutzung und Agent-Aufgaben erheblich verbessert wurde.

Am 22. September wurde DeepSeek-V3.1 auf die Version DeepSeek-V3.1-Terminus aktualisiert. Diese Aktualisierung verbesserte auf der Grundlage der ursprünglichen Fähigkeiten des Modells die Probleme, die von den Nutzern gemeldet wurden, einschließlich: Sprachkonsistenz, um die Vermischung von chinesischen und englischen Wörtern und gelegentliche ungewöhnliche Zeichen zu lindern; Agent-Fähigkeit, um die Leistung von Code Agent und Search Agent weiter zu optimieren. Die offizielle Seite sagte, dass die Ausgabe von DeepSeek-V3.1-Terminus stabiler ist als die der vorherigen Version.

Um die Auswirkungen der Einführung der sparsen Attention rigoros zu bewerten, stimmte die offizielle Seite die Trainingsbedingungen von DeepSeek-V3.2-Exp streng mit denen von V3.1-Terminus überein. Auf öffentlichen Testdatensätzen in verschiedenen Bereichen war die Leistung von DeepSeek-V3.2-Exp im Wesentlichen gleich wie die von V3.1-Terminus.

Dieser Artikel stammt von "Jiemian News", Reporter: Chen Xiaotong, veröffentlicht von 36Kr mit Genehmigung.