Hinter Cyeras Schätzung von 6 Milliarden US - Dollar: Sicherheit ist kein Pluspunkt für KI, sondern ein unverzichtbarer Bestandteil für die Umsetzung.
Halb 2025 ist bereits vorbei, und wir haben den Ausbruch von AI-Anwendungen erlebt. Verschiedene Agenten- und Vibe Coding-Tools tauchen überall auf, und es gibt auch eine Reihe von AI-nativen Hardwareprodukten, die Software und Hardware kombinieren.
Im Bereich der Tools ist das Gebiet der AI-Sicherheitstools das am aktivsten in Bezug auf Gründung und Finanzierung. In den letzten Monaten gab es beispielsweise die Neuigkeiten, dass Cyera weitere 500 Millionen US-Dollar an Finanzierungen erhielt und einen Unternehmenswert von 6 Milliarden US-Dollar hat; Guardz 56 Millionen US-Dollar in der Serie B und Trustible 4,6 Millionen US-Dollar in der Seed-Runde an Finanzierungen erhielt.
Der innere Grund für die anhaltende Aktivität der AI-Sicherheitstools liegt darin, dass Sicherheit eine grundlegende Anforderung der Technologiebranche ist. Ohne eine solide Sicherheitsgrundlage kann die Ökosystem von Produkten und Anwendungen nicht gedeihen.
Zum Beispiel in Bezug auf die Cloud-Sicherheit: Je sicherer die Cloud-Computing-Umgebung ist, desto größer ist das Vertrauen der Unternehmen, ihre Geschäfte in die Cloud zu verlagern. Je sicherer die Daten sind, desto mehr können Unternehmen und private Nutzer AI-Produkte nutzen, was die Entwicklung des gesamten Anwendungsökosystems fördert.
Man kann sagen, dass die AI-Sicherheit kein Pluspunkt, sondern ein notwendiger Bestandteil für die Umsetzung von AI-Anwendungen ist.
Sicherheitstools decken die gesamte AI-Wertschöpfungskette ab
Die Sicherheitstechnologie entwickelt sich mit der Evolution der Bedrohungen und der Veränderungen der Produktformen. In der Vergangenheit haben sich bereits Bereiche wie Computersicherheit, Netzwerksicherheit und Cloud-Sicherheit etabliert, und die AI-Sicherheit ist der neueste Bereich.
Beispielsweise ist in der Computesicherheit das Antivirenprogramm das wichtigste Sicherheitsprodukt. Ein bekanntes Beispiel ist das 360-Antivirenprogramm, dessen Hauptfunktionen die Detektion, Beseitigung und Echtzeit-Schutz vor Computerviren sind.
Bei der Unternehmensnetzwerksicherheit wird hauptsächlich eine klare "Grenze" zwischen dem internen Netzwerk (vertrauenswürdiger Bereich) und dem externen Internet (nicht vertrauenswürdiger Bereich) errichtet. Das Hauptziel besteht darin, diese Grenze zu schützen, um unbefugten Zugang und bösartigen Datenverkehr von außen in das interne Netzwerk zu verhindern und gleichzeitig das interne Netzwerk zu überwachen und zu verwalten. Ein typisches Unternehmen ist Cisco.
Seit der Entstehung des Cloud-Computings hat es einen größeren Wandel in der Sicherheit gegeben, der auch neue Cloud-Sicherheitsriesen hervorgebracht hat, wie beispielsweise Wiz, das von Google für 32 Milliarden US-Dollar übernommen wurde. Wiz entwickelt eine Cloud-native Anwendungs-Schutzplattform (CNAPP), die die Cloud-Plattform und die darauf laufenden Anwendungen umfassend schützt. Der Kern liegt in der Sichtbarkeit aller digitalen Assets auf der Cloud-Plattform, der Situationsverwaltung sowie dem umfassenden Schutz und der Autorisierungsverwaltung.
Im Zeitalter der AI stellen die neuen Technologien neue Anforderungen an die Sicherheit. Beispielsweise muss man die AI-Modelle schützen, die Unternehmensdaten vor der Offenlegung durch AI-Anwendungen bewahren, sich gegen neue, AI-getriebene Angriffe verteidigen und es gibt auch Anforderungen an die Sicherheitsgovernance und die Einhaltung von Vorschriften in Bezug auf die AI.
Unternehmen, die die AI auf der Modell-Ebene schützen
ProtectAI
Finanzierung: Abschluss einer Serie B-Finanzierung in Höhe von 60 Millionen US-Dollar, die von Evolution Equity Partners geleitet wurde. Die Gesamtfinanzierung des Unternehmens beläuft sich auf 108,5 Millionen US-Dollar.
Produkt: Protect AI hat die neue Kategorie "MLSecOps" (Maschinelles Lernen + Sicherheit + Betrieb) geschaffen. AI Radar ist das Flaggschiffsprodukt von Protect AI, das die folgenden wichtigen Herausforderungen löst: Es macht das AI-System der Unternehmensnutzer besser sichtbar, einfacher zu prüfen und leichter zu verwalten.
Zunächst ermöglicht AI Radar es den Organisationen, AI sicherer zu deployen, indem es die Sicherheit ihrer ML-Lieferkette bewertet und schnell Risiken erkennt und mindert. Durch die Echtzeitüberwachung und Einsicht in die Angriffsfläche des ML-Systems erstellt und aktualisiert es eine manipulationssichere ML-Materialliste (MLBOM). Im Gegensatz zur SBOM bietet es eine Liste aller Komponenten und Abhängigkeiten im ML-System, sodass die Kunden vollständig über die Herkunft der AI/ML informiert sind. Es kann auch die Komponenten der "Software-Lieferkette" des Unternehmens verfolgen: Betriebswerkzeuge, Plattformen, Modelle, Daten, Dienste und Cloud-Infrastruktur.
Darüber hinaus verwendet AI Radar ein integriertes Modell-Scanning-Tool, um Verletzungen von Sicherheitsrichtlinien, Modelllücken und Angriffe durch bösartigen Code-Einsatz in großen Modellen und anderen ML-Inferenz-Workloads zu detektieren. Es kann auch mit Drittanbieter-AppSec- und CI/CD-Orchestrierungstools sowie Modellsicherheits-Frameworks integriert werden.
HiddenLayer
Finanzierung: 50 Millionen US-Dollar in der Serie A, die von M12 und Moore Strategic Ventures gemeinsam geleitet wurde.
Produkt: Das Flaggschiffsprodukt von HiddenLayer ist eine Sicherheitsplattform (MLSec) zur Detektion und Prävention von Netzwerkangriffen auf maschinell lernende Systeme. Es ist die erste Lösung des Typs "MLDR" (Maschinelles Lernen + Detektion + Reaktion) auf dem Markt, die Unternehmen und ihre Kunden vor neuen Angriffsmethoden schützt.
Die MLSec-Plattform kann gegen bösartige Angriffe wie die Extraktion von Modellparametern, das Diebstahl von Modellen, die Extraktion von Trainingsdaten, Datenvergiftung, Modell-Einsatz und Modellübernahme schützen. Im Wesentlichen kann man es als eine Plattform verstehen, die das Modell umfassend schützt.
Haize Labs
Finanzierung: Neue Finanzierungen, die von General Catalyst geleitet wurden, mit einem Unternehmenswert von 100 Millionen US-Dollar nach der Finanzierung.
Produkt: In der AI-Sicherheit ist die Verhinderung des "Ausbruchs" von AI ein wichtiges, aber noch nicht perfekt gelöstes Thema. Wenn eine AI ausgebrochen ist, kann sie dazu verwendet werden, eine große Menge an unangemessenen Texten, blutigen Bildern usw. zu generieren und sogar andere Netzwerke automatisch anzugreifen, was für kommerzielle AI und soziale Medien ein "Albtraum" ist.
Die übliche Methode zur Verhinderung des AI-"Ausbruchs" ist der Modell-Red-Team-Test. Dabei wird ein Red-Team beauftragt, das Zielmodell zu "bewerten" und so unsichere Reaktionen auszulösen. Die Hauptherausforderung besteht darin, dass noch Menschen benötigt werden, um zu beurteilen, ob die Bewertung des "Bewertungsmodells" korrekt ist. Ein Red-Team-Test mit menschlicher Beteiligung ist schwer zu skalieren und erfordert viel Training.
Die Kerntechnologie von Haize Labs, das "Haizing", automatisiert den Red-Team-Test und den Stress-Test, was nicht nur die Kosten senkt, sondern auch die AI-Unternehmen dazu ermutigt, ihre eigenen AI-Systeme umfassender zu prüfen und zu verbessern.
Unternehmen, die AI-Anwendungen und Daten schützen
Cyera
Finanzierung: Nach der Erlangung von insgesamt 600 Millionen US-Dollar in den Serien C und D im Jahr 2024 hat Cyera weitere 500 Millionen US-Dollar an Finanzierungen von Lightspeed, Greenoaks und Georgian erhalten, was seinen Unternehmenswert auf 6 Milliarden US-Dollar bringt. Die Gesamtfinanzierung übersteigt 1,2 Milliarden US-Dollar.
Produkt: Cyera hat die Sicherheitskategorie "DSPM" (Data Security Posture Management) geschaffen. Das Kerngedanke besteht in der Entdeckung + Klassifizierung + Situationsbewertung von Daten. Die Funktionen umfassen die Entdeckung und Klassifizierung von Daten, die Daten-Sichtbarkeit, die Datenrisiko-Bewertung, die Verwaltung von Daten-Sicherheitsrichtlinien, die Datenreparatur und Reaktion usw.
Genauer gesagt lernt die Plattform der Cyera in Echtzeit die spezifischen Daten und die Geschäftsanwendungen der Unternehmen kennen, um das Sicherheits-Team zu helfen, die Position, den Zweck und die Zugangsberechtigungen der Daten zu verstehen und die geeigneten Kontrollmaßnahmen anzuwenden, um die Sicherheit zu gewährleisten. Ihr großes Modell kann automatisch sensible Daten überall entdecken, klassifizieren und schützen. Zusammen mit dem Richtlinien-Engine der Plattform kann es Konfigurationsfehler erkennen, spezifische Zugangskontrollen empfehlen und neue Daten-Sicherheitsrichtlinien erstellen, um die Einhaltung der Vorschriften und die Verwaltung des Zugangs zu sensiblen Daten zu gewährleisten.
Cyberhaven
Finanzierung: Cyberhaven hat 100 Millionen US-Dollar in der Serie D von StepStone Group erhalten, was seinen Unternehmenswert auf über 1 Milliarde US-Dollar bringt.
Produkt: Das Hauptproblem, das Cyberhaven löst, ist die Offenlegung von sensiblen Unternehmensdaten aufgrund der unkontrollierten Nutzung von AI-Anwendungen durch Mitarbeiter. Es löst dieses Problem, indem es die Daten-Herkunft (Data Lineage) oder den Datenlebenszyklus über verschiedene Nutzer und Endpunkte hinweg verfolgt. Die Daten-Herkunft bezieht sich auf das Verfolgen des Ursprungs, der Bewegung und der Transformation von Daten innerhalb der gesamten Organisation.
Die Kerntechnologie von Cyberhaven ist das Large Lineage Model (LLiM). Dieses Modell wird nicht mit Sprachdatensätzen, sondern mit Datensatz über Datenflüsse trainiert. Es kann erkennen, welche Daten oder Datenflüsse gefährdet sind und eine Erklärung geben. Wenn es den Fluss von sensiblen Daten erkennt und verfolgt, kann die Plattform von Cyberhaven den Datenausfluss zu unbefugten AI-Tools in Echtzeit stoppen.
Reco
Finanzierung: 25 Millionen US-Dollar in der Serie A+ von Insight Partners, Zeev Ventures, Boldstart Ventures, Angular Ventures und Redseed. Die Gesamtfinanzierung beläuft sich auf 55 Millionen US-Dollar.
Produkt: Reco revolutioniert die traditionellen SaaS-Sicherheits-Situationsmanagement-Tools (SSPM) mit einer neuen Sicherheitsstrategie namens "Dynamische SaaS-Sicherheit". Die traditionellen Tools aktualisieren sich langsam und haben begrenzte Integrationsfähigkeiten, was nicht mehr den neuen Sicherheitslücken entspricht, die durch das Aufkommen von AI und AI-Agenten entstehen.
Konkret bietet Reco einen umfassenden Anwendungs-Entdeckungs-Engine, der über 50.000 Anwendungen erkennen und klassifizieren kann, um den Unternehmen eine umfassende Sichtbarkeit ihres SaaS-Ökosystems zu geben.
Die eigene SaaS App Factory von Reco kann derzeit über 175 Anwendungen schützen und kann neue Anwendungen in 3 - 5 Tagen integrieren - viel schneller als die traditionellen Anbieter, die oft Monate benötigen.
Reco arbeitet 10 Mal schneller als seine Konkurrenten und senkt die Deployments- und Wartungskosten um 80%. Selbst wenn neue Anwendungen und AI-Agenten ständig eingeführt oder aktualisiert werden, kann es eine kontinuierliche Sicherheit und Einhaltung der Vorschriften gewährleisten und den Unternehmen den notwendigen Schutz in der erforderlichen Geschwindigkeit bieten.
Darüber hinaus bietet es auch zwei Sicherheits-AI-Agenten für die Unternehmen. Der Alarm-Agent ist dafür zuständig, die riesige Anzahl von Alarmen zu klassifizieren und zu ergänzen, um die Sicherheitsanalysten von dieser Arbeit zu befreien. Der Identitäts-Agent überwacht, wer in der SaaS-Ökosystem der Kunden welche Zugangsberechtigungen hat und ob diese Zugangsberechtigungen ein Risiko darstellen.
Unternehmen, die das Unternehmensgeschäft durch die Sicherheitsgovernance und die Einhaltung von Vorschriften in Bezug auf die AI schützen
Vanta
Finanzierung: 150 Millionen US-Dollar in der Serie C von Sequoia Capital, was seinen Unternehmenswert auf 2,45 Milliarden US-Dollar bringt. Die Gesamtfinanzierung beläuft sich auf 353 Millionen US-Dollar.
Produkt: Vanta ist eine AI-gesteuerte Compliance-Plattform. Ihr Produkt Vanta AI hat Funktionen wie die Sicherheitsbewertung von Lieferanten, die automatische Antwort auf generierte Fragebögen und die intelligente Zuordnung von Kontrollen. Es kann automatisch Informationen aus SOC 2-Berichten, benutzerdefinierten Sicherheitsfragebögen und anderen Dokumenten extrahieren, um die Kunden bei der Sicherheitsüberprüfung ihrer Lieferanten in kürzester Zeit zu unterstützen.
Es kann auch aus dem Unternehmensarchiv und den früheren AI-Antworten lernen und schnell auf die Kunden reagieren und intelligente Vorschläge geben. Es ordnet die bestehenden Tests und Richtlinien den relevanten Kontrollen zu, um es einfach zu machen, die Einhaltung neuer Rahmenwerke zu beweisen.
Das Vanta Trust Center ist die Plattform, auf der die Kunden von Vanta ihre Sicherheit und Einhaltung von Vorschriften gegenüber potenziellen Kunden zeigen können. Es kann die zeitaufwändige Sicherheitsüberprüfung bei jedem Geschäftsvorgang automatisieren und sicherstellen, dass die potenziellen Kunden nahtlos auf die erforderlichen Sicherheitsinformationen zugreifen können, um Kaufentscheidungen zu treffen. Durch die kontinuierliche Überwachung von Vanta können die Kunden Echtzeitnachweise dafür liefern, dass ihre Kontrollen bestanden haben. Zusammen mit Vanta AI kann das Vanta Trust Center auch Dokumente und verschiedene personalisierte Sicherheitsantworten für die potenziellen Kunden der Kunden bereitstellen.
Trustible
Finanzierung: Abschluss einer Seed-Runde von 4,6 Millionen US-Dollar, die von Lookout Ventures geleitet wurde.
Produkt: Trustible hilft Unternehmen, die Risiken zu verwalten und die globalen Vorschriften einzuhalten, während sie die AI-Anwendungen beschleunigen. Ihr Produkt ist die Trustible AI Governance Platform, die die internen AI-Anwendungsfälle, Modelle und Datenquellen der Unternehmen aufzeichnet und verfolgt, die verschiedenen Risiken und Gefahren von AI-Systemen verwaltet, die Unternehmen bei der Einhaltung und Anpassung an die sich ständig ändernden globalen AI-Vorschriften wie die EU-"AI-Gesetzgebung" und das NIST AI-Risikomanagement-Framework unterstützt und die Risiken und die Einhaltung von Vorschriften von AI-Systemen und Lieferanten systematisch bewertet.
Insgesamt macht seine Softwareplattform die komplexe Governance-Arbeit (wie die Bestandsaufnahme von Assets, die Risikobewertung, die Einhaltung von Vorschriften) automatisiert, prozessorientiert und sichtbar. Das endgültige Ziel ist es, die Unternehmen auf der Grundlage von Vertrauen bei der AI-Innovation zu beschleunigen.
Die AI-Sicherheit ist kein Pluspunkt, sondern ein notwendiger Bestandteil für die Umsetzung von AI-Anwendungen
Der