Unsere Kenntnisse über KI sind weitgehend unzureichend, deshalb ist Transparenz von entscheidender Bedeutung.
Einführung: Wenn wir KI nicht erkennen können, können wir sie nicht wirklich regeln
Wir gehen in eine Zeit ein, in der KI überall ist, aber ihr Vorhandensein fast unbemerkt bleibt. Sie beteiligt sich stillschweigend an unseren sozialen Interaktionen, Inhalten, Dienstleistungen und Konsum und beeinflusst sogar unsere Emotionen, Präferenzen und Verhaltensweisen. Aber wissen wir wirklich, wo sie ist, was sie tut und wer sie kontrolliert? Wenn wir sie nicht erkennen können, können wir ihr nicht vertrauen; und wenn wir ihr nicht vertrauen können, kann es keine Frage der Regulierung geben.
Die Diskussion über die Transparenz von KI zielt auf eine grundlegende, aber äußerst wichtige Frage: Was bedeutet die Fähigkeit, KI "zu sehen" in der KI-Zeit? Und wie können wir KI wirklich "sehen" lassen?
Dieser Artikel ist der erste in der Reihe KI & Gesellschaft - Gespräche mit ausländischen Fachleuten des Tencent Research Institutes. Gesprächspartner: Cao Jianfeng (Senior-Forscher des Tencent Research Institutes).
Warum ist es so wichtig, KI "zu sehen"?
Wenn wir Informationen im Internet empfangen und interagieren, begegnen wir tatsächlich echten Menschen oder "ununterscheidbaren" KI-Systemen? Mit der zunehmenden Verbreitung von generativer KI in sozialen, kreativen und dienstleistungserbringenden Szenarien treten auch Risiken wie Falschinformationen, Identitätsbetrug und Deepfakes auf. Daher wird das "Markieren von KI-Aktivitäten" (AI Activity Labeling) allmählich zu einem globalen Konsens. Die Verpflichtung zur KI-Transparenz wurde von mehreren Regulierungsbehörden wie in China und der EU in Gesetze aufgenommen, die Serviceanbieter verpflichten, anzugeben, welche Inhalte von KI generiert wurden und welche Interaktionen von KI-Systemen stammen, um Benutzern zu helfen, gefälschte Informationen zu erkennen, ihre Vorsicht zu schärfen und das Risiko von Fehlglauben und Betrug zu verringern. Dies ist die direkteste und grundlegendste Funktion der gegenwärtigen KI-Transparenzpolitik.
Aber dies ist nur die Spitze des Eisbergs der KI-Risiken, und der Wert der Transparenz liegt weit darüber hinaus. KI-Systeme entwickeln sich von Werkzeugen, die Befehle ausführen, allmählich zu intelligenten Agenten (AI Agent), die Webseiten besuchen, Transaktionen durchführen, Code schreiben und Geräte steuern können. Diese neue Fähigkeit verwischt die Grenzen zwischen KI und der realen Welt noch mehr. Dennoch wissen Regulierungsbehörden, Branchenakteure, die akademische Welt und die Öffentlichkeit immer noch sehr wenig über die Funktionsweise, das Risikokettenmodell und die gesellschaftlichen Auswirkungen von KI, und befinden sich sogar in einem "kognitiven Vakuum".
Ein umstrittenes Thema ist beispielsweise die gesellschaftliche Auswirkung der "KI-Überzeugung" (AI persuasion). Wenn KI die menschliche Sprache präzise imitieren, psychologische Bedürfnisse verstehen und sogar Emotionen beeinflussen kann, kann sie möglicherweise in alltäglichen sozialen Medien, Kurzzeitvideo-Plattformen und anderen alltäglichen Szenarien unsere Meinungen, Werturteile und sogar Verhaltensmuster stillschweigend formen? Wie tief ist ihre Auswirkung? Wie weit reicht ihre Verbreitung? Wie lange dauert ihre Wirkung? Gegenwärtig gibt es keine Beweise, um diese Fragen zu beantworten. Das größere Problem besteht darin - wir wissen nicht einmal, wo wir die Antworten finden können.
Um KI zu regulieren, müssen wir sie zuerst erkennen. Um die obigen Fragen wirklich beantworten zu können, reichen bloße Fantasie und reine theoretische Überlegungen bei weitem nicht. Wir müssen eine große Menge an "bekannten Beweisen" sammeln, die aus der realen Welt stammen und über die Funktionsweise von KI und ihre Auswirkungen auf Menschen informieren. Und genau hier liegt der langfristigere Wert des Transparenzsystems: Es bietet eine reale Beobachtungsperspektive und erste Hand-Informationen für die Untersuchung, Bewertung und Bewältigung von KI-Risiken. Beispielsweise muss man bei der Frage der "KI-Überzeugung" in der Lage sein, genau zu unterscheiden, welche Interaktionen von KI stammen und welche von echten Menschen, um zu beurteilen, wie KI die menschliche Wahrnehmung, Emotionen, Verhaltensweisen und die breitere gesellschaftliche Ordnung beeinflusst. Hierbei hilft das KI-Markierungssystem als Transparenzmechanismus nicht nur Einzelpersonen, ihre Erkennungsfähigkeit zu verbessern, sondern bietet auch Plattformen die technische Unterstützung für die Verfolgung, Analyse und Verwaltung von KI-Aktivitäten und Forschern die Möglichkeit, Beweise zu sammeln, Risiken zu bewerten und wissenschaftlichere Politiken zu entwickeln.
Darüber hinaus hat Transparenz auch die wichtige Funktion, Angst zu lindern und Vertrauen aufzubauen. Die Technologie entwickelt sich rasant, aber unser Verständnis ihrer Funktionsweise und potenziellen Auswirkungen hinkt deutlich hinterher. Die kognitive Verzögerung führt zu weit verbreiteter Regulierungsangst: Wir wissen nicht, welche Risiken am wichtigsten und dringendsten sind, und können nicht feststellen, ob wir tiefere Gefahren übersehen haben. Dies behindert in gewissem Maße auch die Verbreitung und Anwendung von KI in der Gesellschaft.
In einer Phase, in der die Risiken noch nicht vollständig geklärt sind und die Fähigkeiten von KI sich noch schnell entwickeln, kann der Transparenzmechanismus die Unruhe aller Beteiligten lindern und von der Risikoangst zur rationalen Regulierung zurückkehren, indem er "bekannte Beweise" nutzt, um die "Furcht vor dem Unbekannten" zu lindern. Es geht nicht um blindes Vertrauen, sondern um eine rationale Beurteilung auf der Grundlage von "Sichtbarkeit". Nicht nur das KI-Markierungssystem, sondern auch andere Transparenzmechanismen wie Modellvorgaben und interpretierbare Technologien versuchen, die Informationslücke in der KI-Zeit auszugleichen: Sie lindern unser "kognitives Schwarzes Loch" in Bezug auf KI-Technologie und die Informationsasymmetrie zwischen Regulierungsbehörden, der Branche, der akademischen Welt und der Öffentlichkeit. Je mehr wir über KI wissen, desto sicherer können wir sie nutzen und sogar mutig innovieren.
In einer Zeit, in der unser Wissen über die Fähigkeitsgrenzen, Risikomerkmale und gesellschaftlichen Auswirkungen von KI noch sehr begrenzt ist, ist die "Sichtbarkeit" selbst eine unverzichtbare Macht. Und der Transparenzmechanismus verleiht uns diese Fähigkeit: KI in ihrer Funktionsweise, ihrer Interaktion mit Menschen und ihrer Auswirkung zu sehen. Man kann sagen, dass in der heutigen Zeit der ständigen Evolution und Expansion von KI-Technologie Transparenz der Schlüssel zum Verständnis, Vertrauen und zur Regulierung von KI wird.
Wie kann man effektiv KI-Markierungen setzen?
Im gegenwärtigen Bild der KI-Regulierung ist das "KI-Markierungssystem" einer der ersten und am schnellsten voranschreitenden Transparenzmechanismen. Die "Verordnung über die Markierung von künstlich generierten und synthetisierten Inhalten" und die nationalen verbindlichen Standards in China sind bereits in Kraft getreten und haben erste Ergebnisse erzielt. In der EU regelt Artikel 50 des "Künstliche-Intelligenz-Gesetzes" (EU AIA) speziell die Markierungsverpflichtung von KI-Systemanbietern. Mit dem beschleunigten Implementierungsprozess von Artikel 50 der EU hat die Branchendiskussion sich von der Frage "ob Markierungen erforderlich sind" zur Frage "wie man effektiv markieren kann" verschoben. Die Diskussionen über "was markiert werden soll", "wer die Wasserzeichenmarkierungen einfügen soll" und "wer die Wasserzeichenmarkierungen überprüfen soll" können auch als Referenz für die weitere Vervollständigung der Ausführungsstandards und die Ergänzung von Regelungsdetails in der Praxis dienen.
Erstens: Soll man nur die Inhalte markieren oder auch die "Handlungen"? Mit der zunehmenden Autonomie von KI können intelligente Agenten nicht nur Texte, Bilder, Audio- und Videoinhalte generieren, sondern auch aktiv "tun": Webseiten besuchen, E-Mails senden, Einkäufe bestellen, automatisch "Gefällt mir" geben, Kommentare abgeben und Weiterleiten usw. Diese Art von Operationen geht über den traditionellen Bereich der Inhaltsgenerierung hinaus und gehört zur "Handlung" selbst. Dennoch konzentrieren sich die bestehenden gesetzlichen Vorschriften hauptsächlich auf die Markierung von Inhalten und decken noch nicht eindeutig die autonomen Handlungen von KI ab, was zu gewissen "Blindstellen" führt. Wenn beispielsweise eine große Anzahl von KI-Konten synchron "Gefällt mir" geben oder eine bestimmte Nachricht weiterleiten, kann dies leicht "falsche Popularität" schaffen, die Algorithmusempfehlung manipulieren, die Informationsökologie stören und die Öffentlichkeit und die Medienmanipulation täuschen. Wie man diese Art von Handlungen in den Markierungsbereich aufnehmen kann, ist ein Thema, das weitere Beachtung verdient. Daher konzentriert sich das gegenwärtige KI-Markierungssystem zwar mehr auf KI-Inhalte, aber mit der kontinuierlichen Innovation und breiten Anwendung von intelligenten Agenten wird die Transparenz und Markierung von "KI-Aktivitäten" (AI Activity) noch wichtiger.
Zweitens: Wer soll die Wasserzeichenmarkierungen einfügen, und wie sollen die gestaffelten Verpflichtungen festgelegt werden? Nicht alle KI-Serviceanbieter haben die gleichen Fähigkeiten. Die oberen Entwickler (wie OpenAI, DeepSeek, Anthropic usw.) haben die Kontrollfähigkeit auf Modell-Ebene und können Wasserzeichenmechanismen einfügen; die unteren Anwendungsentwickler hingegen modifizieren oder rufen in der Regel nur auf bereits existierenden Modellen auf und haben nicht genügend Ressourcen und Berechtigungen, um unabhängig Wasserzeichen einzufügen. Wenn man allen Akteuren die gleichen Verpflichtungen auferlegt, könnte dies die Beteiligung von kleinen und mittleren Innovatoren eher abschrecken. Beispielsweise wird in der EU auch darüber diskutiert, ob "gestaffelte Verpflichtungen" festgelegt werden sollten: Die oberen Modellentwickler sind für das Einfügen von Wasserzeichen verantwortlich; die unteren Anwendungsentwickler sind verpflichtet, die Überprüfung zu unterstützen und bereits vorhandene Wasserzeichen nicht zu entfernen oder zu umgehen usw. Darüber hinaus gibt es Unterschiede in den Anwendungsfällen und Risikomerkmalen verschiedener Arten von KI-Systemen. Sollten auch unterschiedliche Transparenzanforderungen festgelegt werden? Dies ist noch eine offene Frage.
Drittens: Wer soll die Wasserzeichenmarkierungen überprüfen, und an wen sollen die Überprüfungswerkzeuge gewährt werden? Das Einfügen von Wasserzeichen ist eine Sache, die Überprüfung ist eine andere. Wenn Wasserzeichen nur für die Erzeuger sichtbar sind und keine anderen Akteure über genügend Fähigkeiten zur Überprüfung verfügen, wird das Wasserzeichen zu einer "eigenmächtigen Äußerung" und verliert den Wert des Transparenzmechanismus. Das Problem ist jedoch: Wenn die Wasserzeichenüberprüfungswerkzeuge weit verbreitet und öffentlich zugänglich sind, haben Angreifer möglicherweise die Gelegenheit, die Wasserzeichenmarkierungen zu umgehen oder zu manipulieren, was die Sicherheit eher beeinträchtigt. Daher muss man ein Gleichgewicht zwischen Transparenz und Robustheit finden. Derzeit ist ein möglicher Kompromiss, die Wasserzeichenüberprüfungswerkzeuge an Schlüsselpunkte mit Plattformverantwortung wie soziale Medienplattformen und Nachrichtenverteilungsplattformen zu gewähren, um in der Interaktion mit Benutzern die Herkunft der Inhalte zu erkennen und die Markierungsüberprüfung abzuschließen, während die technischen Details des Überprüfungsmechanismus geheim gehalten werden, um Missbrauch und rückwärtsgerichtete Entschlüsselung zu verhindern.
Derzeit hat die EU begonnen, die Praxisrichtlinien für Artikel 50 des EU AIA zu erstellen. Es wird erwartet, dass diese Arbeit bis Mai nächsten Jahres abgeschlossen sein wird. Diese Praxisrichtlinien ähneln den "Praxisrichtlinien für allgemein nutzbare KI", aber der Schwerpunkt liegt von "Sicherheit" auf "Transparenz" verschoben, um die obigen Fragen konkret zu beantworten.
Wie kann man KI "Regeln" geben und sich an diese halten?
Neben dem KI-Markierungssystem ist eine weitere mögliche Erkundung der Transparenz die "Modellvorgabe" (Model Specifications). Einfach ausgedrückt, ist die Modellvorgabe ein von KI-Unternehmen selbst verfasstes und öffentlich zugängliches Dokument, das erklärt, was sie von ihrem Modell "sollten" und "nicht sollen". In anderen Worten, die Modellvorgabe wird verwendet, um die Handlungsgrenzen, Wertmaßstäbe und Gestaltungsprinzipien des Modells zu definieren. Nehmen wir OpenAI als Beispiel. In seiner Modellvorgabe ist ein Prinzip festgelegt: Mit den Benutzern gemeinsam die Wahrheit (truth) zu suchen. Dies bedeutet, dass das Modell bei der Beantwortung von Fragen neutral bleiben sollte und nicht aktiv die Position des Benutzers lenken sollte. Auch die derzeit schnell entwickelten intelligenten Agenten sollten Regeln haben, was sie "dürfen" und was sie "nicht dürfen", um ihre Handlungsgrenzen in Bezug auf Interaktionspartner, Bedienungsrechte usw. zu klären. Beispielsweise: Darf ein intelligenter Agent auf einer Finanzplattform Transaktionen im Namen des Benutzers durchführen?
Die Bedeutung der Modellvorgabe liegt nicht nur in einem internen "Bedienungsanleitung" für die Technologie, sondern auch darin, dass es ein für die Öffentlichkeit offener Transparenzmechanismus ist, der Benutzern ermöglicht, zu wissen, wie das KI-System konzipiert ist und wie es mit Menschen interagieren wird. Dies gewährleistet das Informations- und Wahlrecht der Benutzer. Wenn beispielsweise ein Elternteil möchte, dass sein Kind einen bestimmten KI-Assistenten nutzt, aber befürchtet, dass dieser unangemessene Inhalte generiert. Wenn die Modellvorgabe klar ist, kann der Elternteil sich sicherer fühlen und ihn nutzen oder einen anderen KI-Assistenten wählen. Umgekehrt, wenn die Regeln des KI-Modells unklar oder nicht öffentlich zugänglich sind, müssen Benutzer die Handlungen des Modells eher erraten. Gleichzeitig ist die Modellvorgabe auch eine wichtige Grundlage für die Rückmeldung von Regulierungsbehörden und der Öffentlichkeit. Ein Medienbericht hat einmal eine interne Richtlinienunterlage von Meta über Chatbots enthüllt, die zeigte, dass die Beispiele es Chatbots erlaubten, "romantische" (romantic) Interaktionen mit Minderjährigen zu führen, was eine öffentliche Aufregung und die Aufmerksamkeit der Regulierungsbehörden erregte. Nach der Enthüllung hat Meta schnell die Regeln geändert. Die Modellvorgabe entspricht einer öffentlich gemachten Verhaltenszusicherung der Unternehmen, die es der Außenwelt ermöglicht, zu überwachen und Abweichungen zu korrigieren.
Das größte Problem bei der Modellvorgabe ist jedoch: Unternehmen können leicht Zusicherungen geben, aber es ist für die Öffentlichkeit schwierig, zu überprüfen, ob diese Zusicherungen eingehalten werden. Selbst wenn die Regeln sehr umfassend formuliert sind, kann sie zu "Lehrbriefen" werden, wenn es keine Ausführungsmekanismen gibt. Daher ist die "Einhaltung der Modellvorgaben" (Model Specifications Adherence) zum Kern der Diskussion über den Transparenzmechanismus der Modellvorgaben geworden.
Derzeit hängt die Beurteilung der Einhaltung der Modellvorgaben hauptsächlich von drei Arten von Informationen ab: Rückmeldungen aus Benutzer-Tests, Systemkarten oder Modellkarten und die Offenlegung von Unfallberichten. Aber diese Methoden haben immer noch ihre Grenzen. Beispielsweise decken Systemkarten nicht alle Modellhandlungen ab; es ist schwierig zu beurteilen, ob ein einzelner Unfall ein zufälliges Ereignis oder ein tatsächliches Systemdefekt ist. Daher ist die Meinung vertreten, dass Unternehmen nicht nur den Inhalt der Modellvorgaben offenlegen sollten, sondern auch die Technologien, Prozesse, Bewertungsresultate der Einhaltung der Modellvorgaben, Unfälle oder Verstoßereignisse usw. veröffent