StartseiteArtikel

Die Folgen von ChatGPT sind da: Das alltägliche menschliche Gespräch wird immer mehr wie das einer KI.

量子位2025-08-28 15:53
22,1 Millionen Daten zeigen, dass die Wortgebrauchsgewohnheiten sich stark verändert haben.

Hat der menschliche Sprachgebrauch in den letzten zweieinhalb Jahren immer mehr von ChatGPT abgekriegt?

Neue Studienergebnisse deuten darauf hin, dass dies tatsächlich der Fall ist.

Ein Forschungsteam der Florida State University hat zwei Jahre lang nicht-geskriptete Sprachaufnahmen vor und nach der Veröffentlichung von ChatGPT analysiert. In einem Datensatz von 22,1 Millionen Wörtern wurde festgestellt, dass akademische Wörter wie „delve“ und „intricate“ in alltäglichen Gesprächen immer häufiger vorkommen.

Das heißt, dass sich eine umgangssprachliche Äußerung wie „Alles in allem hat unser Plan noch einige Probleme.“ möglicherweise zu folgendem ändern könnte:

„Zusammenfassend lässt sich sagen, dass es Raum für Verbesserungen bei diesem Plan gibt.“

Ein verspielter Internetnutzer hat ein typisches Beispiel mit vielen Aspekten gegeben.

Genug geredet, lass uns zunächst sehen, wie die Studie durchgeführt wurde.

Akademische Wörter tauchen häufiger in alltäglichen Gesprächen auf

Dies ist eine Studie darüber, ob KI unmerklich die Art und Weise verändert, wie Menschen sprechen.

Zunächst ist der Hintergrund der Studie sehr realistisch: Heute werden in wissenschaftlichen Arbeiten und Hausaufgaben immer häufiger akademische Wörter wie „delve“ und „intricate“ verwendet. Viele Menschen glauben, dass dies daran liegt, dass große KI-Modelle diese Wörter gerne benutzen.

Das bringt uns zu einer Frage:

Entstehen diese Veränderungen, weil Menschen direkt aus KI-generierten Texten kopieren, oder beeinflusst KI tatsächlich die sprachlichen Gewohnheiten der Menschen, sodass sie diese Wörter unbewusst verwenden?

Um die Antwort zu finden, hat das Forschungsteam der Florida State University 100.000 Audioaufnahmen und 22,1 Millionen Wörter aus ungeskripteten Gesprächen aus populären amerikanischen Technologie- und Wissenschaftspodcasts gesammelt.

Sie haben diese Inhalte in zwei Gruppen aufgeteilt: Vor der Veröffentlichung von ChatGPT im Jahr 2022 (hauptsächlich zwischen 2019 und 2021) und danach (2023 bis 2025). Sie haben sich speziell auf die Wörter konzentriert, die KI gerne verwendet, und untersucht, ob sich die Häufigkeit ihrer Verwendung in menschlichen Gesprächen geändert hat.

Die Ergebnisse zeigen, dass die Verwendung dieser KI-verwandten Wörter nach 2022 tatsächlich deutlich zugenommen hat. Wörter wie „surpass“ (übertreffen) und „align“ (ausrichten) werden beispielsweise viel häufiger verwendet als zuvor.

Im Vergleich dazu haben die gewöhnlichen Synonyme, wie „explore“ und „investigate“ als Synonyme für „delve“, keine deutlichen Veränderungen in ihrer Verwendung gezeigt. Einige haben zugenommen, andere abgenommen, was insgesamt ausgeglichen ist.

Dies deutet darauf hin, dass die Wortwahl in menschlichen Gesprächen sich allmählich den sprachlichen Gewohnheiten von KI annähert und immer akademischer wird...

Die Studie lässt jedoch keine definitive Aussage zu und hebt einige Schlüsselprobleme hervor:

Erstens lässt sich nicht sicher sagen, dass die KI direkt für die zunehmende Verwendung dieser Wörter verantwortlich ist. Es ist möglich, dass diese Wörter ohnehin allmählich an Popularität gewonnen haben, und die KI hat lediglich den Prozess beschleunigt.

Zweitens konzentriert sich diese Studie nur auf Technologie-Podcasts. Die Zuhörer dieser Podcasts haben normalerweise häufigen Kontakt mit KI, sodass die Ergebnisse möglicherweise nicht für die gesamte Bevölkerung repräsentativ sind.

Drittens enthalten Podcasts gelegentlich auch Werbung oder vorbereitete Fragen. Obwohl der Anteil dieser Inhalte gering ist, kann er dennoch die Daten beeinflussen.

Schließlich äußert die Studie Bedenken hinsichtlich des Penetrationseffekts: Wenn sich die sprachlichen Gewohnheiten von KI unmerklich in die menschliche Sprache einschleichen, könnte dies möglicherweise auch die Gedanken der Menschen beeinflussen, wenn die KI negative Tendenzen hat.

Die Studie wird auf der achten Konferenz über Künstliche Intelligenz, Ethik und Gesellschaft im Oktober veröffentlicht und Teil der AIES-Fachzeitschrift sein.

Aufgrund der raschen Entwicklung der Fähigkeiten von großen KI-Modellen wird es immer schwieriger, zu unterscheiden, ob ein Text von einem Menschen oder einer KI geschrieben wurde. Dies bereitet auch Probleme für die Sprachforschung.

Um zu beweisen, dass sie keine KI verwendet haben, haben Internetnutzer einige „Tipps“ gegeben: Manchmal verwenden sie bewusst kleine Fehler, um anderen zu signalisieren, dass sie keine KI eingesetzt haben.

Hast du in letzter Zeit schon mal KI-Wörter verwendet?

Link zur Studie: https://arxiv.org/abs/2508.00238

Referenzlinks:

[1]https://news.fsu.edu/news/education-society/2025/08/26/on-screen-and-now-irl-fsu-researchers-find-evidence-suggesting-chatgpt-influences-how-we-speak/

[2]https://news.ycombinator.com/item?id=45045500

Dieser Artikel stammt aus dem WeChat-Account „Liangziwei“. Verfasser: Wen Le. 36Kr hat die Veröffentlichung mit Genehmigung vorgenommen.