Warum wehren wir uns, wenn KI-Entscheidungen besser sind als menschliche?
Im Jahr 2015 schickte IBM das fortschrittlichste Supercomputersystem Watson als Arzt in den Dienst.
Diese Maschine lernte eine riesige Menge an Diagnose- und Behandlungswissen zu 13 Krebsarten (einschließlich Brustkrebs, Lungenkrebs, Rektumkrebs usw.). Sie kann in wenigen Sekunden die gesamte Krankenakte eines Patienten lesen, dann mehrere Runden von Beurteilungen durchführen und schließlich ein umfangreiches und hochwertiges Behandlungsprogramm ausgeben. Das klingt toll. Aber einige Jahre später gaben viele medizinische Partner dieses Projekt auf, und Watson Health wurde von IBM verkauft.
Wo liegt das Problem? Es liegt nicht daran, dass der Algorithmus nicht klug genug ist, sondern daran, dass er von Anfang an eine Sache nicht richtig verstand: Ärzte sind nicht da, um Befehle auszuführen.
Ähnliche Geschichten spielen sich jeden Tag ab. Der Gründer einer Convenience-Store war überzeugt, dass "jeder menschliche Knoten die Effizienz senkt". Also investierte er ein ganzes Jahr, um mit einem künstlichen Intelligenz-Zentralhirn alle Entscheidungen für die Convenience-Store von der Standortwahl, Bestellung, Regalgestaltung bis hin zum täglichen Betrieb zu übernehmen. Beispielsweise entschied das System in einer Schule neben der Filiale, dass gegen 15 Uhr, wenn die Kinder aus der Schule kommen würden, die Snacks an die prominenteste Stelle gestellt werden sollten. Also bekamen die Angestellten den Befehl, die Snacks bis 15:05 Uhr an die Tür zu stellen, sonst würden ihnen Geld abgezogen. Was war das Ergebnis? Viele Mitarbeiter fühlten sich unbefriedigt, da sie sich wie Werkzeuge fühlten. Die Unzufriedenheit der Mitarbeiter wurde auch an die Kunden weitergeleitet, die das Wohlwollen des Service nicht spürten. So verloren die Convenience-Stores bald viele Kunden.
Es besteht eine enorme Kluft zwischen der exponentiellen Entwicklung der Technologie und dem linearen Wachstum der menschlichen Kognition.
Das ist genau das zentrale Problem, das Professorin Lu Xianghua vom School of Management der Fudan-Universität in ihrem neuen Buch "Die AI-Revolution: Fünf Regeln für die symbiotische Zusammenarbeit zwischen Menschen und Maschinen" lösen will: Was soll der Mensch tun, wenn die KI immer stärker wird? Wie soll ein Unternehmen organisiert werden? Dafür hat sie fünf Regeln für die symbiotische Zusammenarbeit zwischen Menschen und Maschinen aufgestellt.
Regel 1: Optimierung der Interaktionsfähigkeit der KI-Technologie
Der Mensch vertraut einer schwarzen Kiste von Natur aus nicht.
Es gibt in der Wissenschaft das berühmte "Dozent-Problem": Der Türsteher einer Nachtclub kann dich aus jedem Grund ablehnen, zum Beispiel "du solltest nicht Turnschuhe tragen", aber der wahre Grund könnte die Hautfarbe sein. Du kannst es nicht überprüfen, weil du von draußen nicht sehen kannst, ob es Leute im Club mit Turnschuhen gibt.
Das Gleiche gilt für Algorithmen. Sie können die echten Entscheidungsgründe leicht verbergen. Deshalb wehren sich die Benutzer instinktiv.
Wie kann man das lösen? Drei Schlüsselwörter: Anthropomorphisierung, Transparenz, Zuverlässigkeit.
Anthropomorphisierung ist leicht zu verstehen. Wenn ein KI-Service deinen Emotionalzustand erkennt und mit passender Stimme antwortet, fühlst du dich, als wäre es keine kalte Maschine. Studien zeigen, dass anthropomorphe KI leichter Vertrauen gewinnt, und selbst wenn der Service fehlschlägt, sind die Benutzer eher bereit, es zu verzeihen.
Aber hier gibt es eine Falle: Die uncanny valley-Effekt. Wenn die KI zu sehr wie ein Mensch ist, fühlen die Benutzer Angst und Unbehagen. Noch schlimmer ist, dass hochgradig anthropomorphe KI bei den Benutzern unrealistische Erwartungen weckt - wenn du wie ein Mensch aussehest, solltest du auch so intelligent sein wie ein Mensch? Sobald die Erwartungen enttäuscht werden, wird die Enttäuschung doppelt so groß.
Also ist die richtige Vorgehensweise: Die Stufe der Anthropomorphisierung entsprechend der Situation anzupassen. Für einen Service, der einfache Abfragen bearbeitet, reicht eine geringe Anthropomorphisierung; für einen Finanzberater, der komplexe Entscheidungen trifft, ist eine hohe Intelligenz und eine hohe Anthropomorphisierung erforderlich; für eine Gesundheitsberatung, die sensible Informationen betrifft, sollte die KI eher "intelligent, aber nicht anthropomorph" sein - die Benutzer sind eher bereit, ihre Privatsphäre gegenüber einer offensichtlichen Maschine preiszugeben, weil sie dich nicht lächeln wird.
Transparenz ist ebenfalls wichtig, aber auch nicht je mehr desto besser. Eine Studie hat gezeigt, dass Mitarbeiter, die von der KI schlechte Punktzahlen bekommen haben, weniger motiviert waren, wenn das Unternehmen ihnen die Art und Weise der Verwendung der KI-Leistungsbewertung mitteilt - sie haben die schlechten Punktzahlen als Anker genommen.
Zuverlässigkeit ist die Grundlinie. Alle Anthropomorphisierung und Transparenz sind nur Zierrat, nur die Zuverlässigkeit kann entscheiden, ob die Benutzer die KI langfristig nutzen werden. Nachdem die KI-Suchfunktion von Google online ging, fragte ein Benutzer, wie man Käse auf eine Pizza kleben kann, und die KI schlug vor, "ein bisschen Klebstoff hinzuzufügen" - weil sie aus einem 11 Jahre alten Witz auf Reddit gelernt hatte. Infolgedessen fiel die Nutzungswilligkeit für diese Funktion auf 7%.
Regel 2: Aktives Management des Benutzer-Zusammenarbeitsverhaltens
Die Einstellung der Benutzer gegenüber KI schwankt oft zwischen zwei Extremen.
An einem Ende ist die Abneigung. Es gab ein interessantes Experiment: Die Forscher entwarfen zwei Service-Szenarien, wobei die Servicekräfte genau gleich waren, aber in einer Gruppe sagten die Forscher den Benutzern, dass es "ein echter Mensch" sei, und in der anderen Gruppe, dass es "eine digitale Person" sei. Was war das Ergebnis? Die Zufriedenheit in der Gruppe, die als digitale Person markiert war, war um 10 - 15 Prozentpunkte niedriger. Obwohl hinter beiden Gruppen echte Menschen arbeiteten, mochten die Benutzer die digitale Person nicht.
Das nennt man "Spezies-Diskriminierung". Der Mensch hat von Natur aus Vorurteile gegenüber KI, auch wenn sie objektiv und fairer ist.
Am anderen Ende ist die Überabhängigkeit. Im März 2018 tötete ein selbstfahrendes Uber-Fahrzeug mit einem Sicherheitsfahrer in Arizona einen Radfahrer. Die Polizei analysierte später und stellte fest, dass der Sicherheitsfahrer hätte anhalten können, wenn er auf der Straße konzentriert gewesen wäre, als der Opfer noch 12,8 Meter entfernt war. Aber er tat es nicht. Weil er dachte, dass die KI da sei und es keine großen Probleme geben würde, konnte er sich völlig entspannen.
Dieses Phänomen nennt man "KI-Trägheit". Wenn die Maschine immer fähiger wird, will der Mensch immer mehr faul sein. GPS lässt die Menschen die Orientierungslosigkeit verlieren, Taschenrechner lassen die Menschen das Kopfrechnen vergessen, und ChatGPT lässt die Kreativität zunehmend homogen werden. Eine Studie hat gezeigt, dass die Kreativität der Benutzer, die GPT nutzen, in den ersten fünf Tagen deutlich stieg, aber am siebten Tag, nachdem GPT ausgeschaltet wurde, fiel das Niveau der Kreativität wieder auf den Ausgangspunkt zurück - und die Tendenz zur Homogenität blieb bestehen.
Unternehmen müssen diese beiden Extreme aktiv managen. Bei der Abneigung kann die soziale Eigenschaft der Technologie erhöht werden, damit die KI nicht nur ein Werkzeug, sondern ein "Partner" wird; bei der Trägheit kann man die Benutzer zwingen, nachzudenken, indem man die Anzeige der KI-Vorschläge verzögert und die Benutzer zunächst ihre eigenen Urteile abgeben lässt.
Ein interessantes Experiment in der medizinischen Bilddiagnose: Wenn die Ärzte aufgefordert wurden, ihre ersten Urteile abzugeben, bevor sie die KI-Vorschläge sahen, sank die Blindheit gegenüber der KI deutlich, und die Qualität der Entscheidungen stieg.
Regel 3: Mensch - KI - Komplementarität, das Geheimnis von 1 + 1 > 2 liegt in der Arbeitsteilung
Zurück zur Convenience-Store-Geschichte am Anfang. Was ist ihr Gegenteil?
Eine große Apotheke. Sie nutzt auch KI, aber auf eine andere Weise. Nachdem der Apotheker die Krankheitssymptome eingegeben hat, empfiehlt die KI das Hauptmedikament, die Hilfsmedikamente und die assoziierten Medikamente. Der Apotheker kann die Empfehlung annehmen oder selbst suchen. Schließlich wurde festgestellt, dass das Verhältnis der Bestellungen, die vollständig auf die KI angewiesen waren, die vollständig vom Apotheker selbst gesuchten Bestellungen und die Bestellungen, die durch die Zusammenarbeit von Mensch und KI zustande kamen, ungefähr 20%, 37%, 43% betrug.
Welche Gruppe hatte das beste Ergebnis? Die Gruppe der Zusammenarbeit von Mensch und KI. Die Anzahl der empfohlenen Medikamente war am höchsten, und die Akzeptanz der Verbraucher war ebenfalls am höchsten.
Was bedeutet das? Der Wert der KI wird nicht automatisch verwirklicht. Sie muss vom Menschen aktiviert werden.
Der Schlüssel liegt in der Arbeitsteilung. Bei Aufgaben mit hoher Berechenbarkeit soll die KI die Führung übernehmen; bei Aufgaben, die stark subjektiv sind und Empathie erfordern, soll der Mensch die Führung übernehmen; bei komplexen Aufgaben ist die Zusammenarbeit von Mensch und KI erforderlich. Beispielsweise bei der Telemarketing: Die KI ist für das Anrufen, das Sammeln von Informationen und das Filtern von interessierten Kunden zuständig, und der menschliche Verkäufer ist für die tiefe Kommunikation und die Abschließung von Geschäften zuständig. Studien haben gezeigt, dass diese Arbeitsteilung die Kreativität der menschlichen Verkäufer deutlich verbessern kann.
Darüber hinaus müssen Menschen und KI voneinander lernen. Die KI verbessert sich ständig durch maschinelles Lernen, und der Mensch wächst ständig durch die Zusammenarbeit mit der KI, so dass ein spiralförmiger Aufstieg entsteht. Forscher von der Tsinghua-Universität haben das Konzept der "KI - Fähigkeit" eingeführt - das erforderliche Fähigkeitsrahmen für Individuen in der KI - Ära. Das Gute ist, dass diese Fähigkeit trainiert werden kann.
Regel 4: Anpassung der Organisations - KI - Managementstrategie
KI verändert nicht nur die Menschen, sondern auch die Organisation.
Das Weltwirtschaftsforum prognostiziert, dass KI innerhalb von fünf Jahren 14 Millionen Arbeitsplätze netto reduzieren wird, aber langfristig etwa 12% neue Arbeitsplätze schaffen wird. Das Wichtigste ist: Die Menschen, die ersetzt werden, können nicht einfach neue Arbeitsplätze bekommen.
Das bedeutet, dass Unternehmen die Arbeitsplätze neu gestalten, die Mitarbeiter neu ausbilden und die Verantwortung neu verteilen müssen.
Insbesondere die Verantwortung. Wenn die KI an der Entscheidung beteiligt ist, wer ist für die Probleme verantwortlich? Derzeit wird von der Gesetzgebung nicht anerkannt, dass die KI ein Verantwortungsträger ist, aber Unternehmen können sich nicht darum herumdrücken, die Managementverantwortung zu übernehmen. Einige Plattformen schreiben direkt auf der Oberfläche "Dieses Ergebnis wird automatisch von der KI generiert und dient nur als Referenz". Diese Vorgehensweise vermeidet zwar kurzfristig das Risiko, zerstört aber langfristig das Vertrauen der Benutzer in die KI.
Eine bessere Vorgehensweise ist: Die KI soll die Haltung von "Verantwortung zu übernehmen" zeigen. Professorin Lu hat in ihrer eigenen Studie festgestellt, dass die Benutzer eher das Gefühl haben, dass die KI - Ärztin verantwortungsbewusst ist und sie eher nutzen möchten, wenn die KI - Ärztin die medizinischen Fehlkenntnisse der Benutzer aktiv aufzeigt. Diese Verhaltensgestaltung mit "Eigentümergeist" ist viel effektiver als die Haftungsausschlüsse.
Regel 5: Sicherstellung der sozialen Gerechtigkeit der KI
Algorithmus - Vorurteile gibt es überall. Der Bewerbungsalgorithmus von Amazon senkt automatisch das Gewicht von Bewerbungen, die das Wort "Frau" enthalten; in der ImageNet - Datenbank spiegeln die Schlagwörter wie "Verlierer", "Krimineller" die Vorurteile der Kennzeichner wider; der Preis - Discriminierung von alten Kunden durch Big - Data ist eine "legale" Diskriminierung der alten Kunden durch den Algorithmus.
Wo liegt das Problem? Die Trainingsdaten sind verzerrt, der Algorithmusentwurf hat Lücken, und die Optimierungsziele sind fehlerhaft.
Die Lösung ist ein ganzheitlicher Ansatz. Beispielsweise auf technischer Ebene: Verbesserung der Datenerhebung, Verstärkung der Transparenz des Algorithmus, Einbeziehung von Gerechtigkeitsbeschränkungen; auf Unternehmensebene: Aufstellung von Ethikrichtlinien für die KI, Einrichtung eines Prüfausschusses; auf gesellschaftlicher Ebene: Verbesserung der Gesetze und Vorschriften, Verstärkung der Selbstregulierung der Branche.
Dies ist nicht nur ein technisches Problem, sondern auch ein Wertesystemproblem.
Epilog
Wie Lewis Mumford in "Technik und Zivilisation" sagte: "Hinter allen großen materiellen Erfindungen steckt nicht nur die technische Entwicklung, sondern auch die Veränderung der Gedanken."
Bei jeder technologischen Revolution geht es um das Spiel zwischen Menschen und Technologie. So war es in der Dampfmaschinen - Ära, so war es in der Internet - Ära, und so ist es auch in der KI - Ära. Aber das Ende des Spiels ist niemals, wer wen ersetzt, sondern wie man gemeinsam existiert.
Die fünf Regeln in diesem Buch - Optimierung der Interaktionsfähigkeit, Management des Benutzerverhaltens, Verstärkung der Mensch - KI - Komplementarität, Anpassung der Organisationsstrategie, Sicherstellung der sozialen Gerechtigkeit - sollen nicht dazu dienen, der KI zu widerstehen, sondern dir beizubringen, wie du mit der KI tanzen kannst. Schließlich muss der Wert der KI am Ende vom Menschen verwirklicht werden.
Dieser Artikel stammt aus dem WeChat - Public - Account "Fudan Business Knowledge" (ID: BKfudan) von Fudan Business Knowledge, veröffentlicht von 36Kr mit Genehmigung.