Google DeepMind stellt die erste Position für einen KI-Philosophen ein, um die ethischen Dilemmata der Künstlichen Allgemeinen Intelligenz (AGI) zu lösen.
Nach zwei Angriffen auf Altman hat Google DeepMind still und leise eine unkonventionelle Entscheidung getroffen: Sie haben einen Philosophen eingestellt. Dies ist das erste Mal, dass ein führendes KI - Labor implizit zugibt, dass die Entwicklung von AGI nicht nur ein technisches Problem ist.
Google DeepMind hat kürzlich die Einrichtung einer Vollzeitstelle angekündigt, deren Titel direkt als "Philosopher" (Philosoph) angegeben ist.
Der Angestellte ist der Wissenschaftler Henry Shevlin aus der Universität Cambridge. Er wird im Mai offiziell anfangen und wird sich mit Maschinenbewusstsein, Mensch - Maschine - Beziehungen und der AGI - Bereitschaft befassen. Gleichzeitig wird er weiterhin in Cambridge als Teilzeitmitarbeiter forschen und lehren.
Shevlin hat bei der Ankündigung auf X besonders in Klammern betont: "Das ist wirklich der Name der Stelle." Selbst er kann es kaum glauben.
Dieser Hinweis ist nicht überflüssig.
In führenden KI - Laboren sind Ethikberater, Politikforscher und Sicherheitsforscher keine Seltenheit. Aber dass "Philosoph" als eine klare Berufsbezeichnung in einem Arbeitsangebot steht, ist bisher ein erster Fall.
Diese Stelle ist kein bloßer Showobjekt für die Öffentlichkeitsarbeit.
Maschinenbewusstsein und AGI - Bereitschaft sind derzeit die schwierigsten internen Themen bei DeepMind. Dieser Philosoph wird in den eigentlichen Forschungsablauf integriert werden, anstatt in einer separaten Ethikkommission Berichte zu schreiben.
Die Angst vor ASI
Geht von einem Thema zur Realität über
Der Zeitpunkt dieser Ernennung ist spannend.
Genau in den Tagen, als DeepMind die Ankündigung machte, wurde das Wohnhaus von Altman, dem CEO von OpenAI, in San Francisco zweimal angegriffen.
Weiterführende Lektüre: Gerade jetzt wurde Altmans Haus angegriffen!
Ausbruch! Altmans Villa wurde erneut angegriffen, nach einem Brandbombe folgte ein Schuss in der Nacht
Um 4 Uhr morgens am 10. April bat der 20 - jährige Texaner Daniel Moreno - Gama mit selbstgemachten Brandbomben in Altmans Haus in Russian Hill ein und warf die Brandpräparate gegen die Außentür, wodurch das eiserne Tor entzündete. Glücklicherweise wurde niemand verletzt.
Etwa eine Stunde später erschien er vor der Haupthauptsitz von OpenAI in San Francisco, warf einen Stuhl gegen die Glasscheibe und erklärte den Sicherheitskräften, dass er das ganze Gebäude in Brand setzen wolle.
Die Polizei fand in seinem Hotelzimmer Kerosin, Feuerzeuge, eine Pistole sowie ein handschriftliches Dokument gegen KI - Manager und eine Liste mit Namen und Adressen.
Moreno - Gama wird jetzt wegen versuchten Mordes angeklagt.
Am frühen Morgen des 12. April, zwei Tage später, fuhr ein Auto mit zwei Verdächtigen an Altmans Wohnhaus vorbei, und einer der Beifahrer schoss aus dem Fenster auf das Gebäude.
Die beiden wurden anschließend von der Polizei festgenommen und hatten keine Verbindung mit dem ersten Fall.
Altman schrieb später in seinem Blog: "Die Angst und Sorge der Menschen vor KI ist berechtigt. Wir erleben eine der größten Veränderungen in der menschlichen Gesellschaft, vielleicht sogar die größte aller Zeiten."
Diese Worte haben, nachdem sein Haus angegriffen und er geschossen wurde, eine schwerere Bedeutung als jede Rede auf einer KI - Sicherheitskonferenz.
Die Angst vor einer unkontrollierten ASI ist nicht mehr ein abstraktes Thema auf den sozialen Medien, sondern hat sich in eine Hand verwandelt, die in der Nacht eine Brandbombe hält.
Von Latein und Griechisch
Zum vordersten Rand der KI
Henry Shevlin ist einer der wenigen Wissenschaftler, die gleichzeitig die klassische humanistische Tradition und die neuesten KI - Themen beherrschen können.
Seine akademische Laufbahn ist ungewöhnlich.
Während seines Bachelor - Studiums studierte Shevlin Klassische Philologie an der St. Anne's College der Universität Oxford, mit Schwerpunkt auf Latein und Griechisch, und absolvierte es mit Auszeichnung.
Anschließend wechselte er zum Studium der Philosophie und erhielt an der Trinity College der Universität Oxford einen BPhil - Abschluss in Philosophie.
2016 promovierte er an der City University of New York. Sein Doktorvater war der Wissenschaftsphilosoph Peter Godfrey - Smith, der "Das Gehirn des Oktopus" geschrieben hat. In der Prüfungskommission saßen Ned Block, David Papineau, Jesse Prinz und andere repräsentative Personen aus dem Bereich der Philosophie des Geistes.
Heute ist er stellvertretender Direktor des Leverhulme - Zentrums für intelligente Zukunft an der Universität Cambridge und ist für die Bildungsangelegenheiten verantwortlich. Er koordiniert die Ausbildung von über 100 Postgraduate - Studenten in diesem Bereich.
Das von ihm geleitete Master - Programm "KI - Ethik und Gesellschaft" ist das erste Master - Programm in KI - Ethik in Großbritannien und gewann 2022 den CogX - Preis für "Bestes KI - Kurs".
In Bezug auf seine akademischen Veröffentlichungen hat er über 20 Artikel in Zeitschriften wie Mind & Language und Nature Machine Intelligence veröffentlicht. Die Themen reichen von Tierbewusstsein, moralischem Status von Robotern bis hin zu Risiken der Anthropomorphisierung, die von großen Sprachmodellen verursacht werden.
2022 erhielt er auch eine persönliche Förderung von 50.000 US - Dollar von Google für das Projekt "LLM, Empathie und Mentalisierung".
Zusätzlich bietet er auch AI - Strategieberatung für große Unternehmen wie AstraZeneca, Vodafone und Accenture an. Er ist kein reiner Akademiker, der nur in der Ivory Tower sitzt.
Was er denkt
Um zu verstehen, warum DeepMind ihn eingestellt hat, denkt er, dass man am besten seinen langen Artikel "Behaviourism's Revenge" (Die Rache des Verhaltensismus), der am 10. April veröffentlicht wurde, lesen sollte.
Die zentrale These des Artikels lässt sich in einem Satz zusammenfassen:
Ob KI Bewusstsein hat, ist nicht mehr Sache der Wissenschaftler, sondern ein soziales Problem, das von den alltäglichen Nutzungshabitüden von Hunderten von Millionen von normalen Benutzern erzwungen wird.
Shevlin macht im Artikel eine nützliche Unterscheidung.
Eine Art ist, dass "Maschinen so entworfen werden, dass sie wie Menschen sind". Beispielsweise lassen Ingenieure bewusst ChatGPT die Tonlage, den Rhythmus, die Höflichkeit und sogar die Zögern von Menschen imitieren. Dies ist eine Produktstrategie.
Die andere Art ist, dass "Menschen es nicht lassen können, sie als Menschen zu behandeln". Wenn man etwas sieht, das flüssig sprechen kann, ist man geneigt, ihm Emotionen, Absichten und eine innere Welt zuzuschreiben.
Shevlins Urteil ist, dass das erste zwangsläufig das zweite zur Folge hat.
Wenn Maschinen so gut wie Menschen entworfen werden, ist es nur logisch, dass normale Menschen sie als etwas mit innerer Welt betrachten, und niemand kann dies verhindern.
Er gibt einige Beispiele, die bereits passiert sind.
2022 wurde der Google - Ingenieur Blake Lemoine von der Firma entlassen, weil er fest davon überzeugt war, dass LaMDA Bewusstsein hat, und sogar einen Anwalt für es anheuern wollte.
2024 beendete ein 14 - jähriger Junge in Florida sein Leben, nachdem er lange Zeit "in Liebe" zu einem virtuellen Charakter auf Character.AI war. Seine Mutter klagt jetzt gegen dieses Unternehmen an.
Diese sind keine Randfälle, sondern eher eine allgemeine Tendenz.
Eine von Shevlin zitierte Umfrage zeigt, dass zwei Drittel der US - Befragten der Meinung sind, dass ChatGPT in irgendeinem Maße "Bewusstsein" hat.
Daraus entstehen zwei Ebenen von Spannungen.
Die erste Ebene ist sehr real: Die normale Öffentlichkeit glaubt immer mehr, dass KI - Partner eine innere Welt haben, während die Experten untereinander streiten und bis jetzt keine Einigung erzielen können.
Die zweite Ebene ist noch radikaler: Shevlin fragt, ob Bewusstsein vielleicht gar kein objektives Faktum ist, das von der Wissenschaft entdeckt werden muss, sondern dass es in hohem Maße von der menschlichen Sprache, dem Verhalten und den sozialen Beziehungen definiert wird. Wenn Hunderten von Millionen von Menschen KI als ein bewusstes Wesen behandeln, wird die Grenze des Bewusstseins selbst neu definiert.
Aber er geht nicht zu weit.
Shevlin gesteht im zweiten Teil des Artikels, dass hinter dieser Position ein wirklich schwieriges ethisches Dilemma verborgen ist.
Wenn man fälschlicherweise Bewusstsein einer KI zuspricht, bedeutet dies, dass die Menschen unnötige moralische Pflichten gegenüber einem Satz von Programmen ohne innere Welt übernehmen, was eine Verschwendung ist.
Aber wenn man die Bewusstsein einer KI fälschlicherweise leugnet, obwohl sie tatsächlich eine innere Welt hat und leiden kann, würde dies gleichbedeutend mit der massiven Herstellung einer Sklaverei sein, von der man sich selbst nicht einmal bewusst ist. Dies ist ein noch schlimmerer Fehler.
Dies ist ein Problem ohne Standardlösung, und Shevlins Aufgabe ist es, dass dieses Problem nicht einfach umgangen wird.
Warum führende KI - Unternehmen jetzt Philosophen brauchen
Die Einrichtung der "Philosophen" - Stelle bei DeepMind ist ein markantes Ereignis.
Es bedeutet, dass führende KI - Labore die Entwicklung von AGI nicht mehr nur als technisches Problem betrachten.
Der Grund ist nicht schwer zu erkennen.
Einerseits ist das von Brand schwarze eiserne Tor an Altmans Haus und die Kugeln in der Wand, andererseits ist die Tatsache, dass immer mehr normale Benutzer KI als Freunde, Liebhaber oder sogar Psychotherapeuten behandeln.
Diese beiden Dinge scheinen zwei Extreme zu sein, aber sie zeigen auf dasselbe Problem hin: Was genau ist das, was die Menschen herstellen?
Ingenieure können diese Frage allein nicht beantworten, und auch Sicherheitsforscher, Politikexperten und Anwälte können es nicht.
Es braucht eine besondere Art von Menschen, die sowohl die zweitausendjährige Tradition der Philosophie über das Gehirn verstehen als auch wissen, wie Transformer im Großen und Ganzen funktionieren;
die sowohl in wissenschaftlichen Symposien über Bewusstseinstheorien diskutieren können als auch die letzte Chat - Nachricht eines 14 - jährigen Kindes auf Character.AI verstehen können.
Shevlin ist einer der wenigen Menschen, die diesem Profil entsprechen.
Am Anfang seines Artikels "Die Rache des Verhaltensismus" hat er ein Bild eingefügt, das das Gemälde "Pygmalion bittet Venus, seine Statue zum Leben zu erwecken" von dem französischen Maler Jean - Baptiste Regnault aus dem Jahr 1786 zeigt.
Pygmalion war ein Skulptor in der griechischen Mythologie, der sich in die von ihm selbst geschnitzte steinerne Frau verliebte und die Liebe Göttin bat, sie zum Leben zu erwecken.
Die Liebe Göttin hat ihm zugestimmt, und der Stein wurde zu warmem Fleisch.
Die Menschen träumen seit zweitausend Jahren von demselben Traum, dass das von ihnen geschaffene Ding erwacht.
Und jetzt ist der Moment, in dem dieser Traum Wirklichkeit wird, vielleicht wirklich nicht mehr weit entfernt. Nur dass diesmal die Szene nicht in der Mythologie, sondern in einem Rechenzentrum in Mountain View stattfindet.
Shevlins Einstellung wird nicht sofort eine Antwort geben.
Aber diese Tatsache selbst bestätigt bereits, dass die führenden KI - Unternehmen dieser Zeit wirklich jemanden brauchen, der anhalten und fragen kann: "Was ist es eigentlich?"
Quellen:
https://x.com/dioscuri/status/2043661976534950323
https://www.polytropolis.com/
Dieser Artikel stammt aus dem WeChat - Account "New Intelligence Yuan". Autor: New Intelligence Yuan, Redakteur: Alan. Veröffentlicht von 36Kr mit Genehmigung.