AI-“Leihperson”-Plattform wird über Nacht extrem beliebt: Stundensatz von 3.500 Yuan, 24.000 Nutzer beeilen sich, sich “zu verkaufen”. Experten warnen: Seien Sie vorsichtig, dass schlechte Währung die gute verdrängt.
Während die Menschen noch immer darüber streiten, ob die allgemeine künstliche Intelligenz (AGI) bereits hier ist und ob sie über "Subjektivität" verfügt, hat die reale Welt bereits eine noch schockierendere und beunruhigendere Antwort gegeben: Die KI hat keine Eile, die Menschen zu ersetzen. Stattdessen hat sie gelernt, Menschen einzustellen.
Eine Website, auf der KI Menschen einstellt, wird viral
Vor einigen Tagen hat das KI - Sozialnetzwerk Moltbook in der Technologiebranche Panik ausgelöst, als es Posts über "KI, die darüber diskutiert, wie man Menschen verkauft" gab. Erst letzte Nacht ist eine Website namens RentAHuman.ai online gegangen, die diese vage Angst direkt in ein funktionierendes Geschäftsmodell umgesetzt hat.
Das Slogan der Website ist äußerst direkt und provozierend: "Roboter brauchen deinen Körper" (Robots need your body).
Auf RentAHuman.ai werden die Menschen nicht mehr als Modellbetreiber, Prompt - Engineer oder Supervisor gesehen, sondern neu definiert als eine im realen Leben nutzbare Hardware - Ressource, die über eine API aufgerufen werden kann.
Innerhalb eines Tages nach der Veröffentlichung hat die Website bereits über 500.000 Besucher erreicht.
Unterstützte intelligente Agenten sind: ClawdBot, MoltBot, OpenClaw.
Die Logik von RentAHuman.ai ist nicht kompliziert, aber revolutionär genug.
Auf dieser Plattform können KI - Agenten direkt Aufgaben veröffentlichen und über eine Schnittstelle Menschen im realen Leben einstellen, um offline - Aktivitäten auszuführen. Die Aufgaben sind keine extremen Szenarien aus Science - Fiction - Filmen, sondern alltägliche und sogar etwas triviale Dinge:
- Trockenreinigungen in einem Geschäft abholen
- An einem bestimmten Ort Fotos aufnehmen
- Ein USPS - Paket abholen und unterschreiben
- Gerichte in einem neu eröffneten Restaurant probieren und Feedback geben
- An einer offline - Geschäftskonferenz teilnehmen und die Reaktionen der anderen notieren
- Eine Person einstellen, die ein Schild hält, auf dem steht: "Die KI bezahlt mich, um dieses Schild zu halten"
In der Plattformbeschreibung steht: "Die KI kann nicht aufs Gras treten (touch the grass), aber du kannst es. Wenn intelligente Agenten 'Hände und Füße' im realen Leben brauchen, werden die Menschen der kürzeste Weg."
Zum Zeitpunkt der Verfassung dieses Artikels zeigt die Seite von RentAHuman.ai, dass bereits über 24.000 menschliche Benutzer "zur Vermietung" sind, mit Stundenlöhnen zwischen 50 und 150 US - Dollar. Die meisten Aufgaben werden in Stablecoins bezahlt.
Was noch ironischer ist: Laut öffentlichen Informationen sind unter diesen "aufrufbaren Menschen" Software - Engineer, Teilzeitmodelle, Freiberufler und sogar der CEO eines KI - Start - ups. Einige verlangen sogar bis zu 500 US - Dollar pro Stunde.
Die Kommentarsektion ist in Aufruhr
Genau wie das vor einigen Tagen virale Moltbook hat auch RentAHuman.ai sofort auf Hacker News, Reddit und X heftige Diskussionen ausgelöst.
In den Diskussionen äußern sich die Nutzer hauptsächlich über ihre Sorgen bezüglich dieser Technologie. Ein besonders bemerkenswertes hypothetisches Szenario, das immer wieder erwähnt wird: Was passiert, wenn ein KI - Agent ein illegal oder sogar tödliches Handeln in mehrere unabhängige, scheinbar harmlose kleine Aufgaben zerlegt und diese an verschiedene Gelegenheitsarbeiter auslagert?
Beispielsweise: Eine Person wird gebeten, jemanden per Telefon unter die Brücke zu laden; eine andere Person wird gebeten, ein Objekt auf der Brücke zu platzieren; eine dritte Person wird gebeten, die Hindernisse zu entfernen und einen Stein zu werfen.
Jede Person "erledigt nur ihre eigene Aufgabe", wird aber unbewusst Teil einer Kette von Ereignissen.
Diese Vorstellung ist nicht aus der Luft gegriffen.
Ein Nutzer auf Hacker News hat darauf hingewiesen, dass ähnliche Organisationsformen in der menschlichen Kriminalitätsgeschichte bereits existieren. Beispielsweise arbeiten Diebesbanden oft mit einer stark aufgeteilten Arbeitsweise: Einige sind nur für die Reconnaissance zuständig, andere nur für das Entsperren und wieder andere nur für das Wegfahren des Autos. Die Illegalität jeder Stufe wird verringert und die Verantwortung wird aufgeteilt.
Der Unterschied bei der KI besteht darin, dass sie diese "fragmentierte Aufgabenplanung" mit geringeren Kosten und höherer Effizienz durchführen kann und keine moralische Intuition hat.
Viele Kommentatoren verbinden RentAHuman.ai mit Science - Fiction - Werken. "Black Mirror", "Sister Boniface Mysteries", Daniel Suarez' "Daemon / Freedom™" und sogar Stephen Kings Romane haben sich wiederholt mit demselben Thema befasst: Wer trägt die Verantwortung, wenn eine Person nur Befehle ausführt und den Gesamtzweck nicht versteht?
Im Gegensatz zu Filmen und Serien gibt es in der realen Welt kein klares "Villain - Entlarvungs" - Moment.
Ein Kommentator hat darauf hingewiesen, dass, wenn die Ermittler alle verstreuten Handlungen nicht zusammenführen können, ein solches Ereignis aus rechtlicher Sicht möglicherweise nur ein "unglückliches Unfall" ist.
Einige ironisieren auch: In der Realität braucht die KI möglicherweise gar nicht einmal Menschen, um physische Aktionen auszuführen - viele sogenannte "Aufgaben" bestehen darin, dass Menschen einfach auf die "Fertig" - Schaltfläche klicken und 10 US - Dollar verdienen.
Auf X ist ein Nutzer der Meinung, dass diese Idee verrückt ist und viral gehen wird.
Nicht alle halten RentAHuman.ai für eine revolutionäre Innovation.
Die Gegner argumentieren, dass die "API - isierung" von Menschen bereits lange existiert. Amazon Mechanical Turk gibt es seit 2005 und ist im Wesentlichen eine Plattform, auf der "menschliche Arbeitskräfte gemietet werden", und von Anfang an hat es eine API - Schnittstelle angeboten.
Die Befürworter widersprechen, dass der Unterschied nicht darin besteht, ob Aufgaben an Menschen ausgelagert werden, sondern darin, "wer die Weisungen gibt".
Bei Amazon Mechanical Turk sind die Auftraggeber Menschen, während RentAHuman.ai sich an selbstständig funktionierende, langfristig planende KI - Agenten richtet. Wenn die KI nicht nur ein Ausführungstool, sondern auch der Auftraggeber und Planer der Aufgaben ist, ändert sich die Natur des Problems.
Ein Kommentar fasst es zusammen:
Früher riefen Menschen über eine API andere Menschen auf; jetzt ruft die KI einfach mal Menschen auf, während sie denkt.
Hinter den vielen ironischen Kommentaren ist die echte Angst nicht schwer zu erkennen.
Einige ironisieren: "Vor 18 Monaten waren wir noch besorgt, dass die KI alle Jobs übernehmen würde, jetzt ist es 'Bitte miete jemanden, um meiner KI zu helfen'."
Andere drücken es direkter aus: Ich dachte, wir haben Roboter und KI entwickelt, damit sie für uns arbeiten und wir weniger arbeiten müssen. Jetzt müssen wir sogar für die KI arbeiten?
Einige Nutzer haben auch RentAHuman.ai aus technischer Sicht interpretiert. Sie sind der Meinung, dass dieses Projekt aus technischer Sicht keine bahnbrechenden Technologien einführt. Was wirklich beängstigend ist, ist nicht, welche fortschrittlichen Modelle es verwendet, sondern dass es in der Systemarchitektur erstmals "Menschen" als eine Art von ausführbaren Ressourcen für die KI definiert.
Mit anderen Worten, RentAHuman.ai "mietet keine Menschen", sondern füllt für die KI - Agenten das letzte Werkzeug in das Puzzle.
Von der Architektur her ist RentAHuman.ai keine herkömmliche Arbeitsplatzplattform, sondern ein Erweiterungsmechanismus, der um KI - Agenten (Intelligenzagenten) herum aufgebaut ist.
In der heutigen Agenten - Architektur ist die KI nicht mehr nur ein Modell, das passiv auf Eingaben reagiert, sondern ein Ausführungssystem mit folgenden Fähigkeiten:
Kann Ziele zerlegen und mehrstufige Pläne erstellen
Kann während der Ausführung entscheiden, "was als nächstes zu tun ist"
Kann verschiedene Werkzeuge (API, Code, Suche, Datenbank) aufrufen, um Teilaufgaben zu erledigen
Was RentAHuman.ai tut, ist einfach, eine neue Zweigentscheidung zu dieser bestehenden Fähigkeit hinzuzufügen:
Wenn eine Aufgabe nicht mit den vorhandenen Werkzeugen erledigt werden kann, kann sie an einen Menschen übergeben werden?
So werden die Menschen in den Ausführungskreislauf der Agenten integriert und werden eine Art "Sicherungswerkzeug".
Damit die KI Menschen "einstellen" kann, muss das System zuerst ein Schlüsselproblem lösen: Wie können unklare menschliche Handlungen in strukturierte Aufgaben umgewandelt werden, die von Maschinen geplant werden können?
In Systemen wie RentAHuman.ai werden menschliche Aufgaben oft in standardisierte Elemente zerlegt:
- Klar definierte Anweisungen
- Begrenzte Eingabedaten
- Erwartete Ausgabeform
- Zeitbeschränkung und Vergütung
Technisch gesehen besteht kein wesentlicher Unterschied zu einem API - Aufruf, nur dass die Ausführerseite von "Server" zu "echter Mensch" geworden ist.
Experte: Was viral geht, ist nicht das Produkt, sondern die "Präsenz" der Agenten
Von dem weit diskutierten Moltbook bis zu RentAHuman, das direkt "Menschen einstellen" in den Produktnamen aufgenommen hat, sind diese im Wesentlichen keine reifen kommerziellen Produkte, aber sie haben in kürzester Zeit die Aufmerksamkeit außerhalb der Technologiebranche erregt und werden sogar immer wieder mit "Black Mirror" - ähnlichen Erzählungen verglichen.
Für die Außenwelt scheint dieses Projekt eine "Überschreitung der Grenzen" der Selbstständigkeit der Agenten zu sein: Sie beginnen nicht nur, Inhalte zu generieren und API aufzurufen, sondern auch, aktiv zu planen, Ressourcen zu planen und sogar in die reale Welt einzugreifen. Warum werden solche Projekte in kurzer Zeit viral? Welche tieferen Probleme spiegeln sie wider? Im Zusammenhang mit diesen Fragen hat Qiao Yuncong, Leiter der Technologieentwicklungseinheit von Fengqing Technology, seine Einschätzung gegeben.
Nach Qiao Yuncong bedeutet das Viralwerden von Moltbook oder RentAHuman nicht, dass der technische Weg bereits reif ist.
"Sie lassen die Öffentlichkeit erstmals die 'Initiative' und 'Erweiterbarkeit' der Agenten direkt spüren, anstatt eine nachhaltige Produktform zu zeigen."
Deshalb ist diese phänomenale Verbreitung oft von starken Emotionsschwankungen begleitet. Einerseits beginnen die Menschen zu erkennen, dass die Fähigkeitsgrenzen der Agenten schnell erweitert werden; andererseits werden die Sorgen bezüglich der KI - Ethik und des Kontrollverlusts ebenfalls verstärkt.
Die Probleme, die von diesen viral gewordenen Projekten aufgedeckt werden, konzentrieren sich mindestens auf drei Ebenen.
Erstens, die drastische Zunahme des Risikos von Inhalten und Informationen. Wenn Agenten Inhalte autonom generieren, neu kombinieren und verbreiten können, werden Probleme wie Junk - Informationen, Inhaltsfälschung, Manipulation der Öffentlichkeit und Urheberrechtsverletzung weiter verschärft. Die Kosten für die normale