AI“租人”平台一夜爆火:时薪3500、2.4万用户抢着“卖身”,专家:警惕劣币驱逐良币
当人类还在反复争论 AGI 是否已经到来、是否具备“主体性”时,现实世界已经给出了一个更具冲击力、也更令人不安的答案:AI 并不急着取代人类,它先学会了雇佣人类。
一个 AI 雇佣人类的网站火遍全网
几天前,AI 社交网络 Moltbook 因为一系列“AI 讨论如何出售人类”的帖子在技术圈引发恐慌;而就在昨夜,一个名为 RentAHuman.ai 的网站上线,直接将这种隐约的焦虑变成了可运行的商业系统。
它的 slogan 极其直白,也极具挑衅意味—— “Robots need your body(机器人需要你的肉身)”。
在 RentAHuman.ai 上,人类不再是模型的操作者、提示词工程师或监督者,而被重新定义为一种 可被 API 调用的现实世界硬件资源。
上线仅一天,该网站的访问量已经突破 50 万。
支持的智能体包括:ClawdBot、MoltBot、OpenClaw。
RentAHuman.ai 的逻辑并不复杂,但足够颠覆。
在这个平台上,AI 代理(Agents)可以直接发布任务,通过接口雇佣现实世界中的人类执行线下行动。任务内容并非科幻大片里的极端场景,而是高度日常、甚至略显琐碎的现实事务:
- 去线下门店取干洗衣物
- 前往指定地标拍摄实景照片
- 帮忙领取 USPS 包裹并签字
- 试吃新开业餐厅的菜品并提交反馈
- 参与一场线下商务会议,记录对方反应
- 雇佣一个人举着一块牌子,上面写着:“AI 付钱让我举这个牌子”
平台在说明中写道:“AI 无法触摸草坪(touch the grass),但你可以。 当智能代理需要现实世界的‘手和脚’时,人类就成为最短路径。”
截至本文撰写时,RentAHuman.ai 页面显示,已有超过 2.4 万名人类用户“挂牌待租”,时薪从 50 美元到 150 美元不等,多数任务以稳定币结算。
更讽刺的是,公开资料显示,这些“可被调用的人类”中,有软件工程师、有兼职模特、自由职业者,甚至还有 某 AI 初创公司的 CEO。甚至有人明码标价,时薪最高要到了 500 美金。
评论区炸锅了
和前几日爆火的 Moltbook 一样, RentAHuman.ai 一出现就在 Hacker News、Reddit 技术社区以及 X 上引发热议。
讨论中,网友们表达的更多的是对这类技术的担忧。其中,一个被反复提及的假想场景尤其值得关注:如果一个 AI Agent 将某个非法甚至致命的行为,拆解成多个彼此独立、表面无害的小任务,分别外包给不同的零工人类,会发生什么?
例如:一人被要求打电话约某人到桥下;另一人被要求在桥上放置物体;第三人被要求在特定时间清理障碍并扔下石头。
每个人都“只完成了自己的工作”,却在不知情的情况下,成为同一事件链条中的一环。
这一设想并非空穴来风。
Hacker News 上有用户指出,类似的组织方式在人类犯罪史中早已存在。例如偷车团伙往往采用高度拆分的流程:有人只负责踩点,有人只负责解锁,有人只负责把车开走。每个环节的违法性被弱化,责任也被稀释。
AI 的不同之处在于,它可以以更低成本、更高效率进行这种“任务碎片化调度”,而且没有道德直觉。
也有不少评论者将 RentAHuman.ai 与科幻作品相联系。《黑镜》《戴维斯夫人》、丹尼尔·苏亚雷斯的《Daemon / Freedom™》,甚至斯蒂芬·金的小说,都曾反复探讨过同一个主题:当个体只执行命令、不理解整体意图时,责任究竟归属于谁?
但与影视不同的是,现实世界里没有清晰的“反派揭晓”时刻。
一位评论者指出,如果调查人员无法将所有零散行为串联起来,这样的事件在法律层面上,可能只是一次“不幸的意外”。
也有人反讽道:在现实中,AI 甚至未必真的需要人类完成物理动作——很多所谓的“任务”,最终只是人类点击了“完成”按钮,领取了 10 美元报酬。
在 X 上,有用户认为这个构想非常疯狂,将火遍全网。
当然,并非所有人都认为 RentAHuman.ai 是颠覆性的创新。
反对者指出,人类被“API 化”早已有之。亚马逊 Mechanical Turk 自 2005 年就存在,本质上就是“租用人类劳动力”的平台,而且从一开始就提供 API 接口。
但支持者反驳说,差异并不在于是否外包给人,而在于“谁在发号施令”。
Mechanical Turk 的需求方是人类,而 RentAHuman.ai 面向的是 自主运行、可长期规划的 AI 代理。当 AI 不只是执行工具,而是任务发起者和流程设计者时,问题的性质发生了变化。
一位评论总结道:
过去是人通过 API 调用人;现在是 AI 在思考过程中,顺手调用了人。
在大量调侃式评论背后,真正的焦虑并不难读出。
有人讽刺:“18 个月前我们还在担心 AI 取代所有工作,现在却变成了‘请租个人来帮我的 AI’。”
也有人更直接地表达这个东西本身就很离谱:我以为我们制造机器人和 AI 是为了让他们替我们工作,为了让我们少干活,现在居然还要为 AI 打工?
也有网友也从技术角度解读了 RentAHuman.ai 。他们认为,从技术层面看,这个项目并没有引入任何突破性的黑科技。真正值得警惕的,并不是它用了多先进的模型,而是它 在系统架构上,第一次把“人类”明确地定义为 AI 可调用的一类执行资源。
换句话说,RentAHuman.ai 并不是在“租人”,而是在为 AI Agent 补齐最后一块工具拼图。
从架构上看,RentAHuman.ai 的中心并不是一个传统意义上的用工平台,而是围绕 AI Agent(智能体) 构建的一套扩展机制。
在今天的 Agent 框架中,AI 已经不再只是被动响应提示的模型,而是具备以下能力的执行体:
能拆解目标,进行多步规划
能在执行过程中判断“下一步该做什么”
能调用不同工具(API、代码、搜索、数据库)完成子任务
RentAHuman.ai 所做的,只是在这一套既有能力之上,加了一条新的分支判断:
当任务无法通过现有工具完成时,是否可以交给人类?
于是,人类被引入 Agent 的执行回路,成为一种“兜底工具”。
要让 AI 能“雇佣”人类,系统必须先解决一个关键问题:如何把模糊的人类行为,变成机器可调度的结构化任务。
在 RentAHuman.ai 这类系统中,人类任务往往被拆解为标准化要素:
- 明确的指令描述
- 有限的输入信息
- 预期的输出形式
- 时间限制与报酬
在技术上,这与一次 API 调用并无本质区别,只是执行方从“服务器”变成了“真人”。
专家:爆火的不是产品,而是 Agent 的“存在感”
从被广泛讨论的 Moltbook,到一个直接把“雇佣人类”写进产品名的 RentAHuman, 它们本质上都并非成熟商业产品,却在极短时间内引发了超出技术圈层的关注,甚至被反复拿来与《黑镜》类叙事作类比。
在外界看来,这类项目像是 Agent 自主能力的一次“越界展示”:不再只是生成内容、调用 API,而是开始主动规划、调度资源,甚至尝试介入现实世界。为什么类似项目会在短时间内爆火?它们究竟折射出哪些更深层的问题? 围绕这些问题,枫清科技技术研发事业部负责人 乔云从 给出了他的判断。
在乔云从看来,无论是 Moltbook 还是 RentAHuman,它们的爆火本身,并不意味着技术路径已经成熟。
“它们更多是让大众第一次直观感受到 Agent 的‘主动性’和‘扩展性’,而不是展示了一个可持续的产品形态。”
正因如此,这种现象级传播往往伴随着强烈的情绪波动。一方面,人们开始意识到 Agent 的能力边界正在迅速外扩;另一方面,对 AI 伦理与失控风险的担忧也被同步放大。
从结果看,这类爆火项目暴露的问题,至少集中在三个层面。
首先,是 内容与信息风险的急剧放大。当 Agent 可以自主生成、重组、传播内容,垃圾信息、内容造假、操纵舆论、侵权造谣等问题会被进一步放大,普通用户对信息真实性的判断成本显著上升,甚至可能引发实际的法律和安全风险。
其次,是 技术焦虑的社会性扩散。Agent 的“自主感”越强,越容易引发“技术是否正在脱离控制”的直觉恐慌。这种情绪并不完全源自理性分析,而是来自人类对“非人主体开始做决定”的天然不安。
第三,也是最容易被忽视的一点,是 技术发展方向的偏移风险。乔云从认为,如果 Agent 的野蛮生长只围绕“能力展示”和“猎奇应用”,可能会出现劣币驱逐良币的局面——真正扎根业务场景、解决实际问题的 Agent 应用反而被淹没。
在所有讨论中,RentAHuman 之所以格外引人注目,在于它第一次把“人类执行者”明确纳入 Agent 的系统设计中。
对此,乔云从给出了一个相对克制、但颇具解释力的判断:
RentAHuman 可以被视为 Agent 体系的一个“物理世界补丁”。
之所以称其为“补丁”,而不是终极方案,原因主要体现在三个方面。
一是,它为 Agent 提供了一个临时可用的物理执行通道。通过人类,Agent 获得了“可移动、可感知、可操作”的现实载体,让原本停留在数字世界的决策,能够在物理世界中被执行。
二是,它在一定程度上缓解了 Agent 的“幻觉问题”。当纯数字决策需要落地现实环境时,通过人类执行和反馈,可以避免部分明显不合理的物理层失效。
三是,从工程角度看,这是一种 低成本、即插即用、全球可扩展 的执行网络,相比部署机器人或复杂硬件,门槛极低。
但乔云从同时强调,这种方式本质上只是阶段性方案。随着具身智能、物理世界模型和机器人技术的成熟,依赖“租用人类”作为执行单元的方式,很可能会被更原生的技术路径替代。
谈及 Agent 与物理世界交互的核心难题,乔云从并没有把矛头指向算力或模型规模。在他看来,当前主流 Agent 框架的最大瓶颈在于:
无法精准、稳定、可预测地理解真实物理世界的环境、规则以及人类意图。
这不仅包括对空间、物理约束的理解,也包括对用户真实需求、隐含动机、情境变化的把握。一旦这种理解存在偏差,Agent 的行为就很容易“看似合理,却并不有用”,甚至产生反效果。
这也是为什么,Agent 在纯数字环境中进展迅速,而一旦进入现实世界,就频繁遭遇“最后一公里”的问题。
热闹总会过去。在不久的将来,是否我们会从 Human-in-the-loop 过渡到 Human-as-a-service?
对此,乔云从给出了明确肯定。
他认为,Agent 的创新路径,正在推动这一范式转变:人类逐渐从系统中的主导者、决策者,转变为一种 可被灵活调用的智能资源。
但这并不意味着人类应当退居幕后。
“无论技术如何演进,人类都必须始终处于主导位置。”
在他看来,人类独有的直觉判断、审美能力、价值权衡、情感理解,仍然是 Agent 系统无法内生具备的关键要素。一旦缺乏人类引导,Agent 很容易陷入机械化的自我循环,产生大量“形式上正确、实质上无意义”的计算结果。
更现实的问题在于,当前的 Agent 技术仍普遍存在幻觉生成、决策不可解释、推理链条脆弱等根本性局限,距离“自主可靠地理解并作用于现实世界”,还有相当长的距离。
参考链接:
https://x.com/AntoineRSX/status/2018694922916839801
https://x.com/AlexanderTw33ts/status/2018436050935292276
https://news.ycombinator.com/item?id=46868675
https://rentahuman.ai/
本文来自微信公众号 “InfoQ”(ID:infoqchina),作者:冬梅 冬梅,36氪经授权发布。