仅花16小时、成本不到7元,把Mac爆改成“触摸屏”,不用AI、不改硬件,他们用一个镜子解决一切
在 Windows PC 阵营里,触摸屏早已不是新鲜事,但苹果却始终坚持“不做”。哪怕 iPad、iPhone 早已把触控体验做到极致,MacBook 依旧停留在“键盘 + 触控板”的交互范式。
2010 年,乔布斯曾在 MacBook Pro 发布会上指出,在笔记本电脑上装触摸屏“不符合人体工学”,“绝对行不通”;2012 年,刚继任苹果 CEO 的库克也嘲笑过微软 Surface 就像是“把烤面包机和冰箱合二为一”。
然而,一位名叫 Anish Athalye 的开发者和他的几位伙伴,却做了一件很“离谱”的事:
他们没有改系统、也没有改硬件结构,只用了 1 美元(约合人民币 6.9 元)成本 + 1 个小镜子,就把 MacBook 变成了一台“触摸屏电脑”——甚至,他们只花了 16 个小时就做出了可用原型。
Anish Athalye把这个项目命名为:Project Sistine(西斯廷计划)。这个名字并不是随便起的,“Sistine”来源于著名的西斯廷教堂壁画——米开朗基罗那幅经典的《创世纪》中,上帝与亚当手指几乎相触的画面。
这个项目的核心,也正是围绕“手指是否触碰”的判断而展开。
一个初中生的观察,埋下了这个项目的种子
这个项目的灵感并不是凭空产生的。
早在团队成员 Kevin 读初中的时候,他就注意到一个很日常却容易被忽略的现象:当你从一个倾斜角度看屏幕时,表面会呈现出类似镜面的反光效果;当手指靠近屏幕时,你可以同时看到手指本身以及它在屏幕上的“反射”。
于是一个关键问题出现了:如果我们能判断“手指是否碰到了自己的反射”,是不是就能知道它有没有触摸屏幕?
当年,Kevin 就基于这个思路,做过一个叫 ShinyTouch 的项目——通过外接摄像头,实现一个几乎无需配置的触控系统。而这一次,Anish Athalye 团队想做得更极致:
把整个方案“压缩”进 MacBook 本身,不依赖任何外部设备。
1 美元硬件:一个镜子解决一切
基本上,他们的设计方案可以用一句话概括:让 MacBook 的自带摄像头“看到”屏幕。
但问题在于,笔记本摄像头默认是朝向用户的,而不是朝向屏幕。于是,他们用了一个极其简单但巧妙的方法:在摄像头前加一块小镜子,把摄像头视角“折射”到屏幕上。这样一来,摄像头就可以“俯视”屏幕,同时捕捉手指和反射,而不需要任何额外摄像头。
整个硬件结构简单到离谱:小镜子、硬纸板、门铰链和热熔胶,成本几乎可以忽略不计。
经过几轮调整,他们做出了一个可以在几分钟内组装完成的小装置:一个“挂”在摄像头上的微型反射结构——这就是整个系统的全部硬件基础。
不靠 AI,只用经典 CV:识别“手指+反射”
相比硬件的简单,这个项目真正的核心在于软件。他们并没有使用深度学习模型,而是完全基于传统的计算机视觉(Computer Vision),构建了一条清晰的处理流程。
首先,系统会对摄像头画面进行处理。通过肤色过滤和二值化,提取出可能是手指的区域;然后在图像中寻找轮廓,筛选出两个重要信息:一个是手指本体,一个是它在屏幕上的反射。
接下来,系统会做一个非常关键的判断:这两个轮廓是否在水平方向上有重叠,并且“上小下大”——上面的是手指,下面是手指的反射。
一旦找到这两个轮廓,就可以计算触点位置:取“手指底部”和“反射顶部”之间连线的中点,作为触摸点。理论上,根据两个轮廓之间的垂直距离,可以区分两种状态:
● 如果距离很小 → 手指已经接触屏幕
● 如果距离较大 → 手指只是悬停
处理后的效果如下:绿色:手指 + 反射轮廓;红色:边界框;紫色:触摸点。
坐标映射:从摄像头到屏幕
识别出触点之后,还有最后一个关键问题:这个点,怎么对应到屏幕坐标?
毕竟摄像头看到的是一个倾斜视角,与屏幕的坐标系是完全不同的。为了解决这个问题,他们引入了一个经典的计算机视觉方法——单应性变换(Homography)。简单来说,就是一个投影变换矩阵,可以把摄像头视角下的点映射到屏幕坐标系。
为了计算这个变换矩阵,Anish Athalye 他们设计了一个交互式校准流程:
(1)屏幕上会出现一个移动的绿色点,用户需要用手指去点击它;
(2)系统会记录摄像头检测到的触点位置,以及屏幕上的真实位置。
收集到足够多的数据之后,使用 RANSAC 算法进行鲁棒估计,就可以得到一个稳定的映射关系。这样校准完成后——摄像头中的任意触点,都可以被准确映射到屏幕坐标。
上面这个视频展示了校准过程:用户需要跟随屏幕上的绿点移动手指。画面叠加了摄像头实时视频与调试信息,摄像头坐标系下的触摸点以红色显示。校准完成后,投影矩阵会用红线可视化,软件随后切换到正式模式,估算出的触摸点以蓝点显示。
除此之外,在当前原型中,Anish Athalye 团队是直接把“触摸 / 悬停”转成鼠标事件的——也就是说,所有现有软件均无需适配,立刻就能变成“触控应用”。而 Anish Athalye 也补充道,如果进一步开发专门的触控应用,还可以利用更多数据,比如悬停高度、手势轨迹和多点交互等。
(项目原型成果展示)
一个玩具,还是一个方向?
从严格意义上说,目前 Project Sistine 只是一个概念验证(PoC)。
根据 Anish Athalye 的说法,它仍然有不少限制:
● 摄像头分辨率较低(仅 480p);
● 可视范围有限,无法覆盖整个屏幕;
● 对光线、肤色可能也有一定依赖。
但至少,它已经证明了一个可行性方案:仅用 1 美元硬件,就能把笔记本变成触摸屏——作为原型来说,其表现已经相当不错。要是能够提升摄像头分辨率或使用曲面镜扩大视野,Project Sistine 完全有可能成为一套实用的低成本触摸屏改造方案。
不过,如果想要 Mac 有更好的触摸屏体验,或许也可以等一等:据知名分析师郭明錤、彭博社等多方媒体爆料,今年苹果很可能要打破自乔布斯时代延续 16 年的“笔记本无需触控”理念了——有消息称,苹果将在 2026 年底推出首款配备触摸屏的 MacBook Pro 机型。
最后,Project Sistine 已开源并采用 MIT 许可证发布,感兴趣的开发者可前往查看:https://github.com/bijection/sistine。
参考链接:https://anishathalye.com/macbook-touchscreen/
本文来自微信公众号“CSDN”,整理:郑丽媛,36氪经授权发布。