首页文章详情

从手办到试穿,最适合普通人的Nano Banana玩法

未来人类实验室2025-11-27 18:00
花样再多,能帮到普通人才算真破圈。

 

花样再多,

能帮到普通人才算真破圈。

 

 

刷屏的“香蕉神器”

最近我的社交媒体一直被Nano Banana刷屏——很多博主甚至为它一天 N 更,出各种各样的教程,包括所谓的“邪修”大法,隔着屏幕都能感受到他们那像发现宝藏般的兴奋。

Nano Banana是Google最新推出的图像模型&编辑模型Gemini 2.5 Flash Image。最早它藏在一个叫LMArena的“模型比武场”里,还是隐藏卡池,得靠“抽卡”才能体验。 

但因为抽中概率低,想体验的人又多,甚至有大佬因此研究了能提高抽中几率的“邪修”方法,比如在上传的照片后面垫透明图。 

那时的Nano Banana就已经小有名气,而且被玩出了很多花样,主打就是一个能把各种平面图生成一整套摆在桌上的手办模型图片,图片中还包括桌上的包装盒和显示着模型的电脑屏幕,看上去就像是摆拍了一个真的放在桌面上的手办。

●图片来源:小红书用户@麦兜_Meadow:)

比如,有网友上传了自己的宠物照片生成了一个同款手办摆在桌上的图片。是的,这张图中,除了那张小狗照片是真的,其他都是Nano Banana生成的,这立体程度,很逼真吧。而且还很快,一般十几秒一个。 

也都符合它的官方宣传点—— 

1.SOTA图像生成和编辑; 

2.难以置信的角色一致性; 

3.快如闪电。 

8 月 26 日,Nano Banana终于正式上线,旋即引爆 。说实话,除了各个为之疯狂的 AI 博主,最近就连我的社交媒体上,也到处都是别人晒出的手办图。Nano Banana也算是破圈了。 

而我,作为一个正对乙女向恋爱手游《恋与深空》上头的新晋玩家,Nano Banana太让我心动了,首先我就要用它做个秦彻(《恋与深空》里的男主之一)的手办!

于是,我的Nano Banana初体验,就从这个痴汉计划开始了。

 

火出圈的平面图秒变手办

按照网友推荐,我试过从AI Studio和Flowith上使用,但体验都不如直接去Gemini大模型官网直接用。在网页左上角切换到2.5Flash,输入框处选择image模式,立刻丝滑起飞。最近,Lovart等平台也已经接入了这个模型,入口越来越多。 

既然决定要用Nano Banana给秦彻上桌,第一步当然是——上传他的平面图。我选了一张恶龙造型平面图,上传后参考网友提供的提示词模版,简单说就是:“把角色做成立体手办,加上包装盒和建模界面”,然后它说“Just a sec...” 不到半分钟,屏幕上跳出了一张图,如下—— 

●Nano Banana生成 

我真的是当场“哇”了出来。 

衣服褶皱、胸前纹理、头发层次感都很立体,桌面环境和光影也自然。美中不足的是,手办后面的包装盒有点粗糙,还带着点火星文,让我不太理解。 

后来我还尝试给秦彻换了两个发型。在左一原图的基础上,输入简单指令“改成长发”“改成浅金色长直发”,就出现了如下图片—— 

●Nano Banana生成

人物一致性果然保持得不错。小幅度改动就能出新图,这也难怪有网友锐评“Photoshop岌岌可危”了。 

 

换装、换人、换景,想怎么换都行

要知道我这个人很朴实的,我得让它来点儿实际的,比如帮我解决个痛点——网购。 

老实说,我平时网购最大的痛点就是货不对板,或者说货不对我。尤其是衣服,完全像开盲盒,图片看着不错,一到手就怀疑人生:这颜色适合我吗?这版型适合我吗?怎么穿在身上完全不是我的风格……每次网购衣服都像在赌博。 

既然Nano Banana的人物稳定性这么强,还能生成如此立体的图像,我想不如用它帮我试衣服吧:上传全身照+想买的单品图,让它生成穿在我身上的效果图,来个云试穿。 

比如我东北基因觉醒,看上了一件大花棉袄,输入指令“将图1(本来是我自己的照片,但我不好意思出镜,这里用模特照片代替)中的上衣换成图2(大花棉袄),其他部分保持不变。”很快,屏幕上就出现了完整穿搭效果——正所谓“穿搭要显贵,基础款就不要再搭基础款......”原本人物身上的西装外套,变成了我提供的大花棉袄,其他部分均未改动。 

●Nano Banana界面

看完生成的效果,我心里大概有数了:整体颜色和版型都很适合我,过年穿它绝对喜气洋洋,这就把它拿下。 

哦,对了,还有搭配问题,经常买完一件,发现全身都要跟着换。于是我干脆直接上整套,让Nano Banana把衣服、包、鞋、配饰一起穿戴上,看这套整体造型是否适合我(这里没有没让它帮我搭,都是我自己挑的或者商家搭配,毕竟它不是个穿搭工具,但此时我还挺希望它是的)。

下面是我找的一套穿搭,但效果上似乎出了点问题——只有包和 T 恤两件单品上身,T 恤还被直接套在了模特原本穿着的黑色打底衫外面,我觉得这不像Nano Banana的水平啊。 

●左一原图来自Celine,中间原图来自小红书用户@物屿WUYU,右一为生成图 

后来发现是要重新开一个聊天。于是我点击新聊天重头再来,这次就很不错了。

●Nano Banana生成

左图是第一次生成的效果,大体上看,帽子、眼镜、上衣、鞋子都没有问题,但还有很多细节不符合。 

我急了。“给你的图片是短款牛仔裤,项链是黑绳的,包带是黑色的,还有耳饰!”又跑了两次图后得到了右图,它还是非常固执地不改成短裤,我放大查看时没有找到耳环,一缩小发现,耳环竟然在左上角挂着,哈哈哈,实在有点好笑。 但也还不错了,以后我网购衣服的时候还是准备先用它帮我试一下的。 

除了做手办、试衣服,Nano Banana对普通人来说还有更接地气的整活玩法。比如给照片换人、换景,想换哪里换哪里,你完全可以人在家中躺,但发个朋友圈,佯装自己正在威海跟特朗普吃夜宵。 

操作也简单,上传一张两个女生在街边吃夜宵的照片,输入指令“把左边的人换成特朗普”。第一次出的图简直没把我笑死,因为原图里女生穿的是裙子,两个光溜溜的膝盖露在外面,当人物被替换后,也变成了“光腿特朗普”,看上去非常滑稽。后来我还是要求给特朗普穿上了裤子,并把背景换成海边,瞬间就有了一种深夜海景烧烤的氛围。 

●左一原图来自Pinterest 

 

自带百科全书,还能推理现场

据Nano Banana的模型研究员说,这个模型拥有Gemini世界知识,所以它不仅能生成图,还“懂图”。 

于是我做了个小实验:上传了几个景点的图片,让它帮我识别这是什么景点并加入AR视觉的介绍卡片。 

 

●Nano Banana生成

可以看到在第一张图片中,Nano Banana准确标注了国家大剧院等三个标签,并且标签里的描述内容也是对的。第二张图的建筑多一些,标签的落点位置会出现一些小偏差。 

我是个爱旅行的人,感觉这个功能或许能帮我成为一个旅行博主哎!(当然,旅行博主可不是这么好当的,我懂)但如果在旅行时拍摄 Vlog,然后把这些AR卡片丢到视频软件里,做出带讲解的沉浸镜头,肯定很有意思。 

更酷的是,网友们还发掘出了Nano Banana的视觉推理能力。 

比如,X博主@Simon在地图中标注出红色箭头,问它在这个方向能看到什么?Nano Banana 便生成了该方向的真实世界景观。 

●图片来源:X博主@Simon 

Simon还给了它一张绘制了等高线的地形图,它便绘制出了站在红色圆圈所在地看向箭头所指位置的真实场景,真是厉害。

●图片来源:X博主@Simon

所以,Nano Banana不只是会生图、画图,它还能识别出图里有哪些元素,并在此基础上结合世界知识做二次创作。 

不过,如之前所见,Nano Banana也非尽善尽美,比如生成AR卡片时图像清晰度会下降,卡片标签描述里的文字可能变形,箭头所指地点和实际地标场景也可能偏差。但我想说,瑕不掩瑜吧。 

 

与FLUX、豆包的对比 

Nano Banana一上线,口碑直追之前刷屏的Flux Kontext ,甚至有过之而无不及。

两者都主打的是人物一致性。之前Flux Kontext是这个领域的王者,它能保证同一个人,从不同角度、不同造型画出来都还是那个人。但Nano Banana上线后,很多用户倒戈,说这才是最一致的。 

此外,两者在这方面还有一些操作门槛上的不同,用Flux Kontext出好效果,得研究复杂的工作流,像我这种普通用户,直接用网页生成,效果往往没那么稳,还得靠别人调好的预设。 

相比之下,Nano Banana的优势就是上手成本低。不需要我去学习一堆插件和参数,直接对话就能出图改图,还能多轮互动,边出图边调整。 

所以,Flux更像是设计师的工具,Nano Banana更像是大众用户的Photoshop替代品。 

在生图这个领域,还不得不提起在国内拥有大量用户的豆包,作为字节系产品,生态绑定好,在剪映、飞书这些场景里能直接用。而且作为国产大模型,支持中文语境,非常方便。但生成的图像有较浓的AI 味儿,尤其在人脸细节和一致性上不够自然。 

如果拿人群来分的话:豆包适合效率党,比如职场人要做个商品展示图、汇报封面,用它足够了;Nano Banana更适合有创作欲的人,比如博主、手办玩家、旅游达人,能折腾出花样;Flux则是专业向,设计师、插画师用它能跑出很酷的作品,但门槛高。 

一句话总结:Flux是“效果派”,追求画面质感,但门槛高;豆包是“效率派”,方便接入各种场景,但效果打折;Nano Banana是“全能派”,既能玩花活,又够接地气,上手门槛低,还带理解广度和视觉质量的加成。 

但无一例外,再强大的模型,也不是一键完美,输入和提示词还是很重要的。 

 

重塑边界

作为一个普通受众,在试用Nano Banana过程中,我最直观的感受就是:Nano Banana的玩法更新速度比我刷短视频换频道还快。今天大家还在试“平面图秒变手办”,明天就有人把它玩成“Nano Banana+Lovart组合出道”,直接冲进家装赛道。 

比如AI博主@歸藏(guizang.ai)找了7张家具的照片,并用Lovart里的Magic Canvas画了简单的家具位置示意图,然后让Nano Banana把家具们放入房间的指定位置。 

这要是在以前,只是画个示意图就得费一顿牛劲,但现在直接在Lovart的Magic Canvas左边的画框打字就行,简单粗暴。从Nano Banana生成的结果来看,所有家具的位置都摆对了,每个家具的细节也都与原图一致。以后装修的时候,都能自己做效果图了。 

●图片来源:AI博主@歸藏(guizang.ai) 

另外,还有人用Nano Banana给任意建筑转换成等距风格的图标; 

●图片来源:AI博主@歸藏(guizang.ai) 

或者只是像画火柴人一样,手绘个动作示意图,然后再上传任意一个人物图像,让Nano Banana把后者中的人物动作变成前面手绘图的样子,它也能做到,这玩儿法还挺有意思的; 

●图片来源:微信公众号@数字生命卡兹克 

还有哦,给它两个图像,它还能给你生成多张分镜图片,也就是说可以拿它做漫画哎。

●图片来源:AI博主@歸藏(guizang.ai) 

Nano Banana的玩儿法实在太多了,还在有用户不断探索。 

感觉只要我离线半天,再上网就得补作业。这也说明,这类生成模型正在迅速从“炫技工具”变成“日常工具”,并不断被用户重塑使用边界。 

而在热闹之外,负责这个模型的DeepMind研究员在播客里聊到未来展望时,提到了两条主线:Smartness(更聪明)与Factuality(更靠谱)。

一方面要让模型更聪明,懂得帮你补全没说清楚的指令;另一方面也要更靠谱,特别是在图表、流程图这些“又要好看又要准确”的场景里,避免瞎编。 

他们还提到未来可能会做个“自动化个人审美打分器”,让模型慢慢学会你的审美偏好。也就是说,Nano Banana的潜力还远没到头。而我们现在看到的花样百出的玩法,也许只是起点。

 

撰文 | 杜雪莹

编辑 | 巴芮

封面图源 | AI生成

 

 

 

你想用Nano Banana来做什么呢?

 

 

 

本文来自微信公众号“未来人类实验室”,作者:杜雪莹,36氪经授权发布。