允中 发自 凹非寺
量子位 | 公众号 QbitAI
这两天,大家伙朋友圈是不是被GPT-Image-2刷屏了?
文字渲染精准、高密度的信息图,复杂布局和美学UI一次到位,真实感爆棚。
连社交媒体截图、高考试卷都能近乎一比一还原,这完全颠覆了曾经以往的文生图模型,彻底解决了文字、信息图这些长期以来的痛点问题。
大家看完的第一反应,几乎都是:设计师真要失业了……
而就在刚刚,兔展智能甩出一张王炸:UniWorld-V2.5,居然直接“重现”了GPT-Image-2的某些惊艳Cases。
不废话,咱直接上疗效。
同样一套提示词,我们看看生成结果对比:
提示词:生成一个篆书碑刻拓片,内容是“由兔展智能首席科学家袁粒领导团队研发”
△GPT-Image-2生成
△Nano-Banana-2生成
△UniWorld-V2.5生成
可以说,在InfoGraph、文字密集、图文交错等此前被公认为“AI生图天花板”的场景上,UniWorld-V2.5的完成度已经对齐GPT-Image-2,并显著超越其他国内外主流文生图模型。
更重要的是,UniWorld-V2.5需要输入的prompt非常简短,不需要像之前一样提供极其复杂和详细的prompt。
你只需要一句话,即可生成多样、复杂的视觉信息图,背后是一整套完整的视觉生成系统在做支撑。
接下来,我们一起见证更多场景奇迹。
以前,AI生图最令人崩溃的场景是这样的:
结构化排版+高密度中文+复杂多样数学公式+曲线图+立体图,同时出现在一张图里。
几乎所有文生图模型,在这个场景下表现都很不稳定,甚至根本无从下手。
UniWorld-V2.5则表示:这只是基本功。
直接上地狱级测试,提示词:
生成一张2025年高考数学理科试卷。
△2025年高考数学理科试卷(由UniWorld-V2.5生成)
一张图里同时包含:选择题、填空题、解答题、函数图像、几何证明……
密密麻麻一整页,格式规范,字迹清晰,连答题线和页码都一个不落。
这已经不是“像不像”的问题,而是“能不能直接拿去给学生考试”的问题。
与此类似的,对中文排布要求很高的场景“简历生成”,效果也同样可圈可点:
△马斯克个人中文简历(由UniWorld-V2.5生成)
这种⽂字密集⽣成能⼒,此前的主流模型⼏乎⽆法做到。
在中文密集文字和复杂排版领域,这是前所未有的降维打击。
想要AI生成一个真实感的社交媒体APP界面?
传统模型生成的界面要么布局错乱,要么文字胡言乱语。
给UniWorld-V2.5布置作业,让它一句话生成一套完整、可乱真的社交媒体界面及布局。
1、抖音直播带货
主播、商品弹窗、价格、实时弹幕、打赏特效,细节真实到“细思极恐”。
△马斯克直播卖茅台(由UniWorld-V2.5生成)
△直播带货界面生成效果(由UniWorld-V2.5生成)
2、小红书探店
咖啡馆照片、店名、推荐指数、评论、点赞、导航栏,一个不落,调性精准。
△小红书上海咖啡馆探店界面(由UniWorld-V2.5生成)
3、微博热搜
热点头条、热度值、标签、按键等,全都可以直接生成,直接以假乱真。
△微博热搜界面(由UniWorld-V2.5生成)
4、YouTube视频页
博主信息、播放量、推荐列表、评论区,UI细节精准到让人分不清真假。
△YouTube视频页面(由UniWorld-V2.5生成)
这哪里是“生图”啊?这简直是“赛博截图”。
这么看来,UniWorld-V2.5理解的不是像素,而是产品逻辑和用户场景本身
高密集、复杂的信息图是公认的AI生图“无人区”。
它要求模型同时理解数据、图表、文字排版和逻辑关系,信息密度越高,难度越大。
让UniWorld-V2.5尝试露一手,它交出的作业是这样的:
人体前侧解剖系统全图:
太阳系全貌信息图:
绿叶解剖信息图:
肌肉、骨骼、内脏等细节可视化呈现,中英文混排清晰,数据图表严谨。
它不是在“画”一张看起来像的图,而是在理解并构建一个完整的信息体系
这种能力才是模型真正的技术护城河,标志着它从一个“生图工具”向“会思考、懂设计的视觉生成系统”的跨越。
让它试着画一张Air Jordan 1产品宣传海报。
鞋的质感、中文文案、版式层次、品牌调性……看这商业级完成度:
△Air Jordan 1产品宣传海报(由UniWorld-V2.5生成)
来一张苹果手机的宣传海报。
字体、排版、风格,专业摄影风格图片,美学和质感可以说是拉满了:
△苹果手机宣传海报(由UniWorld-V2.5生成)
UniWorld-V2.5的横空出世绝非偶然,它背后站着一位视觉AI深水区的“领跑者”:
兔展智能
深圳兔展智能科技有限公司,由董少灵北京大学宿舍于2014年发明最早的H5工具而创立。
后来到了2022年,其与北京大学年轻一代视觉AI领军人才袁粒等二次创业。
公司总部位于深圳,已服务超4100万家企业⽤户。
截至目前,兔展智能已获深创投、腾讯、龙岗⾦控、嘉道资本、中国风投、青岛人工智能基金、招商局创投等头部机构投资,完成F轮融资。
它还是国家⾼新技术企业、国家级专精特新“⼩巨⼈”企业、⼤湾区最具潜⼒独角兽、⼴东省⾸个“AI国家级⾼技能⼈才培训基地”。
兔展智能的UniWorld系列模型,为什么能做到“理解即生成”
因为它的技术底座早已遥遥领先:
值得⼀提的,是UniWorld系列发布的历史时间线:
面向高度结构化且依赖复杂世界知识推理的生成任务,传统的一句话出图范式已难以支撑。
区别于传统prompt-to-image的范式,团队将超过80%的token预算用于意图理解、推理与布局规划,相当于引入资深的“总设计师”来全程指挥和全局控制。
这从源头上保证了生成的质量,也体现了理解与生成统一的多模态范式优势。
其中,兔展智能首席科学家、北京大学袁粒老师,及其博士生晏志远等人,深度参与了核心能力的设计与实现,是V2.5关键突破的重要贡献者。
兔展智能一直围绕着让人类叙事更生动高效的使命,投入到最前沿的视觉智能创新。
据悉,兔展智能也将在不久之后,推出视觉空间智能路线为基础的世界模型
AI生图的上限,远比我们想象的要高。
UniWorld-V2.5的发布,用实力证明了在中文语境和超复杂逻辑场景下,国产模型已经具备了站在世界舞台中央的底气。
设计行业的“一句话出图”,过去是由GPT-Image-2引发的焦虑。
现在,这个能力在国内坚实落地了,而且是以自主可控、可微调、国产算力的形式落地的。
品牌方、内容平台、电商商家、医疗科普机构、教育出版机构,任何需要大规模生产视觉内容的场景,过去需要设计团队花数小时完成的工作,现在仅需要一句自然语言。
更重要的是这件事的示范意义:
在多模态图像生成这条赛道上,中国不再只能是跟跑。
一个从北京大学走出来、深耕视觉大模型4年的团队,今天交出了这份答卷。
那么,最硬核的来了:
这么强的“怪兽”模型,现在开放免费体验了!
独家体验传送门,手慢无
UniWorld-V2.5体验入口:https://uniworld.rabbitpre.com/