本文作者:访客

从“喂数据”到“喂现实”,MogoMind大模型撕开物理世界缺口

访客 2025-07-28 15:17:18 58082
从“喂数据”到“喂现实”,MogoMind大模型撕开物理世界缺口摘要: 文:志刚@互联网江湖电影《I, Robot》的剧情,终于要在现实上演了?这两天,应朋友邀请来了一趟上海,世界人工智能...

文:志刚@互联网江湖

从“喂数据”到“喂现实”,MogoMind大模型撕开物理世界缺口

电影《I, Robot》的剧情,终于要在现实上演了?

这两天,应朋友邀请来了一趟上海,世界人工智能大会在上海开幕了。

这届WAIC2025,参展的企业很多,不少都是做技术应用的企业,也有不少车企。

六座特斯拉刚公布没多久,我就想着到特斯拉展台看看。可没想到真正勾起我探索欲的,却是隔壁的另一家做大模型的企业:蘑菇车联。

这届WAIC大会上作为中美自动驾驶玩家的代表,特斯拉带来了赛博皮卡,蘑菇车联发布了首个实时理解物理世界的MogoMind大模型。

MogoMind大模型是一个为多类型智能体提供物理世界实时信息的深度理解和规划决策服务的大模型,简单地说,蘑菇车联给大模型装上了认识真实世界的“眼睛”。

皮衣教主老黄不久前说,下一波浪潮将是物理AI。

对此我深以为然。我一直都认为,DeepSeek、ChatGPT、可灵、sora涌现只是个开始,AI真正的浪潮,应该是有更多物理交互的AI。

也因此,MogoMind这样能够实时理解物理世界大模型,才更有看头。

用现实“喂”出来的AI,能有多炸裂?

MogoMind大模型与其他AI大模型最大的一个不同在于,它是从实时物理世界里长出来的,别的AI大模型是“喂数据”,而MogoMind本质上是“喂现实”。

MogoMind的数据不是产生于某个特定的数据集,而是通过接入物理世界实时动态数据,形成全局感知、深度认知。

举个例子,在交通场景下,依靠摄像头、激光雷达等硬件,MogoMind能实现实时全局感知,对暴雨、大雾等恶劣天气以及道路施工、突发事件等特殊状况,MogoMind都能快速认知理解。

如果发生突发交通事件,MogoMind可在数秒内实现交通事件的超视距实时感知,迅速计算出受影响的路段范围,然后将预警信息推送至周边车辆和交通管理部门。

这个能力多炸裂?相当于给驾驶员“开天眼”。

记得去年7月份的山洪导致高速路桥垮塌的新闻吗?试想一下,如果能够部署能感知现实环境的大模型来预警,事故伤亡是不是可能就会减少甚至避免发生?

除了识别风险实时预警这样的“开天眼”的能力,在城市交通中,MogoMind也能感知全局,优化信号灯时长、遭遇交通事故时实时规划路径,提升整体的道路通行效率。

MogoMind与传统大模型的不同在于,它解决了大模型应用的两大核心问题:

第一:具有实时感知现实世界的能力。

从现实世界里学习,然后通过物理交互反馈到现实,是MogoMind最大的特点。

DeepSeek也好ChatGPT也罢,市面上的大部分自然语言模型,大都由互联网的数据集训练而来,所以,语言大模型参数的大小,一定程度上代表能力的大小。

互联网上的信息,其实是“二手信息”,是由人们创造,而且很可能会失真。比如AI“说谎”的问题。

今年3月份,哥伦比亚大学一份针对主流AI搜索工具的研究发现,在测试了8款AI搜索工具后,发现AI引用新闻方面平均出错比例达60%。

各种各样的AI大模型工具应用越来越多,今天的AI不缺创造世界的能力,而是缺“认知物理世界”的能力。

感知、理解真实世界,才是AI生产力的应有之义。

与其他自然语言模型不同,MogoMind大模型则是直接通过传感器获取,比如摄像头、毫米波雷达。

换言之,MogoMind是从现实的应用场景里面“长出来”的。

自此,AI大模型技术不再是“纸上谈兵”,而是在现实世界里,能给人类的混乱无序在物理意义上纠偏。

对此,我称之为:“物理原生模型”。

实际上,“物理原生模型”能够更多地帮助人们解决现实的问题,而“数据原生模型”适合作为信息生产力工具,后者多是面向C端的内容、创意工具产品。而前者更多地构成AI影响物理世界的基础设施。

之所以产出如此大的差异,原因之一可能在于,认识感知真实世界的AI模型,也同样拥有解决复杂的现实问题的能力。

就引出了第二个问题:“物理原生模型”有着全局视角下的AI推理、实时决策的能力。

实际上,多维的现实数据的感知、推理、分析、决策能力,使得AI大模型实现了从“单点智能”到“全局智能”,由此,AI大模型逐渐跨过“单细胞时代”。

过去的AI大模型的单点智能,就像是生命进化到“单细胞生物”阶段。只能对单一环境信息作出反应,执行单一场景的任务。

而有了实时物理感知能力和全局AI认知系统,就有了感知复杂环境,并做出应对的能力。从而过渡到“多细胞时代”。

我们还是以MogoMind大模型为例,MogoMind擅长处理视频、图像、文本、气象等多源数据进行深度融合分析,所以,能够实现对物理环境信息实时认知理解。

试想这样一个场景,暴雨天气城市积水路段,司机很难判断前方涉水深度是否能安全通过,而AI大模型可以结合实时天气数据以及历史事故数据预测潜在危险区域。从而有效避免人身、财产损失。

总体来看,与DeepSeek、ChatGPT们很不同,MogoMind基于现实数据的大模型能力很特别。

看得出来,蘑菇车联选择的这条路,很有前景也很有想象力。他们的目标其实是实现一件事儿:把AI的数字世界,与我们生活的物理世界融合起来。

MogoMind看似做的是大模型,但其实是在做一个连接AI与现实的操作系统。

这个“操作系统”能够用AI连接很多领域,比如自动驾驶、智慧交通、城市治理,还能与无人机、机器人产业深入融合。

目前蘑菇车联的两大业务板块是“AI网络”和“自动驾驶车辆”。

基于MogoMind大模型,蘑菇车联打造出一系列具备AI能力的产品,并在多个城市应用落地。比如,在进入嘉定区实时数字孪生路口,看到车辆实时信息,例如速度、经纬度、大小完全瞬时还原成数字孪生画面。

这些实时数据,可通过布设路侧智能终端或利用已有的摄像头等方式来获得,然后通过AI大模型解读分析后,再将有价值信息通过5G和C-V2X等通信技术,传输交管部门等应用侧,

对于交通领域参与量级最大的车辆终端,AI网络同样可以提供实时数据、实时预警和安全效率类帮助信息。

自动驾驶车辆业务方面,目前L2+级别的软件已经上车,RoboBus、RoboSweeper 和RoboTaxi也已经在北京、上海、天津等十余个城市落地运营。基于物理世界的认知模型,这些已经上路的车辆,进一步深入AI大模型与物理世界的深度交互。

看完蘑菇车联站台的内容,我不由得想到了由阿西莫夫小说改编的电影《I, Robot》。其中有这么一段的剧情:威尔·史密斯饰演的警探发生交通事故之后,AI迅速出警处理事故现场。

这部电影于2004年上映,不由感慨,短短二十年后,科幻电影里的场景,终于有可能变成了现实。

其实很多科幻电影中的概念,都正在成为现实。

比如,数字孪生。所谓数字孪生,简单地讲,就是用数据模拟现实世界,然后工程师、设计师可以在虚拟的世界里,低成本搞出来各种创新、创造。

现在各个行业比如汽车、飞机乃至火箭的设计、制造过程中都有数字孪生技术的身影。

数字孪生之外,其实还有一个更炸裂,更科幻的概念:实时孪生。

所谓实时孪生,就是AI能够认识、理解物理世界之后,通过数据模型的推演、决策,来实时解决现实里的问题。

听起来有些科幻,但这就是MogoMind大模型在做的事情。

从数字孪生到实时孪生,本质上是给AI一个自我生长的机会。从认识真实世界,到自我感知世界,AI便有了自我进化的机会。

由此,当AI生长出自我进化的能力,将来再与机器人产业结合,这便是未来二十年AI技术真正的想象力所在。

一场待来的物理AI应用革命

教会AI认知物理世界的能力,是AI技术应用的必然趋势。而MogoMind则踏出物理AI应用革命的第一步。

AI大模型应用最有前景的两个领域:机器人、自动驾驶。

本质上这两个领域的核心是一种技术体系:AI对于物理世界的影响和反馈。

马斯克的理想与最终目的是上火星,但还是创立特斯拉,搞自动驾驶,然后又搞机器人。本质上,这是从第一性原理的角度出发:一种技术要改变世界,必须是能反映到现实层面里的。

AI也是这个逻辑。

当前的AI技术,影响数字世界的比例太多,影响现实世界的比例还是太少了。

未来AI生产力要发展,需要一场“物理AI应用革命”。

MogoMind的影响在于,它构建了一套基础交通场景下的AI实时物理感知能力和全局认知系统,相当于“授AI以渔”。

这就好比老师教一个在幼儿园阶段的孩子,要想让孩子未来成为栋梁,就先得教他正确认识这个世界,然后对于物理世界要做出正确的反馈。

在“教AI认识世界”这件事儿上,MogoMind大模型踏出了关键的第一步。

还是拿出行领域来说,今天的AI大模型、自动驾驶技术、蓬勃发展,正如当年工业革命如火如荼,汽车工业快速增长一样。

当年的技术为什么能迅速改变世界?

其中一个原因可能在于蒸汽机、内燃机技术对物理世界的影响足够直接。

跨入信息时代,人们创新知识的速度变快了,但技术对于物理世界的影响也变得没那么直接了。

比如互联网技术,不是直接推动生产力,而是改变生产关系,进而推动社会发展。

AI时代与互联网时代不同,技术对物理世界的影响正在重回主流。你看,DeepSeek、ChatGPT之后最火的不还是机器人、自动驾驶等产业?

在出行这个领域里,这种更直接影响表现的会更明显。

比如,全局感知的实时交通数据流分析、决策,改变了出行效率,早上出门上班通勤,路上明显不堵车了。

再比如,AI多模态数据理解和复杂场景认知能进一步提升车辆自动驾驶能力,有了更强的辅助驾驶,开车这件事儿变得更加轻松、惬意了。

也许,我们数十年后再回看今天发布的MogoMind,这些感受可能会更深。

其实不只是出行,如果放在整个AI产业,AI大模型技术融合物理世界,也将成为一个重要的技术演化节点。

红杉AI峰会上,OpenAI CEO 奥特曼预测了未来三年AI改变我们的生活的三种方式。他认为,2025年,AI智能体真正开始走向实用;2026年,AI做出重大科学发现,推动下一波经济增长;2027年,AI将进入物理世界创造价值。

当然,AI真正改变物理世界创造价值,还需要一个演化阶段。

互联网技术被发明出来之后,微软做出了office,谷歌做出了Chrome,人们才能把PC这个工具用起来。后来,随着摩尔定律演化,PC信息处理的速度几何倍上升,股票交易速度更快了、信息传递的速度也更快了。

由此,互联网从技术生态,走向了经济生态。

AI改变世界也需要从技术生态,走向经济生态。这也是AI大模型技术融合物理世界的意义。

AI融入物理世界,是能产生很多经济效益的。比如,自动驾驶降低了出行成本和风险,那么周边旅游是不是就更火了?再比如,在某些特定行业,有机器人替代人们做危险系数高的工作,是不就能减少必要的安全风险成本?

从机器人到自动驾驶、从出行到千行百业,AI进一步融合物理世界,人们经济活动的增长范式,或将就此改变。

当AI融合物理世界足够深,机器人实体的成本进一步降低,电影里的全民Robot的时代,也许真就不远了。

阅读
分享