
这不仅仅是“自动驾驶”升级那么简单
最近,小鹏汽车的何小鹏又放了个大消息。
他说,小鹏的第二代VLA技术,也就是一个能理解并操作物理世界的大模型,将在2026年第一季度全面推送给Ultra车型用户。
你可能会觉得,这不就是又一个自动驾驶的升级嘛?
其实,这次的意义远不止于此。
它预示着,AI正在从屏幕里的虚拟世界,真正地走进我们生活的物理空间。
这背后,藏着巨大的行业变革,也为我们这些创业者和中小企业主带来了新的思考。
更关键的是,连汽车巨头大众都选择成为它的首个外部客户。
这足以说明,事情没那么简单。
这个信号,值得我们每一个人认真琢磨。
因为它可能改变的,不仅仅是汽车行业。
小鹏这次到底发布了什么?
我们先来快速看下这次发布的核心信息。
何小鹏在小鹏X9的发布会上,明确了第二代VLA(视觉语言动作模型)的落地时间表。
简单说,VLA就是一个能看懂世界、并直接做出动作的“AI大脑”。
这个“大脑”不仅用在汽车上,未来还能驱动机器人、飞行汽车等各种设备。
它的全称是小鹏第二代VLA,一个可量产的物理世界大模型。
核心特点是,它创新性地尝试去掉“语言转译”环节。
传统模型是“看到-描述-行动”,而小鹏想做到“看到-直接行动”。
这意味着更高的效率和更少的错误,AI的反应会更像人的直觉。
为了训练它,小鹏用了接近1亿个真实驾驶视频片段。
这个数据量,相当于一个老司机开6.5万年车遇到的所有极限场景。
更重要的是,小鹏宣布将这个技术向全球商业伙伴开源。
第一个上车的,就是德国大众。同时,大众还采购了小鹏自研的图灵AI芯片。
这说明小鹏的技术不仅自己用,还要打造成一个开放平台,赋能更多企业。
这就是**具身智能**的典型应用,让AI拥有身体,在现实世界里干活。
从“功能”到“大脑”,游戏规则变了
这件事对行业最大的冲击,是改变了智能汽车的底层逻辑。
过去的逻辑是什么?
车是主体,智能驾驶是一个个“功能模块”的叠加。
比如自适应巡航、自动泊车、车道保持,都是独立的软件功能。
车企就像在组装电脑,从不同供应商那里买来硬件和软件,再集成到车里。
这种方式的缺点是,体验是割裂的,而且上限很低。
而现在的新逻辑是什么?
AI大模型是“大脑”,是核心。汽车、机器人,都只是这个“大脑”的“身体”。
小鹏做的第二代VLA,就是这样一个统一的“大脑”。
它可以用一套模型,通过不同的训练数据,去适配不同的任务和设备。
这意味着,未来智能设备的迭代速度会指数级提升。
就像智能手机有了安卓和iOS系统后,各种APP才爆发出来一样。
当有了统一的“物理世界操作系统”后,各种硬件的智能化应用也会迎来井喷。
从依赖高精地图和激光雷达,到纯视觉方案就能搞定全球路况。
这背后是成本的降低和适用范围的极大扩展,是真正的**AI商业化**的开始。
写在最后:给创业者的三个机会点
黑喵观点:小鹏开源VLA,对创业者和中小企业主来说,真正的信号不是造车,而是AI进入物理世界的门槛正在被拉低。
第一个机会,是“场景应用”的开发。
当底层的“AI大脑”变得开源和普及时,核心竞争力就不再是模型本身,而是你如何将它用到一个具体的垂直场景里解决问题。
比如,能不能开发一个针对特定工业园区物流的无人配送方案?或者一个用于农业果园自动巡检和采摘的机器人?
你不需要从零研发AI,而是基于这样的平台,做“最后一公里”的场景化落地。
第二个机会,是“人机协同”的工具链。
未来,大量的物理工作会由AI驱动的机器人完成,但这不意味着人就没事干了。
人需要成为这些机器人的管理者、调度者和培训师。
围绕这个新的人机关系,会出现大量工具和服务的需求。
比如,如何低代码地给机器人下达复杂任务?如何远程监控和维护一个机器人机队?这些都是蓝海。
第三个机会,是“数据服务”的价值。
训练物理世界大模型,需要海量的真实世界数据。
小鹏能做成,是因为它有大量的车在路上跑,收集数据。
未来,在更细分的领域,比如建筑工地、高危巡检、医疗护理等,谁能合法合规地采集和标注高质量的场景数据,谁就能建立起自己的壁垒。
本质上,技术开源是一个催化剂,它会加速淘汰那些只会做“功能”的公司,但会给那些真正懂“场景”和“应用”的创业者,打开一扇全新的大门。

