特斯拉FSD/Autopilot在和国产智驾方案赛跑的同时,一种新的卷法出现了。
爆料人@greentheonly近期注意到,特斯拉在2025.20软件版本更新当中,引进了有关于虚幻引擎的二进制文件。根据这位博主的说法,目前基于虚幻引擎的可视化系统已经能够在搭载AMD芯片的Model X和Model S上激活,3D模型支持缩放、滑动等交互,作用就和国产自主品牌的智能座舱的3D模型桌面一样,可以直接交互,也可以更直观看到车身状态。
而@TeslaNewswire透露,在未来,特斯拉还会将这套虚幻引擎引入车机系统,用来增强AutoPilot或FSD的视觉效果。配合车辆端的SR画面(车辆收集周围信息后呈现的实时画面),会呈现更精细、逼真的环境画面。
(图片来自X用户@IanSamyth)
这位博主还专门做了一系列的前瞻图片,看起来就跟公路赛车游戏没什么两样。
至于特斯拉是不是会真的用虚幻引擎做出比肩端游画面的车端SR预览,目前并不好说,甚至很多人对于车端SR的看法都是“可有可无”。车企用虚幻引擎整花活也不是一天两天的事情了,到目前为止,除了做出一套比较精致高级的3D模型桌面和复杂的交互视效之外,实用性的提升可谓聊胜于无。
不过,既然是特斯拉入局,电车通还是期待这家车企能用虚幻引擎做出一些好的特性,给行业一点启发的。
从“加分项”到“必须项”,3D元素已成车机刚需
真要论个先来后到,特斯拉并不是第一家往座舱系统里塞虚幻引擎的。甚至可以说,基于物理引擎的3D HMI,在特斯拉之前就已经成为一种汽车智能座舱的主流。
2021年11月,华人运通(高合汽车)就宣布了和Epic Games达成公司层级战略合作,这两家公司的合作成果,就放在了2022年发布的高合HiPhi Z上,借助UNREAL虚幻引擎成熟的可视化材质系统和完善的工具链,打造了国内首个“真·3D数字座舱”。
当然,高合汽车并不是唯一看上虚幻引擎的汽车品牌。
全球首个基于UNREAL虚幻引擎打造的座舱系统出自莲花跑车(原路特斯)之手,名叫LOTUS HYPER OS,由ELECTRE首发。不光是精致的3D建模场景,莲花跑车整套系统UI都基于虚幻引擎打造,将高级又逼真的PBR材质系统和HDR环境光照明技术,应用到绝大部分的交互界面里。你以为这是厂商的新车CG动画,实际上就是在座舱系统里实时渲染出来的3D场景。
(图片来自莲花跑车)
小到像小鹏语音助手的动画形象,也是通过3D模型来呈现的。
而为了支撑这套座舱系统的性能开销,莲花跑车在ELECTRE里装了两颗高通骁龙8155,这配置在当时堪称豪华。吉利银河E8以及名爵Cyberster,都不约而同地结合虚幻引擎做到了3D实时渲染,用高合的话来说就是:“通过基于物理的实时渲染技术,模拟人类对于认知到重建的过程,构建了一个可自由交互的3D空间。”
另奔驰的MB.OS也借助Unity 3D引擎来了一波视觉升级,地图界面放大之后,就可以看到一栋栋精细的大楼建模,楼面还带有高级的金属反光。
根据奔驰官方的说法,设计师利用一款名为“Unity Industrial Collection”的复杂3D视觉软件包,对数字座舱内的仪表盘、信息娱乐、导航等元素进行3D化。另外,小米、蔚来全系等智能电动车厂,都通过Unity 3D引擎建立了自己的3D桌面体系。
为什么车企都爱用3D物理引擎做车机视觉?电车通认为有两个原因:
第一,3D物理引擎的立体场景交互更新颖,强调科技感和更高级的图形渲染能力,催生出一套脱离2D层面的交互体系。同样都是打开车后的电动尾门,2D菜单交互相当于“功能交互”,而3D桌面则能够变成创新的“空间交互”或场景体验。
(图片来自小鹏汽车)
对于SR界面、导航界面等,3D交互相比传统的2D界面,在“空间感”上有更直观的体现,比如摄像头、激光雷达实时传回的数据,可以通过3D界面展示。
3D智能座舱已从“加分项”变为“必选项”,毕马威预测,2026年中国智能座舱市场规模将达2127亿元,渗透率超82%,车企通过3D引擎技术打造差异化的体验。
第二,车企与物理引擎供应商合作,可以提高3D智能座舱的开发效率。以虚幻引擎为例,Epic Games与高通联合虚化引擎在骁龙平台的性能;Unity与芯驰、芯擎等本土芯片厂商联合开发车规级解决方案,提升了硬件利用效率,加速了技术落地。
总体来说,车企用3D物理引擎,主要还是用于座舱娱乐跟交互体验那一块,特斯拉引入虚幻引擎或许有同样的目的,但方向上略有不同。
车端SR媲美3A大作?很酷但可能没啥用
在电动智能车厂里,算是对3D视觉不太上心的一家,3D元素在车机大屏当中占比不多。而根据上面两位博主的爆料,特斯拉更倾向用物理引擎改善ADAS下的SR画面,而非交互界面的升级,从他们提供的图片素材当中就能得知。
说实话,电车通认为3D视觉对车机交互效率的提升聊胜于无,就拿3D场景桌面来说,车模和场景占据了车机大部分显示面积,实际使用并没有变得更便利,充其量就是人和机器之间的交互更有“亲和感”。当然了,这只是电车通的主观看法,车企也提供了另外的桌面模式。
(图片来自小鹏汽车)
回到ADAS的SR界面,特斯拉引入虚幻引擎之后,会将SR界面做成博主爆料那样的效果吗?电车通的看法是否认的,因为从工具属性出发,车端ADAS SR界面暂时不需要如此复杂的场景渲染,至少现阶段很难实现理想的效果。
先说车端SR界面,行业的普遍做法都是用单色3D场景来显示,车辆摄像头、激光雷达接收到的环境信息,通过AI对周边物品进行识别(小车、货车、行人、电动车等),并通过3D场景展现出来。为什么要用单色,电车通认为有两个原因:
第一,SR界面是汽车对周边环境识别之后的结果呈现,它存在的目的是方便驾驶员了解到周边的环境,以及车辆识别到了什么。单色场景的好处就是去掉了各种颜色干扰,仅留下最基本的建模,信息传递效率更高。
(图片来自电车通摄制)
用一些传统车主的话来说就是,花里胡哨的屏幕元素,还有可能影响到他们的正常驾驶。
第二,如此复杂的3D场景还原,肯定少不了庞大的性能开销。前面说过,为了支撑LOTUS HYPER OS的流畅运行,莲花汽车在ELECTRE上搭载了两颗高通骁龙8155,越是逼真的场景模拟,对座舱芯片需求越大,能够理解特斯拉率先在Model S、Model X等配备AMD芯片的车型上预埋虚幻引擎。
还有一个问题是,受限于激光雷达、摄像头以及处理性能等因素,感知系统实时反馈回来的环境信息容易出现偏差。
最简单的例子就是,开着ADAS的时候,你会看到周边的车辆、行人等元素都有一定程度的抽搐,有的时候还会凭空出现一些现实世界没有的元素,这就是实时感知和实时渲染目前存在限制。这个问题,在纯视觉感知的特斯拉车型身上,会更加明显。
想象一下,如果你在一个特别逼真的车端SR界面当中,看着身边的车辆和行人在抽搐,或者是本来没有人的地方,系统却告诉你有人,听起来多少都有些不寒而栗。即便座舱芯片可以轻松支撑3D场景实时渲染,但感知端的信息,还需要算法进一步优化和限制,来提高显示端的精度。
再说了,驾驶员可以透过玻璃看到前方的真实环境,一般用不到如此逼真的3D场景还原,目前的单色3D场景,已经是现阶段车端SR界面比较理想的形态了。
写在最后
特斯拉引入虚幻引擎的目的不一定是为了逼真的ADAS SR界面,在电车通看来,高级的PBR材质和实时模糊界面渲染,也需要借助物理引擎。
这些也是基于个人主观的猜测,说不定特斯拉真的有能力解决感知和车端SR之间的矛盾,模糊现实与数字世界的边界,还能将体验做得比较好,给行业形成示范性作用。
只是从用户层面出发,逼真的3D场景渲染带来的实用价值还比较有限,或者说这种行业还没发掘出一种刚需场景,行驶过程中,车辆需要精确感知并判断环境,但用户不需要通过车机大屏去了解,3D元素更多是一种秀肌肉带来的情绪价值。
(图片来自特斯拉)
这并不意味着3D物理引擎只是一种伪需求,它的确在智能汽车当中充当着很重要的角色,Unity 3D、虚幻引擎通过和芯片供应商合作,深度介入车载芯片的图形优化,形成了智能汽车时代的生态主导,变成车企智能化转型的核心力量。即便是对3D视觉不太上心的特斯拉,对3D车模、3D智驾场景都有一定的涉足。
而在更远的未来,车企还会通过3D物理引擎和游戏引擎构建的自动驾驶仿真平台里,实现真实驾驶场景的快速训练和模拟,电车通也曾对此进行过解读和报道。
物理引擎在智能汽车应该怎么发展?或许就像智能手机操作系统强调人机交互那样,物理引擎能够更好地模拟出物件的运动轨迹,方便车企做出更有“呼吸感”的菜单交互效果,实用性应该会比媲美3A大作的车端SR更高。
但物理引擎在车企手中,怎么做,还得看车企怎么想。