Part.1
AI智能座舱
在2026年CES上,AI 已不再作为智能座舱中的单一功能模块被呈现,而是逐步演变为组织整套人机交互逻辑的中枢性能力。这一变化体现在:AI 不仅决定车能做什么,更开始介入车如何理解人、如何选择交互时机、以及如何在多模态界面中进行调用。
1. AI 成为座舱的认知层
最显著的变化之一,是 AI 从传统语音助手的“命令—执行”逻辑,转向对复杂情境的理解与推理。这种能力不再局限于语言解析,而是融合视觉、环境与行为线索,形成更接近人类认知方式的判断。

参观者亲身体验Gentex公司推出的驾驶员车内监控系统装置。
图片来源:AP NEWS-美联社照片/John Locher摄

参观者在Smart Eye展台体验该公司用于座舱内感知人工智能技术的模拟系统。
图片来源:AP NEWS-美联社照片/John Locher摄

参观者体验Gentex公司推出的驾驶员车内监控系统展品。
图片来源:AP NEWS-美联社照片/John Locher摄
这一取向在 CES 2026 上被广泛讨论。媒体报道中提到,当乘客进入车内,系统不仅能识别身份、自动加载偏好设置,甚至能结合时间、情绪状态与使用历史,主动调整音乐、氛围与交互强度。这类体验的关键在于是否具备对情境的整体建模能力。
在技术展示层面,这种认知型 AI 往往依赖于视觉—语言模型(VLM)与大模型推理能力的结合,使座舱系统能够从零散信号中推断“正在发生什么”,并据此决定是否介入、如何介入。这标志着 HMI 从界面设计问题,开始演变为认知系统设计问题。
2. AI重塑HMI的交互范围
另一条清晰的路径,是AI不再仅作用于中控屏或语音入口,而是扩展到整个座舱空间的感知与表达层面。在这一取向下,HMI不再被视为若干屏幕的组合,而是一个可被AI动态重构的交互空间。
2.1 AI发展取向
-
显示形态的空间化,例如将前挡风玻璃、侧窗等纳入信息与体验输出。
-
感知维度的多模态化,通过视线、动作、姿态等信号理解乘员状态。
-
交互结果的情境化呈现,而非统一界面。
2.2 展会案例分析
LG在CES2026上展示了其AI Cabin Platform,这是一个基于本地高性能计算的 AI 驱动座舱体验架构,依托 Qualcomm Snapdragon® Cockpit™ Elite平台,运行生成式AI模型——包括视觉语言模型(VLM)、大型语言模型(LLMs)和图像生成模型。

LG公司的AI定义汽车解决方案荣获CES 2026“车载娱乐”品类最佳创新奖。该方案基于三大核心技术:
-
移动显示方案(Mobility Display Solution):将前挡风玻璃变为智能交互界面,在自动驾驶模式下可根据环境生成沉浸式视觉场景(如樱花飘落、森林隧道)。
-
汽车视觉方案(Automotive Vision Solution):通过实时追踪驾驶员状态(动作、视线、手势等),实现情境感知与个性化交互,例如视线触发广告信息推送。
-
车载娱乐方案(In-Vehicle Entertainment Solution):结合车外风景推荐个性化内容,支持实时视频共享、手语转文字等智能交互功能。
全系统整合显示技术、座舱感知与端侧AI,旨在提升安全性、沉浸感与个性化体验。
3. AI原生架构:HMI 的能力被下沉到系统层
相比直接可见的交互体验,CES 2026上另一个重要但相对“隐性”的趋势,是AI能力正在被系统性地下沉到计算架构与平台层,从而改变 HMI 的上限。大量展陈展示可扩展、高算力、量产就绪的 AI 计算平台,其目标并非直接定义交互细节,而是为未来多屏、多模态、多智能体的 HMI 提供稳定底座。
3.1 AI发展取向
-
以高性能计算为核心,支持多域整合与实时推理。
-
在端侧完成关键 AI 处理,降低延迟并提升隐私安全。
-
通过模块化、平台化设计,适配不同级别车型与市场。
3.2 展会案例分析

博世在CES 2026上展示其软硬一体化战略,核心包括:
-
顶层应用:AI智能助理、个性化娱乐、防晕车软件等。
-
中间层“大脑”与“神经”:高性能计算机、AI算法、车辆运动管理软件、车载操作系统。
-
底层“骨骼”与“感官”:线控执行器(新硬件)、新一代雷达和MEMS传感器(新硬件)、碳化硅功率半导体(新硬件)。

这是一套覆盖从底层硬件、系统软件到顶层应用与全生命周期管理的 AI 原生汽车技术体系。其智能座舱不再被视为独立的人机交互界面,而是嵌入在一个由高性能计算、多模态感知、线控执行与云端智能协同构成的整车系统之中。

Visteon在CES 2026上展示了其作为“汽车技术共创者”的全栈式、平台化战略,强调量产就绪和软硬一体,服务于从入门到豪华的所有细分市场。核心展示分为五大技术支柱:
-
AI计算平台(两大核心)
1. SmartCore™ HPC(高性能座舱域控制器):针对高端车型,提供顶尖算力(700 TOPS),支持多屏和ECU整合。
2. cognitoAI™ AI-ADAS计算模块:面向开发中项目,提供即插即用的边缘AI智能层,兼顾座舱智能与驾驶辅助,主打低延迟、高隐私安全、无需大改架构。
-
入门级座舱平台
旨在普及数字化体验,首次在7英寸以下小屏实现手机互联,满足新兴市场对基础互联功能的需求。
-
先进显示技术
展示从三联屏到新合作开发的下一代抬头显示/投影技术,拓展沉浸式可视化体验。
-
电气化平台
提供覆盖48V、400V、800V的完整解决方案,包括基于氮化镓的高效电源组件和集成AI电池预测的电驱动区域控制器。
-
互联与生态
展示自研5G模块和可扩展的车联网平台,并通过与芯片、AI厂商的开放合作生态,实现硬件、软件与用户体验的深度融合。
Visteon的价值在于构建可扩展的AI计算基础,从底层提升HMI的性能、数据融合与功能拓展能力,而不是单纯的应用层智能,帮助车企在智能化的浪潮中,以更低的风险和成本,实现用户体验的实质性跃迁。
这一定位使其在激烈的竞争中,可能成为车企(尤其是传统品牌和新兴市场车企)更务实、更可靠的“AI技术共创伙伴”。
Part.2
座舱交互方式
在 CES 2026 上,智能座舱的变化并不体现在某一种“全新的交互手段”上,而体现在交互方式整体逻辑的转向:座舱不再是用户主动操作的界面集合,而正在演进为一个基于情境理解、持续推理与协同响应的智能系统。
1. 情境驱动的主动交互
而 CES 2026 的一个重要变化在于,座舱开始基于环境与用户状态,在没有显性指令的情况下主动介入交互。
1.1 交互方式特征
-
以环境与驾驶状态为触发条件。
-
系统先理解情境,再决定是否介入。
-
强调时机与分寸,而非信息密度。
1.2 展会案例分析
LG Electronics在CES 2026的展示是理解这一趋势的一个典型案例。LG的展示由其最新的AI Cabin平台与 Affectionate Intelligence(情感智能) 构成,强调通过 AI 将整个座舱变成一个智能 “环境”,而非被动的信息界面。

LG在CES 2026展示的AI Cabin平台,是这一交互方式的典型体现。其座舱不再围绕单一界面展开,而被设计为一个可感知的环境系统。例如,当邻近车道出现潜在风险行为时,系统会基于环境感知主动提示驾驶者注意力转移风险。这类提示并非用户请求的结果,而是 AI 对当前情境的判断产物。
这种设计将 HMI 的角色从“执行接口”转变为“协作观察者”,座舱不再等待被操作,而是参与驾驶情境本身。
2. 情境生成式视觉交互
CES 2026中出现的另一种重要交互方式,是界面本身根据情境被动态生成。
2.1 交互方式特征
-
界面视觉与外部环境联动。
-
UI 不再只是信息容器,而是情境表达的一部分。
-
强调情绪、氛围与认知一致性。
2.2 展会案例分析

LG展示的In-Vehicle Personal Content(IPC)能力,使座舱界面可以结合外部环境进行动态生成。例如在雪夜行驶时,娱乐界面会自动匹配与雪景呼应的视觉主题,并给出与环境相符的内容建议。
这种交互方式突破了HUD或传统仪表盘的功能边界,使UI成为“环境感知的延伸”,而非驾驶信息的独立层。
3. 多模态感知交互
触控与语音长期以来是座舱交互的主流方式,CES 2026 在此基础上发展出一个趋势:座舱开始理解通过更广泛的感官通道进行交互理解。
3.1 交互方式特征
-
融合视觉、语音、行为与注意力状态。
-
识别用户是否疲劳、分心或犹豫。
-
交互不一定通过“操作”,而通过“被感知”发生。
3.2 展会案例分析

其Automotive Vision Solution能够识别眼动、手势与注意力状态。这意味着交互触发条件不再局限于点击或语音唤醒,而是扩展到用户行为本身。
从 HMI 角度看,这标志着交互从“显性输入”向“隐性交互”转变,系统通过感知而非询问来判断用户需求。
4. 跨域协同的意图级交互
在CES 2026,多家车企展示了一个共同方向:交互不再只作用于座舱,而是可以跨越驾驶、车控与环境系统。
4.1 交互方式特征
-
一次交互可同时触发多个系统。
-
交互目标不再是执行操作,而是完成意图。
-
强调系统间的数据与模型共享。
4.2 展会案例分析

吉利展示的 Full-Domain AI 2.0 架构,将原本分散的语音、驾驶与交互能力统一到 WAM(World Action Model)中。在这种结构下,一条语音或行为信号可以同时影响路径规划、驾驶策略与座舱提示方式。

其 G-ASD 智能驾驶系统进一步强化了这种联动:座舱不只是显示驾驶状态,而是基于车辆动态表现自动调整信息呈现逻辑,从而降低驾驶者的认知负担。
5. 情感导向交互体验
CES 2026 上,部分厂商开始明确将座舱定义为娱乐与情感价值空间,交互目标也随之发生变化。
5.1 交互方式特征
-
交互重心转向情感、娱乐与创造。
-
强调陪伴感与持续关系。
5.2 展会案例分析

左:AFEELA 1 / 右:AFEELA 原型 2026
SHM(索尼本田移动)的交互逻辑建立在一个前提之上:只有当驾驶负担被自动化系统接管,座舱才能真正成为“娱乐与创意空间”。AFEELA 的个人助理基于 Azure OpenAI 服务,通过高度个性化的对话建立长期情感连接,其交互不再围绕“控制车辆”,而是围绕“陪伴用户度过车内时间”。

川西泉,代表董事、总裁兼首席运营官
这种交互方式本质上将 HMI 从“人机接口”升级为“情感关系接口”。

水野康秀,代表董事、董事长兼首席执行官
于 CES 2026 首发,AFEELA Prototype 2026基于AFEELA 1的核心理念,同时提供更大的空间灵活性和可及性,旨在为更广泛的用户带来乐趣和价值。SHM计划基于该原型机开发量产机,最早于2028年在美国市场上市。
Part.3
智能座舱创新功能
在2026 CES(国际消费电子展)的舞台上,智能座舱也发展为汽车体验创新的核心载体之一。从 AI 助手到跨域智能体、从多屏显示到语境理解,这些创新不仅影响驾驶便利性,还正在重新定义座舱作为“人机协作空间”的角色。
1. 自然语言理解与连续对话能力
自然语言交互是几乎所有参展车企共同强调的能力,但 2026 年 CES 的变化在于:语音不再被视为一个输入通道,而是成为座舱认知能力的外显形式。
1.1 功能特征
-
支持非结构化、口语化表达。
-
能够在多轮对话中保持上下文。
-
可将模糊意图转化为可执行任务链。
1.2 展会案例分析

宝马在CES 2026展示的BMW Intelligent Personal Assistant引入了Amazon Alexa+的生成式能力,使车内语音从“单句识别”升级为持续对话系统。用户无需精确描述功能名称,而是可以以目标导向方式表达需求,如“我想放松一下”“找个安静的路线”,系统再将其拆解为导航、音乐、驾驶模式等多个子任务。

这标志着语音交互从 HMI 层面的“可用性设计”,上移至认知层面的意图理解。

长城展示的ASL 2.0智能体并未将语音视为孤立能力,而是将语言理解与视觉、动作模型(VLA)融合。当驾驶者给出如“前方修路怎么走”这样的表达时,系统并非简单调用导航规则,而是结合场景感知进行推理。这种语音交互更接近人与人之间的“协商式沟通”。
2. 情境感知与主动反馈
CES 2026上一个非常明显的趋势是:智能座舱开始在“用户未发出明确指令时”主动介入体验。
2.1 功能特征
-
基于环境、驾驶状态和用户行为进行推理。
-
主动给出建议、预警或服务切换。
-
减少显性交互频次,降低认知负担。
2.2 展会案例分析
长城汽车基于 VLA 与世界模型的系统,可以从当前所识别场景进行推理和潜在风险建议,并提前调整驾驶策略与提示方式。对座舱而言,这意味着提示不再是简单的风险提示,而是基于因果推理的渐进式交互。

博世展示的 AI 座舱强调“预测式交互”:系统通过驾驶习惯、路线与环境数据,提前准备信息与功能。例如在特定时间段自动调整座舱内容结构,而非等待用户操作。
3. 多角色、多屏协同的沉浸式信息呈现
在CES 2026,多屏不再只是视觉堆叠,而是开始体现角色与场景区分。
3.1 功能特征
-
驾驶位 / 副驾 / 后排信息分工明确。
-
同一时间多任务并行但互不干扰。
-
信息密度与重要性动态调整。
3.2 展会案例分析
奔驰的第四代MBUX与Hyperscreen展示了成熟的多角色信息分发逻辑:驾驶相关信息高度聚焦,娱乐与沉浸内容向副驾和后排延展。结合Dolby Atmos、IMAX Enhanced内容,座舱被塑造成“移动沉浸空间”。
MBUX超联屏,在数款梅赛德斯-奔驰车型上搭载,将三块独立的显示屏融合于一块大型曲面玻璃面板之下。这块屏幕横贯整个车辆仪表板,作为交互界面,让车辆控制、信息娱乐、导航等众多功能触手可及。

MBUX超联屏

智能能量回收,优化续航里程。

梅赛德斯-奔驰通过“ENERGIZING COMFORT”功能助您放松——这是一项创新系统,即使长途旅行也能让您保持活力。

乘客可完全使用MBUX系统、舒适及娱乐功能。

“零层级”界面同步显示导航地图与常用应用程序,并提供个性化智能建议。
Part.4
设计风格趋势
在 CES 2026 这样全球电子科技与出行创新的交汇平台上,智能座舱的设计风格不再局限于单纯的“内饰美学”或“屏幕堆叠”,而是呈现出多维度融合的新趋势:它涉及信息呈现逻辑、视觉语言体系、空间感知体验乃至未来出行价值观的表达。
通过不断打破传统汽车座舱的边界,设计风格正成为引导用户感知智能化体验的核心触点。
1. 情境化信息呈现
1.1 趋势内涵
在智能座舱设计中,信息显示不再是孤立的面板堆叠,而是与外部环境、驾驶/乘坐场景中的语境联动。这种设计风格强调界面与环境之间的“语义对话”,即界面在视觉呈现和信息组织上,能够回应当前的外部世界与用户当前任务。
1.2 展会案例分析

LG的AI Cabin平台可以在视觉内容上呈现与当前环境相呼应的场景元素,如自动生成符合外部天气或地理特征的视觉主题背景,甚至将风景特征变为界面内容的一部分,从而让信息显示融入驾驶情境,而非单一抽象界面。这样的呈现既提升了沉浸感,也降低了用户的认知切换成本。
这种设计风格趋势反映了一个核心理念:座舱 UI 不只是信息容器,而是情境的一种延伸表达。界面元素不再局限于实体屏幕的卡片式设计,而是与环境风格相互映射,使用户在视觉上获得连贯、自然的体验。

Super EAI F.A.C.E.,让FX Super One这个汽车具身智能生命体拥有表达自我和与世界交流的能力,它也可以成为车主的汽车具身智能Avatar的Face,延展你与世界的沟通,让你成为世界的焦点。
法拉第未来在 CES 2026 期间亮相其即将量产的 FX Super One,该车型强调“空间+AI+舒适”,并配备 EAI 智能座舱,这意味着座舱设计要在视觉呈现上呼应车辆的动态行为与环境信息。

搭载EAI OS,秒级启动,支持语音、视线、手势、触控等多模态交互方式,配合主动式AI感知。
该车型特别提到具备“EAI OS、5G Super AP、AI 智能座舱”等综合体验要素,这反映了一种将功能与视觉界面内容情境化组合呈现的设计取向,使用户在不同外部条件下得到更有意义的界面反馈与辅助信息。
2. 多层次角色设计
2.1 趋势内涵
随着乘坐场景从驾驶为中心向多角色参与演进,座舱设计风格也不再将所有信息都堆叠在中央屏,而是根据角色(驾驶、乘客、后排乘员)动态调整内容与视觉布局,强调空间界面的层次互动。
2.2 展会案例分析

Uber在CES 2026展示其与Lucid、Nuro合作打造的生产意向Robotaxi,车顶集成的光环式LED灯组可帮助乘客轻松识别目标车辆、显示乘客姓名缩写,并提供从上车到下车全程清晰的状态更新。
其内舱设计不仅为无人驾驶车辆提供了用于乘客交互的界面,还允许乘客个性化定制其自动驾驶行程——从座椅加热和空调控制到音乐选择等,并可实时显示车辆感知与路径信息。这样的内舱界面并非单一驾驶者视觉中心,而是为乘客提供个性化信息区域,体现出不同角色导向的设计风格趋势。
Uber 的这一设计案例强调了在人机界面设计中加入“角色感知逻辑”,即自动识别当前哪个角色需要什么信息,并据此重构可视与交互布局。这是一种超越传统单驾 UI 的空间界面设计趋势,有助于提升多乘员体验一致性。
3. 沉浸式的UX风格
3.1 趋势内涵
沉浸式交互在智能座舱中不仅指大尺寸屏幕或 HUD,而是通过视觉、声音、交互时机和界面情绪设计的整合来创建一种沉浸体验,使驾乘者能在空间与任务之间无缝过渡。
3.2 展会案例分析

MBUX+Hyperscreen在CES 2026的发布中依然是一个明显的沉浸式UX风格典范。
该系统以一整块连续曲面屏结合空间音频,如 Dolby Atmos 支持,来塑造视觉与听觉上的沉浸感,在SUV内饰中形成一种围合感极强的体验风格。此设计不仅是单个大屏的叠加,而是在视觉语言与交互节奏上形成更连贯、更情境化的“沉浸性界面体验”。

这种沉浸式UX风格通过视觉连续性、信息层次优化和声音空间感提升,使用户在进入座舱后能更快置入情境,从而减少认知切换成本,这也反映出未来HMI趋势的方向。
4. 功能与空间的融合美学
4.1 趋势内涵
当硬件、座椅、显示屏与交互入口共同构成座舱空间时,整体设计不再是“面板拼贴”,而是功能与空间美学的统一——让交互元素既具备功能表达,又在空间表达语言上一致。
4.2 展会案例分析

SHM 的Afeela 1 以“移动娱乐空间”作为体验核心,这不仅涉及屏幕和语音交互,还融入空间布局、座舱氛围与用户心理感受。其交互风格尝试融合“控制界面”与“娱乐空间”之间的界限,让座舱成为更具生活幸福感的处所,而非单一驾控功能空间设计。
文章来源 facecar

