Powered by the Sels Exhibition Co., Ltd. (CES Asia)®

Skip to content

最新资讯

“可解释的AI”:CES Asia 2026破解自动驾驶与空中交通决策的伦理黑箱

当一辆自动驾驶汽车在毫秒间决定向左避让而非紧急刹车,当一架eVTOL(电动垂直起降飞行器)在楼宇间选择绕行而非直穿——这些决策背后的逻辑,究竟是基于何种权衡?如果事故发生,我们能否追问AI“为什么”?


长期以来,驱动自动驾驶与空中交通的核心算法,如同一只密不透风的“黑箱”。它给出结果,却从不解释过程。在2026年6月的CES Asia展会上,这只黑箱将被首次系统性地打开。一场以“可解释性”为核心的技术革命,正将信任的基石重新浇筑进智能出行的底层架构。


一、“黑箱”困境:当算法决策触及安全底线

现代自动驾驶系统高度依赖深度学习模型。这些模型通过分析海量数据实现感知与决策,但其内部运作机制却极其复杂,难以被人类直观理解。在99%的常规场景中,这种“黑箱”或许无碍。然而,当那1%的“长尾场景”——突然闯入路面的障碍物、极端天气下的传感器干扰、复杂空域的突发冲突——出现时,系统如何决策,以及人类能否理解并干预这一决策,直接关系到生命安全的底线。


研究显示,人们对一个系统的接受意愿,与其对系统运作方式的理解程度呈正相关。当决策过程不透明时,系统信任度会显著降低。对于承载公共安全责任的自动驾驶与低空交通而言,这种信任缺失,是从试点迈向规模化运营最根本的障碍。监管者无法审计无法解释的系统,公众无法信赖无法沟通的机器。


二、技术破局:从“黑箱”到“玻璃箱”的范式跃迁

CES Asia 2026的舞台上,一场围绕“可解释AI”的技术变革将全景呈现。其核心路径并非简单的“打开黑箱”,而是构建一套让AI能够“自证清白”的全新架构。


1. 推理型AI:不仅“做什么”,更要“为什么”

在CES 2026上,英伟达发布了名为Alpamayo的开放模型系列,其核心设计理念正是针对“可解释性”的突破。与传统的感知-规划分离架构不同,Alpamayo能够生成“推理轨迹”(reasoning traces),清晰展示车辆在面对罕见场景时,如何一步步推导出最终决策。这意味着,AI不仅能告诉人类“我转向了”,还能解释“我之所以转向,是因为检测到右前方有障碍物,且左侧车道有足够的安全空间”。这种能力,正是构建信任、实现安全规模化部署的基石。


2. 神经符号AI:融合规则与学习的“透明大脑”

另一条备受瞩目的技术路径是神经符号AI。它将深度学习的模式识别能力与传统符号AI的规则推理能力相结合,让AI的决策过程变得可追溯、可验证。例如,当一架eVTOL规划航线时,神经符号AI不仅能输出路径,还能附带说明:“选择此航线是为了满足民航局规定的500英尺安全间隔要求,同时顺风飞行以实现能耗最优”。这种混合架构被预测为2026年先进空中交通领域的关键技术突破,能够有效避免AI幻觉,提供真正可靠的自主性。


3. 数字评论驾驶:让AI像人一样“边开边解释”

受人类驾驶培训中“边开边说”方法的启发,英国萨里大学与交通部合作,正在开发一套名为“数字评论驾驶”的框架。该框架旨在让自动驾驶系统生成结构化的、机器可读的感知、推理与意图记录。这套记录不仅能用于实时安全评估,更能成为监管合规审查的核心依据。当系统做出高风险决策时,其背后的逻辑——哪些约束条件最重要、哪些选项被放弃及其原因——都将被清晰呈现,供工程师、监管者和公众审视。


三、监管觉醒:可解释性正在成为法律强制要求

技术的演进与监管的诉求正形成历史性的共振。在CES Asia 2026的“全球低空经济政策与治理峰会”上,一个核心议题将是:如何将“可解释性”转化为可操作的法规标准。


欧盟EASA:从路线图到规则制定

欧洲航空安全局(EASA)在其AI路线图2.0中,已将“可解释、合乎伦理、稳健可靠”确立为核心原则。该机构计划在2026年发布第二份拟议规则制定通知,重点聚焦强化学习与生成式AI的监管问题。这意味着,任何希望进入欧洲市场的自动驾驶或低空飞行产品,其AI系统的决策逻辑必须具备可追溯性和可解释性。


美国FAA:黑盒替代方案加速推进

美国联邦航空管理局(FAA)在其路线图中同样倡导探索“黑盒”的替代方案,要求系统具备可审计性,这为神经符号AI等可解释技术进入适航认证流程铺平了道路。随着Joby等企业的eVTOL计划在2026年投入商业客运,满足监管机构对可解释性的要求,已成为获取运营许可的必要条件。


学术共识:可解释性是下一代智能系统的核心

2026年召开的多个国际学术会议——从深圳的智能社会与先进算法会议,到里昂的智能系统方法论研讨会——都将“可解释AI”、“负责任的AI”、“算法公平性”列为核心议题。这标志着,可解释性已从边缘的技术探索,上升为整个智能科学界共同攻关的主流方向。


四、事故与问责:当“黑箱”不再被容忍

推动可解释性浪潮的,还有现实世界中不断积累的教训。研究显示,在物流、运输、医疗等关键领域,优化算法每天都在做出“谁被优先、谁被延迟、谁被排除”的决策。这些决策在数学上可能是最优的,但在实践中却是不透明的。当一架配送无人机因“成本最优”而延迟了紧急医疗物资的配送,当一辆自动驾驶汽车因无法解释的误判导致事故,缺乏透明度的系统将无法为自己辩护,其背后的企业也将陷入问责的泥潭。


英国萨里大学的一项研究指出,社会对优化算法的“盲目信任”正带来严重的安全与问责风险。研究提出的解决方案是:在决策付诸实践之前,让人类有机会挑战AI的决策。这需要的不是替换现有系统,而是在其基础上增加一层“解释层”,用机器学习分析决策结构,用可解释AI揭示选择背后的权衡。


五、CES Asia 2026:定义可信智能出行的新基线

当自动驾驶与低空飞行器开始承载生命,社会对它们的期待将超越“好用”,上升为“可信”。而信任的前提,是理解。


CES Asia 2026将成为这场从“黑箱”到“玻璃箱”范式跃迁的见证者与推动者。在“可解释AI”主题展区,参观者将看到:


搭载推理轨迹生成模块的新一代自动驾驶解决方案


融合神经符号逻辑的eVTOL空域决策演示系统


可供监管机构审计的“数字评论驾驶”记录平台


从芯片层开始支持可解释计算的边缘AI硬件


在“AI伦理与治理峰会”上,来自EASA、FAA、中国民航局的政策制定者,与英伟达、华为、Joby等行业巨头,以及牛津、清华、萨里等顶尖学府的学者,将共同探讨:如何将“可解释性”从技术选项,升格为行业准入的强制标准?如何建立全球互认的AI决策审计框架?


结语


未来的天空与道路,不应由无法解释的黑箱主宰。CES Asia 2026将向世界宣告:智能出行的下一站,不仅是更快的速度、更高的效率,更是更深的信任、更透明的决策。当每一架eVTOL、每一辆自动驾驶汽车都能清晰回答“为什么”时,人类才能真正安心地将自己交付于它们手中。


2026年6月,让我们相约北京。在这里,您将见证的不仅是技术的突破,更是一个时代的转折——当AI学会解释自己,信任,便有了坚不可摧的基石。