> 文章列表 > 利用神经科学来阻止幻象制动

利用神经科学来阻止幻象制动

利用神经科学来阻止幻象制动

最近,当客户开始抱怨他们的配备驾驶辅助技术的车辆出现“幻象制动”或在没有任何可见障碍物的情况下猛踩刹车时,密歇根州立大学的研究人员希望更多地了解这一现象——为什么它发生了以及如何阻止它。

“频繁的幻象制动事件会削弱人们对自动驾驶技术的信心,”工程学院助理教授严启本说。“如果乘客认为这项技术不可预测或不可靠,他们就不太可能接受它。”

自动驾驶汽车拥有一个由多个摄像头和雷达组成的视觉系统,该系统使用无线电波来收集汽车用来导航周围世界的信息。在之前的研究中,Yan 和他的团队能够展示这些视觉系统中的摄像头如何被黑客欺骗。

“我们将灯光投射到车辆的摄像头中,摄像头将其识别为虚假物体并踩下刹车;令人惊讶的是,假的东西可以凭空产生,”严说。“我们还能够让汽车前面的物体消失在摄像头中,这样车辆就看不到障碍物,并且车辆会撞到该物体。”

这项新的 NSF 拨款将由密歇根州立大学的 Sijia Liu 副教授和密歇根州立大学研究基金会教授刘晓明教授共同资助,并与弗吉尼亚理工大学合作,通过研究摄像头如何看到这些幻像攻击并确定保持这些视觉系统的方法来帮助研究人员扩展知识。更安全、更有弹性地抵御恶意攻击。

严和他的团队正在利用神经科学领域的一些想法来研究人眼和大脑如何被视错觉欺骗。

“我们借鉴了人类感知研究的一些想法来理解视觉系统背后的人工智能系统,”严说。“我们知道视觉系统可能会被欺骗,我们希望对人工智能模型进行编程,以更准确地观察环境并解释信息。”

感知分为三个层次。低级感知意味着视觉系统可以看到前方的场景,中级感知可以识别物体是什么并可以确定它有多远。在高级感知中,系统可以识别物体移动的速度以及该物体如何成为场景的一部分。

“我们试图了解感知从一个层面到下一个层面的演变,”严说。“接下来,我们希望开发一种确保固有安全的防御措施,并增强为其提供动力的人工智能模型。”

这项研究将有助于使自动驾驶汽车在未来变得更智能、更安全。

“解决幻象制动问题不仅仅是完善视觉技术,还关系到未来自动驾驶汽车的整体可行性、安全性和成功,”严说。