启用AI监控公交驾驶员的背后

2019-04-08 07:49 北京青年报

打印 放大 缩小

最近,中国一家企业开发了一种人脸识别系统,是一种实时的人工智能(AI)监控技术,可用于监测公交司机是否疲劳驾驶,以便及时避免事故的发生。为了保证公交安全,过去普遍的做法是公交公司利用人工进行随机抽查,监控驾驶员的行为。

人工抽查的效率当然远不如实时AI监控。现在上海一家公交车公司启用AI监控后,能够随时发现异常情况,一旦发现驾驶员行为反常,如频频闭眼、开小差、昏昏欲睡或者出现不合时宜的举止行为,该公司会在公交车到站后,派遣其他驾驶员替换行为反常的驾驶员,从而将事故从萌芽就掐掉。据称,中国各地的公交公司将要全面安装此类驾驶员监控系统。

当AI全面进入人类生活时,如何使用AI,使用AI的伦理、管理和法律规范就应当有明确的认定、界线和规范。正如人的言论和行为会受到伦理和法律无处不在的规范一样,AI的使用同样如此。可以预见,当AI监控无处不在之时,人的生而不自由就会体现得更为充分,这是人类用自己的发明和创造来时时刻刻地监控自己。

这样的转换实际上进一步证实了人们的担忧,如果不对技术加以规范的话,受到伤害的将是所有人。因为,AI不只是监控驾驶员,而有可能在监控所有人,所有人只要进入公共领域,都可能会受到360度全方位全时段的监控。那么,利用AI监控的问题也就随之而出,哪些监控是合(伦)理合法的,是可以接受的,哪些是不合(伦)理不合法的,而且,这还只是AI技术全面进入人们生活的一个局部。

从人的本能来看,AI监控驾驶员似乎是合乎伦理的,当然也为未来的合法打下基础(所有监控都应当立法和有法可依)。AI监控驾驶员的目的是为了安全,是为了避免疲劳驾驶,因为全球平均每年约130万人死于交通事故,其中最大的原因是疲劳驾驶。中国疲劳驾驶导致交通事故占比为25%,每年约2.5万人因此而死亡;美国占比21%,每年约6400人因此而丧生;德国疲劳驾驶导致的交通事故占比为20%,每年导致的死亡人数约为700人。

那么,我们需要讨论的是延伸到AI监控的更深层次的伦理问题,包括监控者对被监控者如何行使权力,谁有权监控、查阅以及如何使用监控所获得的大数据。即便监控数据和画面不会泄漏,但基于这些监控的大数据也会让监控者了解被监控者的偏好和行为特征,由此,既可以作为获利的基础,如产品研发,也可以针对某一群体进行思想或行为控制。

当然,AI进入人们的生活还有更为广泛的伦理问题,哪些是AI可以做的,哪些是不可以做的。对此,已经有很多从事AI技术的科技巨头提出了一些伦理原则,如微软提出了六大原则:公平、包容、透明、负责、可靠与安全、隐私与保密。

谷歌公司则提出了七大原则:有利于社会、避免产生或加强不公平的偏见、构建并测试AI安全性、对人类负责、符合隐私设计原则、坚持科学卓越的标准、开发符合上述原则的AI用例。谷歌也列出了不能采用AI的伦理原则,包括:造成或可能造成总体伤害的技术;主要目的或实施造成或直接导致人类受到伤害的武器或其他技术;收集或使用信息进行监视的技术;违反普遍接受的国际法和人权原则的AI技术。

谷歌已经提出了不能用AI收集或使用信息进行监视,但是,这一点在今天恐怕是无法做到了,因为全球都已经处于摄像头的监控之下了,因此,所要区分的是如果监控有利于健康、生命安全、公平并保护隐私,则可能获得公众的首肯,这也是监控驾驶员的意义所在。

责任编辑:陈群(QT0001)  作者:张田勘