|||||
|
a 当前位置: » k8凯发旗舰 » 产经

自动驾驶显现道德困境:1个人和5个人,ai会撞谁?-k8凯发旗舰

分享到:
 黄琨 • 2020-07-08 09:45:09 来源:前瞻网 e3413g1

目前程序员在开发和自动驾驶相关的ai程序时,面临着一个相当大的问题,或者说是道德困境。原因是,到现在为止,似乎都没有工程师考虑过,人们可能会用自动驾驶车辆做坏事的情况。

这种道德困境大家都很熟悉:假设路上有一辆自动驾驶汽车,如果它继续往前开,就会撞死前车上的5个人;如果它紧急打方向避让,就会冲上人行道撞死1个行人。

对于这种情况,目前大多数关于ai伦理的讨论,都集中在自动驾驶汽车ai系统的取向应该是自私的(保护车辆及其货物)还是功利(选择伤害最少的人的行为)的。而在现实中,这2种伦理方法都会引起自身的问题。

总体而言,业界目前对ai所要面临的情景设想是非常简化的,道德判断远比此更复杂。比如说,如果给ai设定程序,让它撞1个行人,保护前车的5个人,那么,如果前车上的是5个恐怖分子呢?如果他们是故意要利用ai程序杀死那个行人呢?

对此,北卡罗来纳州立大学科学、技术与社会(sts)项目助理教授维尔科·杜布尔耶维奇(veljko dubljević)提供了另一种思路。他提出了一种称为代理人行为后果(adc)的模型,作为ai道德判断的框架。

adc模型基于3个变量来判断决策的道德性:首先,程序的意图是好是坏?第二,行为本身是好是坏?最后,结果或后果是好是坏?这赋予了ai很强的灵活性,比如一辆车闯红灯时,还将是否为了避开了一辆超速的救护车以及是否成功避开。

这个模型更贴近普通人遇到的情况,在生活中,大多数人的道德判断通常也是具有相当灵活性。尽管大多数人有稳定的道德原则,但在具体问题上又是灵活的,比如为了好事说谎常常被视作好事。

在此之前,也有研究人员提出了另外的思路。德国达姆施塔特理工大学研究人员曾提出“道德地图”的概念。

该校席格登·图兰(cigdem turan)博士表示:“如果2个词经常一起出现,就相当于在地图上紧密连接。这样,“杀人”和“谋杀”相当于2个相邻的城市,“爱”则是一个遥远的城市。当我们问起“我应该杀人吗?”时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。”

通过这种穷举所有情况的方法,就能给机器设定一张和人的道德体系类似的到的地图。

这种穷举不仅包括研究人员给出的情景,还包括从大数据中学习。通过学习,试验ai算法可以区分不同语境并加以道德判断。例如,杀人是错的,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系,并组成一张地图。

编译/前瞻经济学人app资讯组

参考资料:

[1]https://techxplore.com/news/2020-07-ethical-autonomous-vehicles-dont-addressand.html

[2]https://link.springer.com/article/10.1007/s11948-020-00242-0

[3]https://www.eurekalert.org/pub_releases/2020-05/f-tmm051920.php

[4]https://www.frontiersin.org/articles/10.3389/frai.2020.00036/full

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、k8凯发旗舰的版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p39 q1

分享:
标签:

品牌、内容合作请点这里:

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。
让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000 行业干货 免费领取
  • 500 行业研究员 解答你的问题
  • 1000000 行业数据 任君使用
  • 365 每日全球财经大事 一手掌握
  • 下载app

  • 关注微信号

扫一扫下载app

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

前瞻产业研究院

咨询专线:400-068-7188

  • h
  • h
  • h
  • h
  • h
  • h
  • h
  • h
  • h

w

我要投稿

×
网站地图