IT思维

文章页右侧顶部广告

既然已无法阻止人工智能高歌猛进的步伐,七个近在眼前的AI伦理问题了解一下

2018-05-08 10:22:54 0 人工智能 | , ,

公众号/将门创投

来源:TowardsDataScience

编译:Kathy

每当一个新技术普及时,它们常常会引起伦理问题。举几个栗子:

关于武器——谁应该拥有它们?

关于印刷机——应该用来出版什么?

关于无人机——应该允许它们飞去哪里?

这些问题的答案通常是在技术变得足够普遍以至于问题已经实际暴露出来之后。随着我们的技术变得越来越强大,新技术的潜在危害将越来越大。我们必须从被动应对转变为主动应对新技术危险。

必须在新技术实际影响到我们的生活之前,就开始确定其伦理问题和可能的影响。考虑到技术的飞速发展,留给考虑伦理问题的时间越来越少。现在需要就所有这些话题进行公开讨论,而这些问题是科学无法回答的——它们事关我们的价值观,属于哲学领域,而非科学范畴。

尤其人工智能技术提出了许多伦理问题。作为社会人,我们有责任找出最佳答案,并最终制定最佳法律条文。

1. 算法中的偏差

机器学习算法从给定的训练数据中学习,而不考虑数据中的任何错误假设。这样,这些算法可以反映甚至放大数据中存在的偏差。例如,如果一些训练算法的数据含有种族主义或性别歧视的内容,那么得到的预测也将反映这一点。一些现有的算法将黑人错误的标记为“大猩猩”,或者认为针对亚裔美国人的SAT辅导收费更高。算法已经被用于职场招聘,用来确定应聘者的信誉,但这些算法却可能无法通过传统上用来确定是否存在歧视性做法的测试。

我们如何确保算法是公平的,特别当它们的拥有者是私人公司且不被公众监督的时候?我们如何平衡开放性和知识产权的关系?

算法的偏差

2. 算法的透明度

比公司不允许公开审查它们的算法更令人担忧的是,有些算法甚至对其创建者来说都是模糊不清的。

深度学习是机器学习中一种快速发展的技术,它可以做出很好的预测,但不能解释为什么它会做出这些特定的预测。

例如,一些算法已经被用来解雇教师,但却没有给出解释为什么该模型认定这些人应该被解雇。对更精确算法的需求,和让算法在受其影响的人面前变得更加透明的需求,要如何平衡呢?如有必要,我们是否愿意像欧洲新的通用数据保护法规那样,牺牲准确性以提高透明度?如果人类真的不知道他们真正的行为动机,我们是否应该要求机器在这方面比我们做的更好?

一种比深度学习更透明的算法

3.算法至上

类似但略有差异的担忧从前两个问题中浮现出来。如果我们开始相信算法来作决定,谁将拥有重要问题的最终决定权?是人类,还是算法?

例如,一些算法已经被用来确定刑罚。鉴于我们知道法官的决定受到他们情绪的影响,有些人可能会认为法官应该被“机器人法官”取代。然而,ProPublica的一项研究发现,其中一种流行的判决算法对黑人有很大的偏见。为了找到“风险得分”,该算法使用有关被告人熟人的输入信息,而这些信息在传统审判中永远不会被接受为证据。

人们是否应该因为他们的法官不是人而上诉?如果人类的法官和判决算法都有偏见,我们应该使用哪一种?未来的“机器人法官”在最高法院应该扮演什么角色?

ProPublica一项调查中的COMPAS量刑算法

4.假新闻和假视频

另一个伦理问题出现在关于假消息的话题上。机器学习用来决定向不同受众显示不同的内容。鉴于广告模式是大多数社交媒体平台的基础,用户在屏幕停留的时间被用作衡量成功的典型标准。考虑到人类更容易参与到更具传播性的内容中去,带有偏见的故事会以病毒的形式传播。与此相关的,我们可以使用ML工具创建病毒式假视频,而这些视频非常真实,以致人类无法区分。

例如,最近一项研究表明,假新闻传播得比真实新闻快。虚假新闻比真实新闻被转发的可能性高70 %。鉴于此,许多人试图利用虚假消息影响选举和政治观点。最近对剑桥分析公司的一次秘密调查中,录下了他们吹嘘利用假消息影响选举的事实。

如果我们知道视频都能造假,那么在法庭上什么可以被接受作为证据呢?我们怎样才能减慢虚假信息的传播,谁来决定哪些新闻是“真实”的?

左:真实图像,Parkland枪杀案中的幸存者Emma González;右:乱传播的假图像

5. 致命自动武器系统

人工智能研究人员说,在不到十年的时间里,我们就能制造出致命的自动武器系统。可能是可部署的小型无人驾驶飞机的形式,而且与目前的军用无人驾驶飞机不同,这种无人机能够在未经人类批准的情况下决定是否进行杀戮。

例如,AI研究人员最近制作的一个视频展示了小型无人驾驶飞机Slaughterbots如何被用来杀害目标人群的,即种族灭绝。近4000名人工智能/机器人研究人员签署了一封公开信,要求禁止这种进攻性自动武器。

当个别国家想利用这种武器时,我们应该在什么基础上禁止这种武器?如果我们真的禁止这些,我们如何确保它不会被转移到地下研究,并靠他们自己的力量制造这些自动杀戮武器?

6.自动驾驶汽车

谷歌( Google )、优步( Uber )、特斯拉( Tesla )和其他许多公司正在加入这个快速增长的领域,但许多道德问题仍未得到解答。

例如,最近一辆Uber自动驾驶汽车在2018年3月造成了一名行人死亡。即使有一个“安全司机”来应对紧急情况,但他们无法足够快的及时停车。

随着自动驾驶汽车的广泛使用,事故发生时谁应承担责任?是制造汽车的公司,在代码中犯了错误的工程师,还是应该一直监视的驾驶者?如果一辆自动驾驶汽车开得太快,不得不在撞上行人和坠下悬崖之间做出选择,那么汽车该怎么办呢?一旦自动驾驶汽车比普通人驾驶汽车更安全(这个与普通人驾驶汽车比醉酒驾驶汽车更安全的比例相同),我们是否应该把人类驾驶定为非法?

Uber自驾事故中记忆犹新的一次车祸

7.隐私与监视

无处不在的安保摄像机和面部识别算法的存在,将围绕监视问题产生新的道德问题。很快照相机就能找到和跟踪街上的路人。在面部识别之前,即使是无处不在的镜头也可以保障隐私,因为人们不可能查看所有时间记录下的所有的影响。而通过面部识别,算法可以更快地查看大量镜头。

例如,监控摄像机已经开始在中国用于监控市民的位置。一些警察甚至配制了面部识别眼镜,可以让他们实时获得在街上看到的人的信息。

是否应对这些技术的使用作出规定?鉴于社会变革往往始于对现状的挑战和文明反抗,全景监视能否导致自由的丧失和社会变革?

基于机器视觉技术的监控摄像机

解决问题时不我待

现实中的人们正遭受着这些技术带来的折磨:被不公平的跟踪、解雇、监禁,甚至被偏见和难以理解的算法杀害。我们需要在这些领域为人工智能进行适当的立法。然而,除非社会形成一定的意见,否则无法立法。而在开始进行道德对话和辩论之前,社会无法形成意见。那么开始着手做吧。也让我们养成一种习惯,在构思新技术的同时,也同时开始思考伦理问题。

IT思维

IT思维(itsiwei.com)是互联网首个定位在科技与电商“思维”韬略的平台,我们时刻关注互联网电商行业新动向; 诚邀行业资深从业者加入“思维客家族”!
Return to Top ▲Return to Top ▲