IT思维

文章页右侧顶部广告

对不起马斯克,人工智能并不会比朝鲜威胁更大

近日,埃隆·马斯克又出来宣传AI威胁论了,这次他声称,AI对人类的威胁比朝鲜核试验所带来的威胁要大。但是,事实真的会如此吗?

有人可能会说,“监管”、“制裁”、“规则”并不总是纯粹的“邪恶”。

保障通勤道路安全的规定,或者美国政府用来处理与外国关系的制裁,这些是必要的,而不是邪恶的。然而,当谈到人工智能时,我们真的需要担心吗?

马斯克几次三番地表明其对AI的恐惧,从呼吁政府对人工智能进行严格监管,到后来与Facebook扎克伯格之间关于AI的激烈辩论,他一遍遍地重申AI未来将会失去控制,成为人类的主宰。

近日,他在推特上表示,人工智能和机器学习所带来的危险比朝鲜要“大得多”。然后他又发了一条推特说,“所有对公众构成威胁的东西”都受到了监管,包括汽车和飞机。

既然拿人工智能和汽车飞机相比较,那我们不禁想到一个问题:相较于重达二、三十吨的可能从天上掉下来导致巨大灾难的飞机,目前的人工智能只是一种无形的算法和工具,而且最近专家称,我们目前所见到的人工智能,大多数都不是真正的人工智能,可见人们对AI的评判值过高。

那么,在人工智能的时代,现在处于什么阶段呢?婴儿时期!甚至还没到蹒跚学步的时期,但人们现在就开始担心“婴儿时期”的AI将来会发疯、杀人。

对此,还是有不少网友反对马斯克的说法的。一名用户表示,将核威胁与人工智能相提并论是“不恰当的”。有人说,真正的危险是人类创造出“无用”的人工智能。另一个人指出,如果发生核战争,机器是否统治世界可能就完全不重要了,因为我们都会死掉。

由人工智能带来的“世界末日”论的问题在于,从不探讨具体细节。这是一条随机挑出的的推特,它把AI比作核战争。这是另一条讨论监管的随机挑出的推文。

但是,人类应该对什么样的人工智能进行监管呢?由谁监管?在哪些方面监管呢?真正的危险是什么?注意事项又是什么呢?

目前人类对人工智能的恐慌所存在的问题是,目前还没有一个机器能真正造成大规模破坏性的事故。可能有人会说,自动驾驶导致了一例死亡案例,聊天机器人程序崩溃,足球机器人报复教练等等。

但是,这些“事故”相较于全世界每30秒就发生一起的车祸,相较于因心理不健康导致的变态杀人案件等,是不是要轻的多?难道我们会因为看到长时间看手机会导致失明的个别案例而放弃甚至禁止再使用手机吗?

马斯克此前曾指出,在AI失去控制之前,人类甚至是政府应该对其进行监管。

然而,他还是没有说明到底什么应该被监管——Google的DeepMind吗?微软的Word吗?聊天机器人吗?能关闭你的喷水灭火系统的家庭感应器子程序吗?还是说卫星?自动驾驶卡车?

目前,人们对人工智能的了解更多的是听过、见过、谈论过,但是我们真的了解人工智能吗?人们尚且无法对真正的人工智能定义,又谈何对其监管控制呢?

让我们开诚布公地讨论一下这个问题,了解一下监管的细节。专家认为,制造聊天机器人的公司不需要被监管,他们需要有人敦促他们用已有资金制造和创新出更好地、更有用的机器人。

还是说,我们需要制定机器人相关的法律吗?如果是这样的话,我们就需要面临一个全新的问题——机器人的定义到底是什么?

问题很明显:当你开始谈论具体的法规和危险时,话题就会变得有些可笑。我们到底是在要求国家和政府做什么事呢?并且当你开始谈论机器人统治地球,因为它们想要摧毁人类的时候…可能现在已经有点太迟了。你就像一片土司无能为力,而机器人已经取得了胜利。

我们需要讨论的是细节,而不是泛泛而谈。

你,认同马斯克的观点吗?

选自:VentureBeat  作者:约翰·布兰登

编译:网易见外智能编译平台 审校:杨越东

网易智能

网易智能(公众号 smartman163),定位人工智能等前沿科技领域的垂直媒体及产品服务平台,面向人工智能等领域的从业者和关注者。运营栏目包括大型策划栏目《AI英雄》,行业研究与分析栏目《AI研究院》等,提供原生内容、新闻策划、数据报告、产品评测等服务。

发表留言

Return to Top ▲Return to Top ▲