IT思维

文章页右侧顶部广告

专访 Katja Grace :从历史角度如何看人工智能的未来

在人工智能领域有一个价值百万美元的问题:人工智能何时会变得如此智慧和强大,以至于它在每个任务中都超越了人类?

人工智能已经有了工作自动化、金融交易自动算法、自动驾驶汽车和像Alexa这样的家庭助手,在世界范围内都能看到他们的身影,但这些发展与强人工智能或通用人工智能(AGI)的想法相比微不足道,它可以像人类一样广泛地执行一系列的智力任务。

许多计算机科学家在某种程度上期待着通用人工智能的发展,但几乎没有人能在它会在什么时候真正发展起来这一问题上达成一致。

考虑到这一前所未有的可能性,它将为社会创造一个积极的或具有破坏性的未来,许多人担心,人类将无法承受这一巨大的惊喜(或惊吓)。

然而,惊吓并不是不可避免的,美国机器智能研究机构(MIRI,Machine Intelligence Research Institute)的研究员Katja Grace(艾力·格蕾丝)认为,如果研究人员能够更好地理解人工智能的发展速度和后果,社会就可以为一个更有益的结果做好准备。

虽然不准确,但是技术进步可预测

Katja Grace认为,虽然我们不能准确地描绘出人工智能的进化过程,但它并不是完全不可预测的。她的“人工智能”项目旨在识别和开展具有成本效益的研究项目,这些项目可以让人们了解未来几年人工智能将对社会产生怎样的影响。

她的目标是“帮助对人工智能投资的社会回报更精准的预估,找出被忽视的研究领域,改进政策,或者有效地引导公众对人工智能的兴趣。”

有关于人工智能的影响,我们会问道:人工智能的发展速度有多快?我们能预期到哪些颠覆性的变化?人工智能可能对经济产生什么样的影响?有关人工智能的哪些路径会被认为是可信的或可能的?我们能不能着眼于一些选择于当下,而影响深远的因素来讨论?

一种了解人工智能时间轴的方法就是问专家们。在2015年对352名人工智能研究人员的调查中,这些研究人员预测,到2060年,人工智能在几乎所有领域的竞争都将超过人类。

然而,专家们对于人工智能75年之后状况也进行了回答,并给出了形形色色的答案,这让任何可能性都很难被排除在外。

Katja Grace希望她的研究能对人工智能产生影响,并能使对未来的预测更加准确。从历史的经验中,一些思想家认为,人工智能可以在没有太多警醒的情况下快速发展。这是基于这样一种观点,即更新算法不需要工厂流水线,因此原则上可以像高速列车一样飞快地发展。

然而,Katja Grace认为,虽然我们还没有真正开发出强人工智能,但我们在开发其他技术方面的巨大经验可以告诉我们很多关于人工智能的事情。研究其他技术的时间线可以告诉人类人工智能未来的发展曲线。

人工智能大爆炸依赖硬件和软件

在她的一个研究项目中,Katja Grace的研究跨越了整个历史的技术进步,根据多年技术在“一小步”基础上的飞跃,来衡量今后人工智能可能的跨越式发展。

她解释说:“我们感兴趣的是在何种情况下,看起来需要十多年的进步会在一夕之间发生。”他说:“核武器的情况是我们唯一能发现的情况,那就是在研发一开始的过程中,就取得了100多年的进步。”例如,物理学家在1939年开始考虑核能,到1945年,美国成功地测试了核武器。

正如Katja Grace所写的那样,“在核武器之前的1100年里,炸药的相对有效性翻了一番的次数不到两次,但在第一次核武器出现的时候,它的有效性至少翻了11番。”

如果我们保守地认为之前的进展是指数增长,那么按之前的发展模型来算,如今的发展和之前的水平相比,已经有6000年的进步了。

格雷斯还考虑过高温超导体的历史。自从1911年发现超导体后,超导的峰值温度缓慢上升,从最初的4K(开尔文)上升到20世纪80年代的大约30K。

然后在1986年,科学家们发现了一种新型陶瓷,在短短7年内将最高温度提高到了130K。她解释说:“这是一次进展就取得了近100年的进步的例子。”

核武器和超导体是罕见的案例。Katja Grace研究的大多数技术要么没有显示出不连续性,要么只展示了10到30年的进步。格蕾丝解释说:“我们研究的主要结果是,大幅跳跃相当罕见,因此不应该是默认的预期。

此外,人工智能的进步很大程度上取决于硬件和软件的改进速度,而这些都是我们现在可以观察到的过程。”

例如,如果硬件的进步从长期的指数进步开始放缓,我们就应该期待人工智能的发展。

现在,Katja Grace正在研究硬件的不确定性。她想知道“目前硬件价格下降的速度有多快,与人工智能的进步相比,硬件在多大程度上帮助了人工智能的进步,以及定制硬件的重要性。”

失控:AI研究AI

Intelligence Explosion AI的研究人员和开发人员也必须为可能发生的人工智能大爆炸做好准备,“强人工智能”将比人类能够理解或控制的速度更快地提高其智能。Katja Grace解释道:“人们的想法是,一旦人工智能变得足够好,人工智能就会进行自己的人工智能研究(而不是由人类来研究),然后我们将由人工智能来研究人工智能,人工智能研究也能做得更好。”

因此,它将失去控制。

但她表示,这种反馈回路并非完全不可预测。“我们已经有聪明的人在做AI研究AI的研究,”Katja Grace解释道。“当人工智能和人一样聪明,或者在人工智能研究方面也很出色时,我们不知道这些东西会是什么样子,但我们已经间接找到了一些线索,我们不应该只是随口说一句:“失控可能会以任何速度发生。”

“我们现在可以得到一些线索。比如,你可以在一年的研究或努力让AI增长多高的IQ点。”

人工智能的影响是一个正在进行的项目,格蕾丝希望她的研究能引发关于智能爆炸和人工智能的其他方面的讨论。随着时间的增加,决策者和慈善家们可以更有效地确保先进的人工智能不会给人以惊吓。

注:这篇文章是关于Katja Grace“人工智能安全研究的未来”系列的一部分,这个系列项目由Elon Musk和开放慈善项目的慷慨捐赠资助的。

选自 Future of Life

编译 网易见外编译机器人 审校 张轶凡

网易智能

网易智能(公众号 smartman163),定位人工智能等前沿科技领域的垂直媒体及产品服务平台,面向人工智能等领域的从业者和关注者。运营栏目包括大型策划栏目《AI英雄》,行业研究与分析栏目《AI研究院》等,提供原生内容、新闻策划、数据报告、产品评测等服务。

发表留言

Return to Top ▲Return to Top ▲