IT思维

文章页右侧顶部广告

谷歌专家:超级 AI 攻击人类这么可怕,想阻止它方法只有一个

谷歌软件工程师、密歇根大学Igor Markov教授说,人工智能对人类的攻击将会像14世纪的黑死病袭击欧洲一样,导致50%的人口死亡。他说:“在当时病毒非常小,也没有显微镜或传染病的概念,没有任何理论性解释,所以这种疾病传播了很多年,杀死了很多人,最终还是没人知道发生了什么。”

这将说明,如果超级人工智能攻击人类,基本是一个道理。你不知道发生了什么,会有什么样的问题,你几乎是无助的。

在最近的一次关于如何防止超级智能人工伤害人类的讨论中,Markov提出的不是技术解决方案,而是从古代历史中吸取教训。上周五,Markov与科幻作家大卫布林和其他在人工智能有影响力的专家参加了在旧金山举行的人工智能大会。

从早期人类的经验可以帮助我们如何应对人工智能:交朋友。在驯化的过程中,人类把狼变成了他们的保护者和朋友。如果你担心潜在的威胁,那就试着用其中的一些力量来保护自己,或者试着去适应或驯化这些威胁。因此,你可以开发出一种友好的人工智能,保护自己免受恶意人工智能的攻击,或追踪未经授权的访问。

Markov在谷歌的搜索团队工作,早在一年前,他开始利用业余时间研究如何避免让人工智能伤害人类。他现在认为,人类阻止恶意人工智能崛起的最重要方式,是施加一系列物理世界限制。

他说:“这里的底线是,所有机器智能,不管其是敌对的还是友好的都会受到物理资源的限制,如果我们想要遏制这种人工智能攻击,我们就需要考虑限制物理资源。”“我们绝对需要控制所有的能源,我们需要非常谨慎地考虑关键基础设施的物理和网络安全,因为如果不这样做,灾难很可能会发生。”

Markov提出了硬件设计的背景,他建议采取措施来分离强大的系统,保留手动开关,因为如果超级智能人工智能出现,这可能会带来一场事故。他还呼吁,应在自我修复、复制或改进人工智能方面加以限制,并应考虑到核武器攻击或使用生物武器等具体情况。

“一般来说,整个人工智能生态系统的每个部分都需要有一些弱点。你不希望人工智能可以接管一切,对吧?因此,你可以通过设计其固有缺陷或是功能分散来控制人工智能。”“在电子硬件设计领域,我们使用隔离分层结构。”从晶体管到CPU再到数据中心,其每一层都有一个明确定义的功能,所以如果你从安全的角度看这个问题,你要防御某种威胁,就要限制或调节每一层面,这也是对人工智能的限制方式。

Markov的表述依托于其预测,他认为在未来10年里,虚拟现实将与现实生活无法区分,在此之后计算机将超越人类。然后,通过增强功能,人类将变得更像机器,直到我们到达奇点。Markov在他的演讲中指出,业内对恶意人工智能有不同的观点。

Stephen Hawkings认为,人工智能最终将取代人类,他告诉BBC,“人工智能的发展可能会导致人类的终结。”相比之下,前百度人工智能主管吴恩达去年表示,人类无需对人工智能感到担忧,担心人工智能就像担心火星上人口过剩一样可笑。

本文由网易见外智能翻译平台提供翻译服务,英文来源:Venturebeat,校对:晗冰

网易智能

网易智能(公众号 smartman163),定位人工智能等前沿科技领域的垂直媒体及产品服务平台,面向人工智能等领域的从业者和关注者。运营栏目包括大型策划栏目《AI英雄》,行业研究与分析栏目《AI研究院》等,提供原生内容、新闻策划、数据报告、产品评测等服务。
Return to Top ▲Return to Top ▲