史蒂芬·霍金低估人工智能的威胁是人类最大的错误

作者: 日期:2019-10-24 00:30:43

英国物理学家史蒂芬·霍金在他的文章中说,低估人工智能的威胁可能是人类历史上最大的错误。

这部作品由加州大学斯图尔特·罗素教授和麻省理工学院物理学教授马克斯·泰格马克和弗兰克·威尔切克共同撰写。这篇文章指出了人工智能方面的一些成就,包括自动驾驶汽车、语音辅助Siri和超级计算机,它们在电视游戏《危险边缘》中击败了人类。

正如霍金对独立报所说

所有这些成就都与我们未来几十年的成就相去甚远。人工智能的成功创造将是人类历史上最大的事件。不幸的是,如果我们不学会避免风险,这可能是我们最后一次。

科学家们说,在未来,非人类智能的机器可能会自我完善,没有什么能阻止这一过程。这反过来又会引发所谓的技术奇点的过程,即技术的快速发展。

这篇文章指出,这项技术将超越人类,开始管理金融市场、科学研究、人类和发展我们无法理解的武器。如果人工智能的短期影响取决于谁来控制它,那么长期影响取决于它是否能被控制。

很难说人工智能对人类的影响。霍金认为,除了剑桥存在风险研究中心、人类未来研究所以及机器智能和未来生活等非营利组织之外,这些问题几乎没有什么严肃的研究。他说,我们每个人都应该问问自己,我们现在能做些什么来避免最坏的情况。