中科软博

当前位置:首页 > 科技研发

计算机科学家预言:人类将无法控制超级AI

  计算机科学家预言:人类将无法控制超级AI
       虽然人工智能(AI)已经取得巨大的进步,但一些科学家和哲学家警告说,人类要警惕不可控的超级智能AI的潜在危险。通过理论计算,马克斯·普朗克人类发展研究所人类与机器中心的科学家在内的国际研究人员团队表明,超级智能AI是不可能存在的。该研究发表在《人工智能研究杂志》上。
        假设有人要编写一个具有比人类更好的智能的AI系统,以便它可以独立学习。AI连接到Internet,可以访问人类的所有数据。它可以替换所有现有程序,并控制全球所有在线机器。AI会治愈癌症,带来世界和平并预防气候灾难吗?还是会破坏人类并占领地球?
       计算机科学家和哲学家问自己,我们是否甚至完全能够控制超级智能的AI,以确保它不会对人类构成威胁。一个国际计算机科学家团队使用理论计算表明,控制超级智能AI根本上是不可能的。
       “控制世界的超级智能机器听起来像是科幻小说。但是,已经有机器独立执行某些重要任务,而程序员却没有完全了解他们如何学习它。因此,问题就来了,这是否在某些时候可能变得不可控制和危险,研究的合著者,马克斯·普朗克人类发展研究所数字化动员小组负责人Manuel Cebrian说。
科学家们探讨了如何控制超级智能AI的两种不同想法。一方面,可以特别限制超级智能AI的功能,例如通过将其与Internet和所有其他技术设备隔离开来,使其与外界保持联系-但这将大大减少超级智能AI的功能。功能强大,无法回答人文问题。如果没有这种选择,人工智能可以从一开始就被激发去追求仅符合人类最大利益的目标,例如通过将道德原则编程进去。但是,研究人员还表明,这些以及其他有关控制超级智能AI的当代和历史思想都有其局限性。
在他们的研究中,该团队构思了一种理论上的遏制算法,该算法可通过首先模拟AI的行为并在认为有害的情况下使其停止,从而确保超级智能的AI在任何情况下均不会伤害他人。但是仔细的分析表明,在我们当前的计算范式中,无法构建这样的算法。
       “如果将问题分解为理论计算机科学的基本规则,结果是,一种命令AI不会破坏世界的算法可能会无意中止其自身的操作。如果发生这种情况,您将不知道这种遏制算法是否有效。仍在分析威胁或威胁已经停止遏制有害的AI。实际上,这使得遏制算法无法使用。”人与机器中心主任Iyad Rahwan说。
       基于这些计算,遏制问题是无可争议的,即,没有任何一种算法可以找到确定AI是否会对世界造成危害的解决方案。此外,研究人员表明,我们甚至可能都不知道超级智能机器何时到达,因为确定机器是否表现出优于人类的智能与遏制问题处于同一境界。





上一篇:化学所在短肽分子手性可控组装方面获进展
下一篇:NeuTigers推出利用可穿戴传感器数据检测新冠肺炎感染的快速筛查应用CovidDeep