OpenAI或灭绝人类,超级人工智能可能在这个十年出现

时间:2023-07-06 22:17:55

  7月6日讯:OpenAI开发的ChatGPT大火以后,这家公司却警告未来的人工智能可能会摧毁人类。

  近日,OpenAI联合创始人伊利亚·苏斯克维尔(Ilya Sutskever)和对齐团队负责人简·莱克(Jan Leike)在一篇博客文章中警告称:“超级智能的巨大力量可能……导致人类被剥夺权力,甚至人类灭绝。目前,我们还没有一个解决方案来操纵或控制一个潜在的超智能人工智能,并防止它失控。”

OpenAI:超级人工智能可能在这个十年出现 或灭绝人类

  他们认为,超智能人工智能可能在这个十年到来。人类将需要比目前更好的技术来控制超智能人工智能,因此需要在所谓的“对齐研究”(alignment research)方面取得突破,该研究的重点是确保人工智能对人类有益。

  OpenAI表示,该公司计划投入大量资源,创建一个新的研究团队——名为超级对齐团队,以确保其人工智能对人类来说是安全的,最终使用人工智能来监督自身。OpenAI想要使用人类反馈来训练AI系统,训练AI系统辅助人类评估,然后最终训练AI系统进行实际的对齐研究。

  但有人对该计划提出反对,他就是人工智能安全倡导者康纳·莱希(Connor Leahy)。他称:“在构建人类水平的智能之前,你必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是一个特别好的或安全的计划。”

上一篇:最高抵2万,苹果官方以旧换新宣布涨价 iPhone Mac升值
下一篇:最后一页

1.绿竹网的原创文章,请转载时务必注明文章作者和"来源:绿竹网",不尊重原创的行为,绿竹网都将保留追究责任权益;

2.绿竹网遵循行业规范,任何转载的稿件都会明确标注作者和来源,对于未注明原作品不得转载的稿件,我方不承担相关责任;

3.绿竹网倡导尊重与保护知识产权。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至14043 2669 6@QQ.com,我们将及时沟通与处理。

4.关于绿竹网的所有法律事宜,均由本网特聘法律顾问协助处理。