①超级智能既有巨大的好处,也有巨大的风险; ②达到一定水平的AI项目应受到国际权威的约束,类似于IAEA对核能的监管; ③阻止超级智能的发展是危险且困难的。
财联社5月23日讯(编辑 夏军雄)当地时间周一(5月22日),聊天机器人开发公司OpenAI的三位创始人CEO山姆·奥特曼、总裁Greg Brockman和首席科学家Ilya Sutskever在公司博客联合撰文,发表了他们对治理超级智能的看法。
文章指出,在未来10年,人工智能(AI)系统将在大多数领域超越人类专家的技能水平,在开展生产活动方面能够比肩巨头公司。超级智能既有巨大的好处,也有巨大的风险,它可以创造一个更加繁荣的未来,但也存在需要加以管理的风险。
奥特曼等在文章中将超级智能比作核能和合成生物学,由于它们的潜在风险,需要特殊的处理和协调。他们提出了引导超级智能发展的三个关键要点。
首先,领先的AI开发工作需要协调,以确保安全并顺利融入社会。各国政府可以建立相关项目,或者就AI能力增长的限制达成一致。
其次,达到一定水平的AI项目应该受到国际权威的约束,类似于国际原子能机构(IAEA)对核能的监管,该机构负责检查系统,执行安全标准,并对部署和安全性进行限制。
最后,有必要进行针对超级智能的安全性进行研究,而这正是OpenAI和其他公司正在进行的研究领域。
文章强调,监管不能扼杀低于一定门槛的AI模型的发展,公司和开源项目应该有开发这种模型的自由,而不需要繁琐的监管。
三位创始人在文章最后解释了OpenAI开发超级智能的原因,他们相信它会带来一个更美好的世界,能解决问题,改善社会。另一方面,阻止超级智能的发展是危险且困难的,其潜在好处太大了,建造成本每年都在下降,参与者正在迅速增加。因此,谨慎对待超级智能的发展至关重要。