将AI比喻为核设施,OpenAI呼吁全球严管AI开发

5月24日消息,OpenAI三位高层在近日联名发文声称AI需要受到严格监管,像管控核设施一样管AI发展。



(OpenAI官网已上传此篇文章)


OpenAI呼吁全球严管AI开发:将AI比喻为核设施

OpenAI三位高层认为,超级智能AI是一把双刃剑,未来十年内AI的产出便会赶上许多大公司,必须要受到监管,认为世界需要快速建立起一个国际人工智能监管机构。


他们还称,人工智能的创新速度如此之快,我们不能指望现有的权威机构能够充分控制这项技术。



目前,这篇文章在推特上引起了大量关注,连马斯克本人也都在下方评论称“Control matters”(控制很重要)。很多人认为OpenAI的做法是自私的,因为它阻碍了人们对于人工智能未来开放和应用的设想。



其实早在之前,OpenAI三位高层中的Altman参加美国国会听证会时就针对AI提出了不少关于AI安全的提议,包括成立一个新的机构,负责为 AI 大模型颁发许可,并拥有撤销许可的权力;为 AI 模型创建一套安全标准,对危险性做评估,包括它们是否能够“自我复制”、“逃出实验室自己行动”;要求独立专家对模型的各种指标做独立审计。而这次他们则通过公司身份向公众再次呼吁关注这一问题。


大家应该都熟知《终结者》电影系列。虽然“天网”人工智能在电影中造成了全球重大破坏,但我们不能因为那只是虚构的电影而轻视人工智能。未来已来,现在ChatGPT、Midjourney等AI模型展现出如此强大的能力,或许是时候开始重视这一技术未来的发展方向。



AI技术的快速发展已经成为当前全球焦点之一。然而,与此同时,人们也开始逐渐意识到AI技术的潜在风险和危险性。为此,全球首屈一指的AI研究机构OpenAI呼吁所有国家在AI领域开展更加严格的监管,将AI技术比喻为核设施以加强人们对其风险性的重视。
1. AI技术的发展
AI技术在人工智能领域已经取得了巨大的成功。越来越多的机器学习算法已经被开发出来,能够从海量的数据中提取出规律和模式,使得机器对复杂的任务进行分析和处理更加容易。这些算法的成功使得AI技术得以成为推动社会发展的主要力量之一。
2. AI技术的风险
AI技术虽然带来了重大的好处,但同时也伴随着潜在的风险。尤其是目前AI技术还没有完全可编程并仍然存在许多隐患,如数据的误差或不准确性,或是人为因素和外部干扰等。这些风险与机器的智能程度和应用领域有着密切的关联,如果AI技术应用领域不加限制,对全球安全构成的威胁将会惊人地增加。
3. AI技术的监管
为了避免不必要的风险,OpenAI呼吁全球需秉持同样的标准持续关注和监管AI技术的研究开发,将AI技术比作核设施,以便更好地管理和规范技术的发展。同时,全球领先AI技术研究机构也应该倡导实施更加严格的规定,例如共同制定标准化的测试方法,开展相关研究,促进对AI技术的规范、监督和治理。我们应该在保障利益的同时充分利用AI技术的优势,以持续推动人工智能技术的发展。
总体而言,AI技术的发展非常迅速,但是我们也必须注意到其潜在的危险性,同时采取适当的措施确保技术的健康发展,才能够更好地推动AI技术造福全球人民。