围绕五大要点,微软提出治理生成式 AI 建议

5 月 26 日消息,微软今天发布了名为《Governing AI: A Blueprint for the Future》报告,就如何帮助企业和政府治理生成式 AI,提出了自己的观点和建议。

微软总裁布拉德・史密斯(Brad Smith)为该报告撰写了前言,并总结了 5 个要点,落实后可以加强人工智能的安全性,更容易为公众所接受。

五大要点,微软提出治理生成式AI建议:从技术、透明度和责任出发

IT之家附 5 个要点如下:

  • 实施并建立新的政府主导的人工智能安全框架:美国国家标准与技术研究所已提出了相关的框架。
  • 需要为控制关键基础设施的人工智能系统,部署有效的安全“刹车”:这些故障安全系统将整合到系统安全综合方法中,围绕着有效的人类监督、弹性和稳健性开发。
  • 基于人工智能技术架构制定广泛的法律和监管框架:史密斯表示,需要以现有法律为基础的新法律法规来管理人工智能,包括建立一个新的政府机构来监管人工智能。
  • 提高透明度,确保学术和非营利组织获得人工智能:史密斯表示,微软将发布一份关于其人工智能透明度工作的年度报告,并且必须作出新的努力,将人工智能研究扩展到学术和非营利组织。
  • 寻求新的公私合作伙伴关系,将人工智能作为一种有效的工具,应对新技术带来的不可避免的社会挑战:史密斯表示现在需要开展重要工作,利用人工智能保护民主和基本权利,提供广泛的人工智能技能,促进包容性增长,并利用人工智能的力量推进地球的可持续发展需求。


随着人工智能技术的飞快发展,越来越多的应用场景被探索和实践。在这其中,生成式 AI(Generative AI)从理论到实践也越发成熟。作为一种能够“自创”算法的 AI 技术,生成式 AI 具有极大的变革潜力,同时也对社会产生了极大的影响。为了使生成式 AI 能够被广泛应用,并更好地避免产生意外的风险,微软公司提出了以下五个治理生成式 AI 的要点。
技术要点:确保质量和稳定性
微软公司认为,技术上的巨大发展和创新意味着生成式 AI 的确切用途可能难以预测,同时相对比起其他 AI 技术更加复杂。因此需要重点关注可靠性和可预测性。此外,也需要对生成式 AI 的技术过程进行详细记录和报告,这可以促进审查和监管过程的透明度。
透明度要点:透明化生成式 AI 的运作
对于公众,生成式 AI 的“黑盒子”特性可能会引起困惑或担忧。因此微软公司建议在透明化运作过程的同时,还要给予其观察和测试的权利。
责任要点:明确责任与义务
闭环 AI(Closed-Loop AI)——这是一类通常只在特定领域应用的 AI,比如在自动贷款审核方面,闭环 AI 通常只由一两个专家人员统管。而生成式 AI 不同,它可以实现自我学习和自我生成,因此这类 AI 对政策的应用和议题的决策产生的潜在重大影响意味着相关企业或组织需要能够严格遵守技术伦理、社会责任与道德。
合规要点:遵守相关法律和标准
无论何时何地,法律和法规都是必须遵循的。微软公司呼吁企业工业界和学术研究者应该对各级法律法规、技术标准、法规官方指导文件的遵守更加重视。
开放合作要点:增强合作和共建共享
对于生成式 AI,有许多不同的利益攸关方,从开发者、企业、政策制定者到行业组织和社区团体等,需要更加紧密地团结合作和共建共享,推进生成式 AI 的发展与应用。
结语
微软公司提出了治理生成式 AI 的五大要点,并提出让 AI 更好地服务人类的观点和理念。这些管理原则和模式不仅能够有力地塑造生成式 AI,更具有指导其他 AI 技术逐渐提升和发展的意义。我们相信,在未来,AI会在更多的场景中为人类服务。与此同时,微软公司的治理五大要点也必将引领 AI 的可持续发展产生更加积极的作用,值得广泛关注和深入研究。