大模型时代如何捕捉不良内容?欧盟法案要求AI公司确保用户知情权

在过去的 10 年里,大型科技公司在许多技术上变得非常擅长:语言、预测、个性化、存档、文本解析和数据处理。但它们在捕捉、标记和删除有害内容方面仍然十分糟糕。对于在美国传播的选举和疫苗阴谋论,只需回顾过去两年的事件,就能了解它们对现实世界造成的危害。


这种差异引发了一些问题。为什么科技公司在内容审核方面没有改进?他们可以被迫这么做吗?人工智能的新进展会提高我们捕捉不良信息的能力吗?


大多数情况下,当科技公司被美国国会要求对传播仇恨和错误信息做出解释时,它们往往会把自己失败的原因归咎于语言本身的复杂性。高管们表示,在不同语言和背景下理解和防止上下文相关的仇恨言论是一项难度很大的任务。


大GPT-3.5Turbo时代来临,如何捕捉不良内容欧盟法案要求AI公司确保用户知情权

马克·扎克伯格(Mark Zuckerberg)最喜欢说的一句话是,科技公司不应该承担解决世界上所有政治问题的责任。


(来源:STEPHANIE ARNETT/MITTR | GETTY IMAGES)


大多数公司目前同时使用技术和人工内容审核员,后者的工作被低估了,这反映在他们微薄的薪酬上。


例如,在 Facebook 上删除的所有内容中,人工智能目前负责了 97%。


然而,斯坦福互联网观测站的研究经理蕾妮·迪雷斯塔(Renee DiResta)说,人工智能并不擅长解释细微差别和背景,所以它不可能完全取代人类内容审查员,即使人类也不总是擅长解释这些事情。


由于自动内容审核系统通常是根据英文数据进行训练的,因此文化背景和语言也会带来挑战,难以有效处理其他语言的内容。


哈尼·法里德教授于加州大学伯克利分校信息学院提供了一个更为明显的解释。据法里德所言,由于内容审核不符合科技公司的经济利益,因此它没有跟上风险的发展。这一切都与贪婪有关。别再假装这不是钱的问题了。”


由于联邦监管的缺失,网络暴力的受害者很难要求平台承担经济责任。


内容审核似乎是科技公司和不良行为者之间一场永无止境的战争。当科技公司推出内容监管规则时,不良行为者通常会使用表情符号或故意拼写错误来避免被检测。然后这些公司试图堵住漏洞,人们再寻找新的漏洞,如此循环往复。



现在,大型语言模型来了......


现在的处境已经很难了。随着生成式人工智能和ChatGPT等大型语言模型的出现,情况可能会更加恶劣。生成式技术也有问题——比如,它倾向于自信地编造一些事情,并把它们作为事实呈现出来——但有一点是明确的:人工智能在语言方面越来越强大了,非常强大。


虽然迪雷斯塔和法里德都很谨慎,但他们认为现在还为时过早去做出对事情如何发展的判断。尽管许多像 GPT-4 和 Bard 这样的大模型都有内置的内容审核过滤器,但它们仍然可能产生有毒的输出,比如仇恨言论或如何制造炸弹的指令。


生成式人工智能可使坏人在更大规模和更快速度上进行虚假信息欺骗活动。考虑到人工智能生成内容的识别和标记方法严重不足,这个情况非常可怕。


另一方面,最新的大型语言模型在文本解释方面比之前的人工智能系统要表现得更出色。理论上,它们可以用来促进自动内容审核的发展。


科技公司需要投资重新设计大型语言模型,以实现这一特定目标。尽管微软等公司已开始研究此事,但尚未出现引人注目的活动。


法里德表示:“尽管我们已经看到了许多技术进步,但我对内容审核方面的任何改进都持怀疑态度。”


尽管大型语言模型发展迅速,但它们依然面临上下文理解方面的挑战,这可能导致它们无法像人类审核员那样准确地理解帖子和图像之间的微小差别。跨文化的可扩展性和特殊性也带来了问题。“你会针对特定类型的小众市场部署一种模型吗?是按国家划分的吗?是按社区来做的吗?这不是一个放之四海而皆准的问题,”迪雷斯塔说。



基于新技术的新工具


生成式人工智能最终对在线信息领域是有害还是有益,可能在很大程度上取决于科技公司能否拿出好的、被广泛采用的工具来告诉我们内容是否是由人工智能生成的。


迪雷斯塔告诉我说,检测合成介质可能是需要优先考虑的一项技术挑战,因为这很有挑战性。这包括像数字水印这样的方法,它指的是嵌入一段代码,作为一种永久性的标记,表明附加的内容是由人工智能制作的。用于检测人工智能生成或操纵的帖子的自动化工具很有吸引力,因为与水印不同,它们不需要人工智能生成内容的创建者主动标记。换句话说,目前尝试识别机器生成内容的工具的表现还不够出色。


一些公司甚至提出了使用数学来安全地记录信息的加密签名,比如一段内容是如何产生的,但这将依赖于像水印这样的自愿披露技术。


欧盟上周刚刚提出的最新版《人工智能法案》(AI Act)要求,使用生成式人工智能的公司要在内容确实是由机器生成时通知用户。在未来几个月,我们可能会听到更多有关新兴工具的消息,因为对人工智能生成内容透明度的需求正在增加。


支持:Ren


原文:


https://www.technologyreview.com/2023/05/15/1073019/catching-bad-content-in-the-age-of-ai/



不良内容泛滥成灾
在当前信息大爆炸的时代,不良内容已经成为互联网当中一个不可避免的问题。充斥着虚假、恶意、谣言、仇恨等各种不良信息,这些内容严重地威胁着公众的安全和社会的和谐。大型AI公司加速了信息的传播速度,难以控制其中的不良信息,大量的自动生成的内容也使问题更加严峻。
欧盟法案促成严格规管
欧盟近日通过了《东西方法案》的修正案,该法案要求AI公司必须确保用户知情权,严格规管AI内容,对于不良内容必须及时发现和维护。这也为AI公司严格限制不良内容提供了更加实际的指引和要求,AI公司需要加强监管和管理,确保不良内容的及时删除和防范。
优化算法提升筛查效率
AI公司需要不断研发新的智能算法和机器学习模型,以优化对不良内容的筛查和检测。例如,实现自动审查能力和智能判断能力,能够将所有不良内容进行过滤,并且精准识别伪造信息。
建立强化的审核体系
当AI公司面对大量的自动化生成内容时,通过建立强化的审核体系来保证信息的真实性和质量是至关重要的。这将涉及聘请更多专业的审核人员,以及完善的审核机制和审核流程,其中必须严守用户的知情权和隐私保护。
加强人工审核与技术验收
AI公司需要加强与技术验收和人工审核的协调,防范不良信息的传播。例如,通过加强技术验收,可以实现自动化生成内容的过滤和防范,通过加强人工审核,可以在保障用户隐私的前提下减少不良内容的传播措施。
实现数据多方共享
AI公司可以努力在不同的数据格式和不同的共享平台之间实现多方共享,提高数据的准确性和真实性。通过采用数据多方联合来优化算法和模型,并且通过共享数据来更好地分析和加强风险管控措施。
遵守道德和社会责任
AI公司应该强调道德与社会责任,加强公平、透明和负责的交流合作机制。例如,建立诚信体系,倡导公益,承担社会责任,发挥社会领导作用,加强在重要领域的联合合作等等。只有积极投身社会、尊重用户知情权才能更好地解决AI领域中众多的问题。