你的自拍照可能被收入“不雅图素材库”,AI作恶其实离你很近!


作者 | 卡子


编辑 | 卷毛 俞添


你的自拍可能被AI收入“不雅图素材库”,隐私考虑当心!

头图 | Midjourney


* 今日头图使用Midjourney创作,关键词“一个女孩,坐在昏暗的房间里哭泣,插画风格”


我们与恶的距离,和工具有关。


AI,这个史上(也许)最强工具,在恶人手里,也已全副武装。对普通人来说,AI的加入,让种种骗局和伤害,更防不胜防。


试想一下,任何的身影和动作,那张脸可能是你自己,恐怖吗?


个人发布在社交平台的自拍和视频,很容易就可以经过AI换脸、AI绘画技术的处理,被不法分子作为不雅图片和视频的“素材”,兜售或者冒用。


再想一下,铺天盖地看到的信息,都是被基于某种目的制作和散发的,可怕吗?


网络流传的各种截图、聊天记录,本就难以分辨真假,当AI加入“创作”,风格能模仿,逻辑能自洽,还能不知疲倦的批量生产,信息污染,一键达成。


以下这些作恶事件中,都有AI的应用。



AI“炼制”色图模型

一、社交平台出现AI合成儿童软色情照片


5月16日,微博博主“赛博十块鉴定处”发帖称,发现在B站有部分用户上传了AI绘画工具合成的写实风儿童软色情图片。生成的图片内女孩衣着暴露,举止不雅,用户会在评论和动态内分享“图包”。


事件曝光后,因遭到用户举报,目前部分视频已被下架,相关涉事用户账号被封。


图源:赛博十块鉴定处


二、CP29漫展场照被“炼”不雅照


5月6日,有网友投稿微博博主“春日矮男”,称一位网友在某论坛表示不满当天在漫展拍摄的coser场照,于是使用AI绘画工具配合LoRA模型(一种微调模型),将素人的图片经过局部调整“炼”成了“掀裙子”的不雅照。


该投稿在微博公布后,转发量高达2.1万。



图源:春日矮男 via 微博


无独有偶,此前5月3日,博主DeadPrince在微博私信被告知,自己的自拍被陌生人制作成了LoRA模型上传到了绘画模型分享网站Civital,并且有人使用该模型绘制了裸照。


图源:DeadPrince



AI编写假新闻

2月16日,杭州某小区业主群内讨论ChatGPT,一位业主尝试用ChatGPT撰写了一篇假的新闻稿,大致内容为“自2023年3月1日起,杭州将取消限行”。随后这条假新闻就被不明所以的群成员截图传播,甚至上了热搜,最后警方介入调查,涉事业主公开道歉。


图源:浙江之声



AI冒充明星行骗

5月13日,据《每日邮报》报道,一家西班牙小电影公司Peabody Films收到英国著名男星“卷福”本尼迪克特·康伯巴奇的电话,电话里的“卷福”对电影剧本感兴趣,想合作拍电影。


但电影公司几次邀约他本人面谈,“卷福”都拒绝了,甚至还提出天价见面费,要该公司先汇款20万英镑再说。



由于感觉不太对劲,电影制作公司向“卷福”经纪公司确认,确认后才发现,这是一场AI骗局。


据电影公司工作人员介绍,如果仅从语音电话看,由于声音相似度高达100%,他们完全相信对方就是“卷福”。



AI换脸生成不雅视频

4月26日,网红“Caro 赖赖_”在微博发文称,自己被外网某社交平台“盗脸”,冒充注册她本人的假账号,并且粉丝只要付费就可以观看自己的不雅视频。


她同时还发现许多明星、博主甚至素人的图片都被制造成了不雅视频,以此途径获利,甚至还提供AI定制服务,使用在线网站的AI技术就可以做到“一键脱衣”。




AI“一键脱衣”


3月28日,“女子地铁照被AI一键脱衣传播”登上微博热搜,照片里的女士是一名小红书博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。


原图中她衣着正常,但却被有心之人使用AI软件“一键脱衣”,故意全网散播造成恶劣影响。事件发酵后,该博主已向有关部门进行维权。




AI内容难辨真假,海内外加大监管力度


由于AI技术的普及,各大社交媒体平台涌现大量AI生成内容,但AI生成的真人写实感图片和视频、难辨真假的文字稿件,如果你对AI技术没那么了解,很容易“上当”。


比如前段时间,有一位海外网友在Twitter平台发布了一组“时尚教皇”恶搞照片火了。图片里的“假教皇”脱下传统的教袍,换上时尚的白色羽绒服,非常容易让不明真相的路人误会这是真的教皇换装了,但其实是使用AI绘画工具Midjourney绘制的。


图源:@skyferrori via twitter


由于这组AI生成的图片太过“火爆”,以防路人误解,推特作为平台方,及时将图片标记上了“AI-generated”(AI生成)。



纵观海内外,近期有不少平台及时跟进针对AI内容的监管,发布了人工智能相关的规范和举措。


一、抖音发布《抖音关于人工智能生成内容的平台规范暨行业倡议》


该行业倡议其中的第九条至第十一条,提到了对AI生成内容进行标识以及将对虚拟人提供注册能力,并且会开放用户反馈渠道。



9. 平台将提供统一的人工智能生成内容标识能力,帮助创作者打标,方便用户区分。


10. 平台将提供虚拟人的注册能力,并对已注册的虚拟人形象进行保护。


11. 平台将提供用户反馈渠道,方便用户反馈违规生成内容。

相关文章: 《抖音新规落地!虚拟主播终于“合法”,但必须自曝身份、真人驱动》


二、小红书在笔记中添加AI创作标识


在4月底,有部分小红书用户发现,平台开始标记AI生成的内容,并请用户注意甄别真实度。


图源:网络


三、谷歌在2023开发者大会宣布为AI生成图片打水印


谷歌在最近召开的2023年开发者大会上宣布,将确保公司的每一张AI生成图片都内嵌水印,该水印虽然无法以肉眼识别,但谷歌搜索引擎等软件可读取并以标签显示出来,以提示用户该图片由AI生成。在未来的几个月内,这项功能将上线。


此外,我国在2021年就发布了《新一代人工智能伦理规范》,其中涉及战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。并且在今年3月,网信办发布了《生成式人工智能服务管理规定(征求意见稿)》,对生成式AI服务提供者的行为进行了规范,还包括用户权益保护、信息安全保障、技术安全保障等方面。


放眼海外,意大利政府在今年3月对ChatGPT实施了临时禁令,理由是担心它违反了欧盟的《通用数据保护条例》。5月16日,OpenAI的CEO Sam Altman也在美国参议院就AI技术的潜在危险作证,并且督促立法者对开发GPT-4等先进AI系统的组织实施许可要求和其他法规。


OpenAI CEO亮相美国国会山,呼吁监管AI 图源:网络


可以看到,目前这些侵害更多还是在信息领域。一方面从物料来看,是相对无主的公共信息,原本茶余饭后街谈巷议的东西,虽然有大量的虚假和臆测,但无非也就是从这个街头传到那个巷口,但就像社交媒体能把信息流放大,恶人们也可以用AI把浊流放大;另一方面从受害者来说,则大多是有口难辨的普通人,发声明也没人看,更很难去发律师函了。尽管法律法规以及平台都在跟进对AI技术的监管,但普通人的维权成本还是很高。


问题回到恶人,当他们藏身于网络背后,管住他们手里的刀成为一个必须去做的事。


ps.明天就是520



,作为一个浪漫的AI玩家,怎么能少得了玫瑰?


在“头号AI玩家”公众号后台回复关键词“520”或“521”,即可随机获得一幅由AI生成的盲盒玫瑰



随着人工智能发展,一些不法分子开始利用AI深度学习技术采集人脸图像,多次面部识别和匹配能够产生类人脸识别技术,最终会让你的自拍成为“不雅图素材库”的其中一部分,当你发现自己画风突变,往往已经晚了。
一、 AI 背后的隐私问题
当你裸露着躯体拍照片时,并没有意识到此时此刻你的照片可能会被 AI 带走。通过图片和人脸识别技术,AI 可以轻易分辨出照片中人物的性别、年龄等信息,进而匹配人物的个人信息。如果这些人脸数据库再和联网的人脸识别监控系统相连,那么你的隐私信息就会被大扫描,到处被记录、分析和使用,轻则影响你的工作找不到,重则会带来很大的社会、经济损失。
二、 网络防护需要升级
AI 视觉技术的进步与数据支持在整个人工智能系统中起着关键作用,基于这一前提,当你被视为“素材库”之一后,无论是哪一方面的信息,都可以成为黑势力收集信息的重要目标。如果你想保护好自己的图像资料,让AI无法获取信息,可以把所有不需要使用的图片、型号从互联网上删除或移动到空间驱动器等个人离线存储设备。
三、 AI和隐私的理性关系
当AI技术和个人隐私之间形成利弊的关系,我们需要权衡,冷静地理智看待。AI技术在肺癌诊断、人脸识别等领域达到了很高的应用价值,有效解决了社会发展中的各类问题。而对于AI收集我们自拍信息的问题,我们可以通过加强个人隐私保护意识,规范AI技术,利用法律和政策保护自己的隐私,并对人脸和身份信息收集有一定的了解。
结论:
AI技术的发展对我们的生活带来了积极的影响,但是也需要我们对AI技术有足够的了解和保护意识。在社交软件平台,我们要时刻提醒自己的认知,规范使用AI技术获得背后信息的方式,提高个人隐私保护水平,保护自己的权益。