AI污染是指生成式
人工智能生成、伪造或篡改
文本、
图片、
音频和
视频,产生大量粗制滥造、真假难辨的“信息垃圾”的行为。
常见现象
在某些热门社交平台上,充斥着大量AI生成的虚假账号;
某小说平台的账号,依靠AI“创作”,一天可更新50部小说,月更字数上千万,但行文常常逻辑不通、辞藻空洞;
AI内容创作甚至亮相学术界,某顶尖高校学者在SCI发表的论文,因插图为AI生成,且错误百出,仅发表3天被撤稿,沦为学界笑柄……
相关影响
生成式人工智能可以根据人的指令生成不存在的内容,极易被用于自动生成虚假新闻和谣言。深度伪造技术(DeepFake)正快速发展,图片伪造、音频合成和视频换脸在生成式AI的帮助下变得轻而易举,这些虚假内容能够以逼真的形式迅速传播,带来严重的社会影响。
清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。美国调查机构“新闻守卫”称,生成虚假文章的网站数量自2023年5月以来激增1000%以上,涉及15种语言。一些专家认为,AI制造的“信息垃圾”产量庞大,且辨别难度较大、筛选成本较高。
传统版权通常归属于创作者或创作者雇主,但AI版权可能归属于训练数据的提供者、算法开发者、系统操作者甚至最终用户,这导致新闻、出版机构在面对科技企业推出的AI工具整合新闻和内容时,可能损失相关流量和广告收入。
应对策略
应加大对AI学习和生成机制的源头治理。明确AI平台对源头素材的把控责任和对生成内容的监管责任,完善AI内容生成规则,强制对AI生成内容打上显著标识,提升AI技术的透明度和可解释性。
加强对AI生成内容的筛查监管。有关部门及企业需将监管重点放在对AI生成内容的筛查及审核上,可开发相关的审查算法,规范生成内容向舆论场的流入及传播途径,及时发现并删除低质量或虚假内容。
提高用户对AI生成内容的辨别能力。网民应理性对待互联网信息,增强防范意识和识别能力,可使用反向搜索工具,检查内容来源和作者信息,分析内容的语言和结构特征,从而鉴“伪”鉴“劣”。