警惕!AI生成网络谣言套路多
近两年,利用AI造谣事件层出不穷,严重威胁网络安全。那么,AI造谣都有哪些套路,我们又该如何甄别相关谣言?
网络谣言常见套路
无中生有、凭空杜撰
造谣者编造虚假事件,利用公众对热点事件的关注,虚构灾害、事故或政策变动等吸引人眼球。例如编造“某地发生地震、大量人员伤亡”等消息,实际并无此类事件发生。
扭曲事实、夸大其词
在真实事件基础上夸大细节,捏造伤亡人数、灾情严重程度等,营造恐慌氛围。例如将轻微火灾描述为“大火蔓延、多人遇难”,实际伤亡远低于谣言所称。
拼凑剪接、半真半假
混合真实素材与虚假内容,使信息看似有依据,实则是误导。如用旧照片或视频拼接成新的灾害现场,或在真实事件中添加虚假情节,如“某餐厅爆炸”实为影视拍摄场景。
AI伪造、仿真难辨
利用AI生成逼真的图片、视频或音频,伪装成官方报道或真实事件。例如合成名人演讲视频、伪造灾害现场,或生成虚假的权威声明,利用AI技术的高仿真性迷惑公众。
AI生成网络谣言特征
门槛低
相比此前造谣者需要靠人工捏造、散布谣言这一略显“原始”的方式,现在利用AI造谣者只需在AI工具输入关键词即可“一键生成”能以假乱真的文章、图片。
定制化
生成式人工智能通过多模态机器学习技术从数据中学习不同内容的生成特征以及主体的表达风格,在网络上抓取素材生成文本,形成定制化的文章、新闻、报告等信息。
识别难
AI的核心目标是模拟人类多感官协同认知,所以生成的虚假信息在形式上非常逼真,往往新闻要素齐全、内容完整,甚至可能包含图像和视频,这使得公众难以辨别真伪,这种伪装性和欺骗性让谣言更加具有迷惑性。
破坏大
利用AI工具制造谣言生成的图片、音视频极为逼真,颠覆了“有图有真相”的常规认知,蛊惑性极强,且短时间内就能快速传播,易引发社会恐慌,扰乱公共秩序。
如何甄别AI生成谣言
观察细节:许多AI生成的图片、视频中,可能存在边缘模糊、光线阴影不自然,人物的眼睛、头发、手指等可能处理得不够完美,透视关系也可能处理得不够自然准确等。
多方验证:不要依赖单一的信息来源,应从多个权威渠道获取信息进行对比。对于一些热点事件,可以检索官方媒体报道,验证信息的真实性。
使用工具:利用AI图片检测工具可以帮助识别图片是否为AI生成。
谨慎分享:在确定信息真实可靠之前,不要随意转发,以免无意中成为谣言传播的推手。
(综合自:公安部网安局微信公众号、央视新闻、互联网联合辟谣平台、重庆辟谣、腾讯研究院)




