AI换脸直播AI视频造谣 短视频平台内容莫轻信

[日期:2024-06-03] 作者:信息技术 次浏览 [字体: ]

生成式AI近年来发展迅速,人们用一段话甚至几个关键词,就能迅速生成文字、图片甚至视频。在各种视频平台,用AI工具制作的视频已随处可见。生成式AI给创作者带来便捷,也让居心不良的人造谣门槛降低。在短视频平台不仅出现了利用AI生成视频进行造谣,更有账号窃取乌克兰网红的形象通过AI打造虚拟人直播。

案例一:俄罗斯女孩还是乌克兰女孩?

近日,一名乌克兰网红在个人社交账号发布视频,称她发现自己的容貌、声音出现在中文网络,在多个不同账号上,以俄罗斯姑娘的身份表达对中国的喜欢,并售卖俄罗斯糖果等商品。


资料图源:乌克兰网红奥尔嘉辟谣

“有人在中国克隆了我。”奥尔嘉(Olga Loiek)说。实际上,她并未从这些商品中获利,复制她音容的账号粉丝甚至比她自己的还多。

在奥尔嘉的讲述中,这些以她形象出现的“俄罗斯姑娘”,变身为娜塔莎、安娜、叶琳娜……等多个名称,她们自称在中国生活多年,希望嫁给中国男人,接着她们便会向观众介绍俄罗斯特色产品,诸如巧克力、糖果等,点进链接便可购买。

其中一个名为“娜塔莎进口食品”的账号粉丝量达14万,而奥尔嘉本人的粉丝量仅1万多。AI换脸几乎做到以假乱真,甚至有人在评论区表示祝福,或询问她“更喜欢哪个城市”。

奥尔嘉对此感到愤怒,并向各大中国社交媒体申诉反映,但称隔了好几个星期却还没有回应,因此她决定在其账号上公开拆穿此事。目前小红书平台已屏蔽了此类虚假账号。

案例二:AI造谣起火——法官:有期徒刑安排

除了虚拟人带货这种擦边手段,也有些人秉持着“风浪越大,鱼越贵”的理念,为了博眼球、蹭热度,将人工智能技术用以编“伪消息”造“假报道”。

2023年6月,一条名为《浙江工业园现大火浓烟滚滚,目击者称有爆炸声!》的视频在网络上流传,引发网友关注。后经相关部门核实为谣言。


资料图源:绍兴网警

据调查,当事人为给自己账号涨粉引流,获取更多利益,通过非法渠道购买了AI视频生成软件。该当事人将网络热门话题通过AI自动生成视频产品,并上传至多个热门视频平台。

截至案发,相关当事人发布的虚假视频多达20余条,涉及浙江、湖南、上海、四川等多个省市,累计阅读观看量超过167万次。目前浙江绍兴上虞法院已开庭审理并当庭宣判了这起案件,两名被告均被判处有期徒刑。

AI给自媒体创作行业提供了便利,节省了时间,提高了工作效率。但是也有不法之徒借机利用AI生成的不实信息扰乱公众视线吗,谋取私利。这就像之前短视频平台上十分流行的“毒鸡汤”、“假科普”一样,通过虚假信息,错误言论吸引眼球,让人偏听偏信,不少中老年人对这些错误言论深信不疑。

那么,我们该如何防范这些AI生成的虚假信息呢?笔者认为有以下几点:

1. 保持警觉和理性思考:AI生成的谣言往往会夸大事实,制造紧张氛围,以吸引人们的注意力。只要保持警觉理性地思考,往往能发现其中端倪;

2. 多方求证和交叉验证:由于AI在处理信息和生成文本时可能存在局限性和偏差,因此生成的谣言中往往包含错误的事实或数据。我们可以通过查阅权威媒体、官方渠道或专业机构发布的信息,与多个来源的信息进行对比和验证,来发现这些错误;

3. 利用技术手段辅助辨别:借助一些技术手段,如反向图像搜索、文本比对工具等,可以帮助我们识别出AI生成的谣言。这些工具可以帮助我们查找信息的原始来源、比对文本内容等,从而揭示谣言的真相。

最后,笔者还是要提醒大家:AI欺骗成本低,短视频平台内容消息需多加甄别,切勿轻信。