摘要:歌手陈奕迅因感染新冠导致演唱会延期,岂料没几天,其去世的消息传得沸沸扬扬。近日,相关人士紧急辟谣此为“假消息”,有记者查询发现,该谣言的源头是YouTube上某账号发布一则长达9分27秒的视频,内容基本为拼接该明星旧照+AI配音。
歌手陈奕迅因感染新冠导致演唱会延期,岂料没几天,其去世的消息传得沸沸扬扬。近日,相关人士紧急辟谣此为“假消息”,有记者查询发现,该谣言的源头是YouTube上某账号发布一则长达9分27秒的视频,内容基本为拼接该明星旧照+AI配音。
“人在家中坐,谣言AI来”。这样的案例并不少见,公众人物更是备受其害。前几天,一对演员夫妇工作室还在发文打假,声明那些所谓他们推荐的“养娃秘笈”“长高攻略”均为杜撰,提醒大家不要上当。更早前,某资深演员也震惊发声,“画面是我,声音很像我,但其实不是我”。利用公开视频搭配不同文案,再加AI对口型,造假者借名人形象和语音博取眼球收割流量,令人防不胜防。
从“无图无真相”到“无视频无真相”,再到如今有视频也难言真相,技术发展的突飞猛进给社会带来巨大便利,也滋生了新的治理难题。越来越多的事实显示,AI谣言俨然被全方位“赋能”了,不仅制造成本大幅下降,其数量级和传播力亦大大提升。譬如一篇“新闻报道”,只要给出关键词,几秒钟就能生成,且包括事件经过、评论观点、后续做法、背景音乐等丰富要素。尽管是“无中生有”,但“AI幻觉”还会基于模型设计,根据缺失信息自动编造看上去“合理”的细节。如此次歌手陈奕迅的谣言,视频言之凿凿“高雄去世”、“台湾‘疾病管理处’已发布消息”、“大批歌迷赶往追悼”,实难分辨真伪。
如何有效应对AI谣言,是推动科技向善的重要课题。着眼于曝光的种种乱象,一段时间以来,各项制度法规不断完善。比如《人工智能生成合成内容标识办法》明确要求AI生成必须带标识,相信能起到一定的约束作用。但话说回来,造谣的虽是AI,背后操弄牟利的还是人。在推动技术进步的同时,管理的精细度和力度仍要持续增强,才能让每一个AI使用者都心有敬畏。
在人机交互频繁的世界,清醒头脑显得尤为珍贵。随手“转发”多加思量,“评论”事件基于事实,普通人尤应如是,担负传播之责的大小媒体更当如此。
来源:长安观察一点号