取消
加载中...
AI克隆声音乱象:全红婵被虚假带货47000次
DorAemon 2025-09-11 15:38

AI配音技术被滥用,声音克隆成为网络乱象。短视频中出现奥运冠军全红婵“带货”卖鸡蛋的视频,其声音被AI克隆,商品购买次数高达47000次。类似情况还发生在孙颖莎、王楚钦等奥运冠军身上,他们均未参与任何代言和授权。


此前雷军也曾被AI仿冒恶搞,网络上出现大量虚假视频。国外也有案例,2024年美国乔·拜登的声音被克隆用于电话诈骗。AI克隆声音不仅用于假冒名人带货,还可能用于诈骗。调查显示70%的人分辨不出克隆声音和真实声音的区别,7.7%的人被AI克隆声音骗过钱。


骗子可通过社交媒体、软件授权、有声书兼职等渠道获取声音。我国已出台相关法律和监管办法,2020年《民法典》将声音纳入法律保护,2024年北京互联网法院判决首例保护语音权案件,2025年9月1日起施行的《人工智能生成合成内容标识办法》要求对生成合成内容添加显式标识。(36氪)


AI
DorAemon
文章总数
12046