风险研判|“炼化同事”“AI仿写”等AI乱象频发,潜藏多重风险

近年来,随着生成式人工智能技术的迅猛迭代,以数字分身、内容仿写、深度合成等为代表的AI应用加速渗透职场、出版、娱乐等领域,并在近期集中爆发一系列乱象。如,“炼化同事”生成AI数字分身、知名作家散文遭AI仿写入学生读物、明星被“偷脸”出演短剧等现象迅速走热。而其中潜藏信息泄露、就业冲击、文化生态破坏乃至诈骗风险。

01

相关乱象梳理

01

离职同事“炼化”成AI数字分身

综合“21世纪经济报道”“凤凰网财经”等报道,2026年4月初,GitHub开源项目“同事.skill”迅速走红。该项目通过采集员工飞书、钉钉、工作邮件、聊天记录等数据,提取工作方法、技术规范、沟通风格和性格特征,生成可调用的AI数字分身,用于模拟原员工的工作习惯和语言表达。网民调侃“昨天上班的同事今天就被炼化”“赛博永生当牛马”。值得注意的是,部分北京互联网企业已要求员工将工作经验、流程、技术细节及常见问题全面文档化、Skill化,为后续AI替代人工提前布局,从而显著降低人力成本。此外,还衍生出“前任.skill”“老板.skill”等多个类似项目。

02

知名作家散文

被AI仿写险入学生读物

综合“澎湃新闻”“现代快报”报道,2026年4月1日,茅盾文学奖得主、作家刘亮程在社交平台公开打假,指认某出版社计划编入中学生课外读物的署名文章《扫尘》系AI仿写,并非本人创作。该文章被标注为“节选自散文集《一个人的村庄》并有删改”,但刘亮程明确表示从未写过此文。刘亮程称,AI通过模仿其句式、用词习惯和叙事逻辑生成高度相似文本,并冒用其署名用于出版选编。中国文字著作权协会曾转来授权请求,出版社通过常规渠道沟通,但刘亮程拦截了该文入选的请求。他此前已注意到网上多篇署名其名的“金句”或短文为仿写或篡改,此次因涉及中学生读物而正式发声。

03

多位明星遭AI“偷脸”出演短剧

“红星新闻”报道,2026年4月,易烊千玺、邓为、张婧仪、龚俊等多名艺人工作室发布维权声明,指认红果短剧等平台存在大规模AI换脸侵权行为。部分短剧未经授权,利用深度合成技术将艺人面部特征精准嫁接至剧情内容,甚至制作恶意拼接、丑化人设的视频,如《午夜公车:她捉诡超凶的!》《诱君》等作品,其中部分短剧播放量近7500万,严重侵害艺人肖像权、名誉权,还对公众造成误导,让观众难以辨别真伪,损害艺人长期积累的形象价值。多家工作室明确要求相关平台立即下架侵权视频、停止生成与传播。

04

配音演员声音被AI克隆侵权泛滥

综合“南方都市报”“九派新闻”等报道,2026年3月以来,季冠霖、吕艳婷等数十位配音演员及729声工场等机构集体发布声明抵制AI声音克隆乱象。此前,知名配音演员吕艳婷(哪吒)、季冠霖(甄嬛)等声音被盗用于短剧、广告、恶搞视频,播放量破亿。据悉,在AI创作平台上,仅需上传3秒原声即可克隆音色,二手平台克隆服务50字收费不到1元。更严重的是,侵权者常通过融合多位演员声线、频繁更换账号等方式规避平台打击,导致维权取证困难、打击效果有限。

02

风险研判

01

就业领域AI数字分身应用存在

信息泄露隐忧并潜藏加剧失业风险

将离职员工训练为AI数字分身用于持续办公,存在多重严重风险隐患。具体来看,将个人私密聊天内容“投喂”给AI用于训练“数字分身”,或存在信息泄露隐忧,而若AI分身被滥用于敏感领域,或放大网络安全风险。此外,员工形象、声音、风格被永久数字化,可能被用于超出原工作范畴的场景,损害个人名誉与精神权益。值得注意的是,“同事.skill”等AI易代替职场上部分“初级岗位”,企业或出于压缩成本考量,裁减部分岗位,在一定程度上加剧失业冲击。

02

AI仿写文学作品情况泛滥

侵犯作者著作权、破坏文学创作动力

AI仿写知名作家作品并用于出版、教辅等领域,存在显著的著作权侵权与文化生态风险。具体来看,AI未经授权吸纳受版权保护的原文生成高度相似内容,侵犯改编权与署名权,且原创作者维权周期长、取证难,经济损失与声誉损害难以量化。同时,AI仿作缺乏真实思想深度,一旦进入学生读物,易误导青少年文学认知,降低审美素养。从长远来看,AI仿写泛滥将侵蚀文学创作动力,形成原创供给萎缩的恶性循环,阻碍文化市场的创作活力。

03

AI“偷脸”短剧批量生产

侵犯肖像权放大短剧市场无序竞争

利用AI技术合成明星肖像与声音制作短剧,存在肖像权、名誉权及市场秩序等多重风险隐患。具体来看,未经授权深度合成艺人面部与声音,构成直接侵权,损害形象控制权与商业价值。同时,标识不清的内容易误导观众,破坏平台真实性,损害用户知情权。在行业监管层面,该行为放大短剧低门槛竞争问题,劣质AI内容挤占优质资源,扰乱视听市场秩序。同时,技术滥用可能延伸至普通人,放大虚假信息传播风险,模型易被恶意利用,导致更广泛的深度伪造事件。

04

AI声音克隆低门槛滥用易被

用于诈骗等犯罪行为,放大治安隐患

AI声音克隆技术被滥用于短剧、广告等领域,存在声音权益保护、行业生态及公共安全等多重风险隐患。具体来看,少量样本即可高保真复刻,严重侵犯配音演员专有使用权,导致从业者收入锐减、职业空间被压缩。同时,未经授权的商业变现扰乱授权市场,打击声音艺术创作积极性。在内容安全层面,AI仿声易被用于虚假宣传、诈骗或谣言,放大社会治理风险。低门槛扩散还将导致普通民众声音被盗用,隐私边界被侵蚀。

03

对策建议

01

应加快专项立法进程

明确AI生成内容的权属认定、训练数据合规授权要求及数字分身、声音肖像等新型人格权益保护条款,降低维权门槛并提高违法成本。

02

强化平台主体责任

强制推行AI内容显著标识、水印溯源与生成日志留存制度,对短剧、文学教辅等高风险领域实施上线前AI检测审核机制,对违规平台依法从重处罚。

03

推动技术反制能力建设

支持开发高精度AI内容检测工具、声音与图像真实性验证标准。四是加强社会宣传教育,提升公众AI素养与维权意识,形成政府监管、平台自律、技术支撑、社会参与的协同治理格局,从源头遏制AI技术滥用。

相关新闻

联系我们

联系我们

0551-65322613

邮件:zxl@boryou.com

工作时间:周一至周五 8:45~17:45

公司资讯
公司资讯
舆情简报
舆情简报
分享本页
返回顶部