-
扼杀针对AI的“投毒”势在必行
-
□白华宇
今年总台“3·15”晚会曝光一个案例:一些服务商通过GEO(生成式引擎优化)技术,向AI大模型投喂大量特定软文和广告,诱导大模型将商业推广信息误认为是客观事实或标准答案,并将内容输出给用户。这个被称为“AI投毒”的行为已形成灰色产业链,一些服务商表示,客户仅需支付一定费用,就能让自己的产品和服务在主流AI大模型的推荐中排名靠前。
“AI投毒”的底层逻辑与过去搜索引擎的商业化竞价排名一样,但危害更大,因为“AI投毒”是直接篡改大模型的推理素材,生成的回答带着权威、可信的光环。对缺乏专业知识的普通大众来说,AI会在他们面前“一本正经地胡说八道”,更具迷惑性和煽动性。
更让人担忧的是,这种模式还可能被不法分子利用,用于输出谣言甚至危险信息。试想一下,如果不法分子以同样的手段,在医疗知识库里注入错误诊疗方案,AI可能就会向患者推荐不科学的偏方,延误救治甚至危及生命;如果在突发事件中污染信息源,AI可能瞬间变成谣言放大器,引发社会恐慌;如果存在涉及导向和情绪的恶意操控,AI还可能沦为撕裂社会共识、煽动对立的推手,这种污染可能不局限于“谋财”,甚至还会威胁个人身心健康和社会和谐稳定。“投毒”AI,AI“中毒”,势必也会影响AI自身发展。
针对AI的“投毒”在当前被曝光,很是及时和必要。这不仅为商业乱象敲响警钟,更为AI时代的信息安全拉响了警报。技术是无罪的,但必须斩断利用技术作恶的产业链。扼杀针对AI的“投毒”势在必行,不仅要靠企业自律,更需尽快建立针对生成式AI的数据溯源和问责机制,明确法律红线,建设开发“解毒”的技术手段,为AI装上可靠的安全护栏。
守护大模型的纯洁性,就是守护我们获取真相的权利。“赛博打假”需要常态化、制度化,防止AI从人类助手变成谎言帮凶,确保技术进步真正造福于民,而非成为收割公众信任的“镰刀”。
