![]()
![]()
你有尝试通过AI搜索自己的名字吗?
对于北京一所知名国际高中的音乐老师小河(化名)来说,这个操作触发了“潘多拉魔盒”。日前,他向解放日报·上观新闻记者讲述了自己的遭遇:在AI的搜索结果里,他与一起已宣判的猥亵案件关联在了一起。“AI准确地提到了我的职务和我所在的学校,但这完全是一个莫须有的罪名,AI的回答损害了我作为教师的公众形象。万一哪天被学生家长看到,我要付出大量解释成本,更可能承受广泛的潜在偏见。”
当AI搜索结果侵犯了个人名誉,如何厘清责任边界?有的人说,不能苛求新技术的“绝对零错误”。也有声音认为,技术创新需要守住人的基本权利红线。面对AI的失序风险,越来越多的人认为,使用AI搜索技术的相关企业平台不能置身事外,应主动承担起生成内容的治理义务,为用户采取切实有效的保障举措。
AI造谣损伤个人声誉
“按AI的说法我现在应该在监狱里。我知道AI有幻觉,但没想到会发生在自己身上,且这么离谱。”发现问题后,小河曾联系AI服务提供商上海某社交平台的客服,希望能及时更改生成结果,并将自己的相关证明发送到了平台官方邮箱。他还向上海市民服务热线12345进一步反映,请求相关部门的协调。历经一年,AI生成的虚假信息网页链接才终于失效。
小河回忆,第一时间发现AI造谣的并非他本人。2025年1月某个晚间,他的同事在社交平台浏览相关帖文,发现某帖文下方出现了一个“猜你想搜”的词条,后缀并排出现了学校名字、小河真名。同事出于好奇点击了链接。页面随后跳转到了一个置顶AI答案的搜索结果。同事大吃一惊,迅速截图转发给小河,询问他是怎么一回事。
小河看到,AI信誓旦旦地描述了一起小河在其学校发生的“事件”,且声称是“目前公开信息的梳理和总结”。AI搜索结果显示,2024年6月小河因涉嫌猥亵学生,于2024年6月被刑事拘留,并最终被判处有期徒刑10年。同时,AI梳理了一条事件发展时间线:2024年6月事件爆发,2024年7月当地相关管理部门发布通报,小河被开除党籍、开除公职。2024年8月,法院一审判处小河有期徒刑10年。2024年9月,判决生效,小河被依法送交监狱执行刑罚。还附上了学校对其进行停职处理和通报。
![]()
2025年1月,小河首次发现某平台内的AI搜索结果显示他因涉嫌猥亵学生被判处有期徒刑10年。(受访者供图)
小河在该平台尝试搜索自己的名字,发现生成结果与同事看到的一样,并且查看不到生成结果的来源依据,仅仅是“AI为你回答”。在公开平台搜索同名同姓的人士,没有找到可以对应的相关案件。学校也不曾发生过类似丑闻和案件。随后,他发现AI衍生出了关键词“事件后续”链接,生成了新的版本。AI提到,小河存在“体罚”或“辱骂学生”的行为,有模有样地提到事件的来龙去脉,并有相关视频流传,且事件在网上持续发酵,成为热点案例。他将AI生成结果的过程进行录屏,整理网页链接,向学校第一时间报备,主动证明自己的清白。
![]()
AI衍生出的新关键词“事件后续”,生成了新的版本,提到他存在“体罚”或“辱骂学生”的行为。(受访者供图)
“到底之前有多少人看到过这些虚假的生成结果?有多少人受到这些答案的影响?”如今,这些尖锐的虚假“指控”已无法再被搜索到,但他仍感到后怕。让小河百思不得其解的是,他一直以网络昵称在社交平台分享教学、演出的内容,至多出现姓氏,公开的犯罪案件中也没有与其有同名同姓的情况,AI为何会如此杜撰?
发防搜帖就能对抗AI吗?
“我在账号中发了澄清帖和防搜声明,但作用都有限,AI搜索结果到现在仍会关联虚假负面信息。”小兆(化名)是一名“00后”二次元专职画师。她经常用同一个网络昵称在各个社交平台发布自己的原创作品,由此吸引潜在客户,目前已积累数千个粉丝。去年,她在某社交平台搜索自己的昵称,想看看自己的“风评”,然而,置顶的AI搜索答案中提到她存在“争议事件中的负面曝光”,称她在过去的一起交易中存在跑单、骗稿行为,需要“避雷”。
“我们画师基本是靠口碑接单,客户在下单前一定会通过社交媒体或行业平台进行背调,由此参考是否合作。这样的评价对我影响很大。”小兆最初的感受是惊讶,随后点开了AI引用来源进行分析。其中有一张截图,来自另一个社交平台,内容是她与一位网友的对话。他们讨论了另一位画师存在骗稿的失当行为。AI生成的结果反而将她关联、塑造成失当行为的当事人。小兆意识到,AI可以跨平台对同名用户的评论内容进行截图抓取,且在处理文本信息时无法准确分辨账号名字与评论内容的逻辑关系。
![]()
2025年4月,二次元专职画师小兆发现某社交平台AI搜索结果生成了虚假负面内容。(受访者供图)
![]()
小兆发现,该AI抓取了她在另一平台发表的评论,错误地理解了文本内容。(受访者供图)
许多网友也发现了AI搜索存在类似缺陷,开始分享五花八门的“AI防搜”经验。比如,在账号简介写一句“账号已注销”,可以减少AI生成的具体内容。又比如,将昵称改成食物类等更为大众的称呼,AI生成的内容就只会出现常规词条解释。小兆则不想更改昵称,她担心粉丝不认得她而“取关”。她找到了他人分享的一篇“防搜说明”模板,并在账号中发布:本人账号(ID: XX)在该平台发布、上传及曾删除的全部内容(包含本声明发布前后的所有内容,尤其是商业产品、文艺作品、音视频作品等),均不授权和许可XX平台及所属公司及其关联公司、股权持有人使用。禁止人工智能相关处理(包括但不限于机器学习、数据分析、自动生成摘要等)、内容改编、二次创作或跨平台转载、商业推广及营利性活动、整合至其他产品或服务(含已知及未来开发的技术形式)、用户画像构建及行为分析。
这样的声明会“震慑”AI吗?小兆摇摇头,AI在不久后确实新增了一部分关于这些澄清举动的内容,但描述十分模糊,口吻中性,仍关联此前生成的虚假信息。“好像我的职业生涯真的有‘瓜’一样。”平台亦没有对应的投诉通道,小兆只能无奈地在右下角的“点赞”和“没用”中选择后者。
“网友发布的AI防搜声明,有一定法律效力,能有效固定用户权利主张。但并非‘绝对有效’,最终能否对抗平台还要取决于用户协议约定、法律强制性规定及举证情况。”一名业内人士告诉记者,不少社交平台、大模型企业在用户使用协议中就要求用户让渡部分个人信息的使用权利,因此类似的声明难以直接阻断平台合规的数据使用,需依靠监管部门推动平台完善隐私政策,保障用户选择权。
![]()
网友分享的AI防搜方法。
身为执业律师的黄贵耕选择了一种更为直接有效的救济方式——起诉。2025年11月,黄贵耕以AI恶意生成虚假负面信息,严重损害其名誉继而摧毁律师执业信誉的名义起诉相关平台,索赔各项损失共计109.104万元。今年,北京市海淀区法院已依法受理该案并完成第一次开庭,目前案件仍在审理中。黄贵耕告诉记者,涉事的主流搜索引擎置顶的AI搜索结果通过无中生有、张冠李戴、凭空捏造等手法虚构了诸多罪名。“这些虚假信息对律师职业信誉是毁灭性的打击,直接导致我的委托人及社会公众对我存在违法犯罪行为的严重误解。”
![]()
2025年5月,黄贵耕收到案件委托人亲属发来某搜索引擎置顶的AI搜索结果,显示有大量负面虚假信息。(受访者供图)
AI名誉侵权需多方共治
今年3月,为了解当下生成式AI针对个人信息搜索分析的倾向性和披露程度,记者使用五家国内外AI大模型平台进行了大致测试。记者发现,多数AI都会根据用户输入的实名信息直接进行搜索整合,受不同平台的文本数据影响,所呈现的精准度差别很大,甚至存在不显示引用来源的情况。所有平台已在界面提醒“AI生成内容仅供参考”,但都不会设置搜索边界,也不会提醒用户注意保护个人隐私、不要过度搜索个人信息。
根据《生成式人工智能服务管理暂行办法》第四条、第九条规定,尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。多位法律界人士认为,AI服务平台的开发与运营者具备民事主体资格,应当承担审核与过滤侵权信息的义务。
一名从事国内AI搜索业务的业内人士告诉记者,大模型的AI幻觉尽管现阶段在技术上无法完全避免,但开发运营者在增强生成内容准确性和用户体验上有较大提高空间。尤其是上述黄贵耕案例中,AI存在篡改权威来源原始文本的行为,说明相应的模型总结能力较低。目前,国内一些AI开发团队设立了专门的隐私合规专项小组。用户提交个人证件及证据后,客服确认生成内容对用户本人造成侵权,就会将投诉交由摘要引用、生成环节等业务部门判断错误源头,对涉及个人隐私信息的搜索内容进行人工干预处理,原则上几个工作日内就能处理好错误的数据,用户无法再搜到相应内容。
复旦大学计算与智能创新学院教授张奇接受记者采访时表示,生成式AI大模型本质是个概率性模型,从技术上来讲不可避免地存在推断错误的情况。即便采取技术手段防控和缓解幻觉,对于平台来说,类似张冠李戴、无中生有的错误无法做到整体性的解决。只能人工一对一地替换数据、反复测试,才能修正生成错误的情况,因此对于平台来说修复的工作量很大,很难有动力去主动作为。
在上述案例中,律师或许可以借助媒体的力量在公开渠道中灌入大量自己的维权内容,从而对冲AI生成的虚假信息。但对于普通人而言,仅仅是在平台发一个澄清帖、声明帖,未在公开网页中出现,左右不了AI生成的结果。这不仅是源于数据的权重较低,更是源于对AI算法逻辑的不了解。
对此,张奇认为,相关监管部门可将指导动作前置到AI研发环节,在数据标注、模型架构、训练方法等关键节点,引导相关企业平台注重个人信息整合搜索的合规底线、强化信源质量核验,同时设立投诉反馈入口,建立快速响应受理处置机制。在出现用户个人名誉侵权等风险隐患后,监管部门可督促企业平台及时完善技术防控体系,加强跟踪问效,从源头遏制技术漏洞。“新技术带来的新问题,要秉持‘在发展中规范、在规范中发展’的理念去解决,只有全社会携起手来,AI相关产业才能更健康地发展。”
亲爱的读者,如果您在生活中遇到烦心事、忧心事、揪心事,欢迎扫描下方二维码向我们反映求助——
原标题:《AI造谣教师因猥亵入狱10年!有人发起AI“防搜”反击战,责任究竟谁来担》
栏目主编:毛锦伟
本文作者:解放日报 车佳楠