2025 年,新一代人工智能从实验室走进人世间。网上网下,人人都在谈大模型、个个都在议黑科技,从 DeepSeek 应用到 " 杭州六小龙 " 的思考,AI 话题已经和柴米油盐一起,成为寻常生活里的日常。不过,AI 虽好,它也是一把 " 利刃 ",用好了快刀斩乱麻,用坏了也是伤筋又动骨。最基本的一个逻辑是:由于 AI 在进行深度学习与内容生成时,是基于现有的互联网内容,若其获取的信息存在问题,那么,它生成的内容因此牵连。
水浑浊,源不清。我们不妨看几个具体的案例:比如,近期网络上流传 " 覃悦晴于 2025 年 2 月 23 日被活埋 " 的谣言,并结合 AI 生成内容试图渲染恐慌情绪,后经核查为假,网传图片为旧闻图片。又比如,"80 后死亡率已超 70 后 " 的假消息引出 "AI 幻觉 " 问题,AI 生成内容的真实性、可靠性常存疑。据南都大数据研究院不完全统计,2024 年搜索热度较高的 50 个国内 AI 风险相关舆情案例中,超 1/5 与 AI" 造谣 " 有关。
正本清源,才能渠清如许。2 月 21 日,中央网信办发布 2025 年 " 清朗 " 系列专项行动整治重点。明确提出整治 AI 技术滥用乱象,突出 AI 技术管理和信息内容管理,强化生成合成内容标识,打击借 AI 技术生成发布虚假信息、实施网络水军行为等问题,规范 AI 类应用网络生态。虚假信息及网络谣言在 AI 的加持之下,其杀伤力呈现出几何级的变化。一个共识可能会越发清晰:生成式 AI 技术加剧了网络谣言的欺骗性,权利受损的个体维权需投入大量时间与经济资源,维权成本越来越高,治理谣言须法律与技术双重干预。
今天,全球人工智能技术发展已从科学家推动转为研发应用推动。于是,一个怪圈日渐成型:网络灰黑产等不断给 AI" 投喂 " 大量虚假或劣质信息,而 " 迷信 "AI 的人则借助这个 " 超能生产工具 " 生产出大量不经考证的信息产品。这些谣言类的信息产品一旦贴上平台或者媒体的标签,又深度 " 投喂 " 给 AI 的数据库,最终,我们就深陷在谣言等虚假信息的茧房之中。学界频频提及的 "AI 幻觉 " 与 " 机器欺骗 ",指的就是 "AI 会胡乱拼凑或虚构一些事实,让其生成的内容显得合理、自洽 "。一方面是 AI 自己本身就有 " 胡编乱造 " 的 " 本事 ",另一方面是别有用心的人给 AI 塞进海量的网络谣言,可想而知,这个怪圈的破坏力之于亿万网民来说,无人幸免、无可幸免。
AI 不是神仙,独立思考不能躺平;AI 类谣言不是玩笑,公共治理不能旁观。
AI 越是发展,数据真实越发要紧。换言之,被污染的真实信息在 AI 魔幻式 " 调教 " 之下,已然是触及网络信息安全的核心命题。当下,人工智能从感知向认知、从分析判断式向生成式、从专用向通用转变,进入快速发展的新阶段。人工智能技术和应用迅猛发展,已经深入到经济社会的方方面面。因此,确保内容的质量和真实性尤为重要。正因如此,两件事情可谓当务之急:一是互联网信息库当为 AI 提供 " 清洁能源 ",尤其是作为主流媒体,要时刻注意避免内容输出的导向风险,努力向互联网注入大量权威、事实准确的内容,为 AI 提供丰富且优质的语料库。二是监管部门须革新监管手段,提升监管力。" 第一责任人 " 的平台监管力度亟待进一步提升,持之以恒地打击黑灰产账号,严控 AI 生成内容对社区的影响。
机器永不眠,科技无止境。有人因 "AI 主播 ""AI 医生 ""AI 公务员 ""AI 面试官 " 的上岗而倍感焦虑,但更多人深信人文关怀、复杂决策、价值判断等领域 " 人 " 的独特力量。抛开科技伦理与未来畅想不说,要让新一轮技术革命真正驱动世界的发展,我们不妨从 " 小处 " 做起:站在信息安全的高度,用行业自治与监管执法的双向力量,尽责尽力地为 AI 信息库激浊扬清、正本清源。
发表评论