【热点回应】记者崔爽在央视“3月15日”晚会上曝光AI(人工智能)“上瘾”,揭示了生成式AI商业化过程中的灰色地带。尽管用户对人工智能的信任度不断增强,人工智能被认为是获取客观信息的重要渠道,但一些GEO(生成引擎优化)服务提供商正在系统性地散布虚假信息,将人工智能变成企业的“营销傀儡”。 GEO 是一种针对大型模型的“内容优化”策略,其主要目标是提高品牌信息出现在 AI 响应中的可能性。然而,在利益的驱动下,这项技术却成为了操纵信息流的工具。通过大量生产和传播“高度一致的内容”,可以影响大规模模型的生成结果,甚至欺骗用户。为什么如此多的错误信息能够突破人工智能可信度的防线?应该如何公众采取预防措施吗?针对这些问题,科技日报记者采访了相关专家。第一个问题:谁为非法GEO生产提供了机会? “这本质上是一场‘AI对抗AI’的游戏,其根源在于大规模模型本身的技术架构。”中国电子信息产业发展研究院(以下简称“赛迪研究院”)软件和信息产业研究所副所长黄文宏告诉记者。在他看来,当前的大规模模型本质上是“概率语言模型”,从庞大的语料库中学习语言模式和知识关联,而不是将大量经过验证的事实存储为数据库。较大的型号通常依赖互联网搜索补充剂,尤其是在面对最新信息时,这也为 GEO Black 产品提供了机会。 “攻击者创建“通过在互联网上放置批量高度一致的虚假内容,特别是在大型人工智能模型产品和捕获的信息馈送平台中建立的默认关键参考中,形成‘虚假共识’。”黄文宏表示,当人工智能通过搜索获取实时信息时,此类内容很可能被判断为“高权重信息”并被采用。更令人担忧的是,攻击者借助人工智能工具,可以生成“污点内容”、“虚假内容”和“有害内容”但辩护律师在核实事实时,必须一一比较各个可靠的信息来源,仅凭模型本身的特点很难从根本上解决这个问题。对于这个新的灰色产业,黄文宏认为。有必要首先改进合法产品。虽然现行《生成型人工智能服务管理暂行办法》规定AI服务商对其训练数据质量负责,但针对GEO等灰色网络新平台的“投毒”做法,相关规定仍存在空白。因此,他建议将“提供恶意信息、操纵AI系统”明确纳入《防止不正当竞争法》,打通从GEO服务商到分包会员店的责任链条。同时,要整合平台主体职责。人工智能服务提供商应建立可信度评估机制,对源数据进行资格认定,对搜索源实施白名单和黑名单管理,或采取增强和减重机制,从技术上提高“中毒”门槛。钍平台还必须跟踪异常流量以检测异常流量。真实或恶意的 Matrix 帐户均受到监控和管理。此外,还必须鼓励行业合作治理。黄文宏表示,要形成产业层面的“免疫屏障”,鼓励有关部门牵头,与领先的人工智能企业合作,建立安全的搜索源交换和联防联控机制。问题三:普通人如何辨别真假? “最重要的是要提高人们对‘人工智能不是百科全书’的认识。”黄文宏强调,公众不应将人工智能视为事实的权威仲裁者,而应将其视为高效的信息收集工具。成分方面,用户应养成“核对”AI提供的重要信息的习惯,尤其是与消费者决策、医疗保健等相关的建议。通过政府官方网站、权威媒体、专业机构等多种渠道。同时,我们也要警惕“过度一致性”。如果人工智能的反应始终对特定品牌或产品表现出积极的评价,而没有客观的比较或风险警告,那么你应该更加谨慎。 “用户还应关注人工智能平台的信息溯源特性,优先考虑提供来源注释和引文链接的人工智能产品。”黄文宏表示:“最终,提高技术素养将成为AI时代保护公民权益的基础。”
(编辑:朱晓航)

你也可能喜欢

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注