问题——信息投放“可塑造推荐”,新兴消费出现隐蔽风险; 今年3月15日晚,央视3·15晚会对多类消费领域乱象进行曝光,其中提到“生成式引擎优化”技术被滥用:部分服务商通过批量制造虚假信息、撰写软文并多渠道发布,再以系统化方式向大模型有关平台“投喂”内容,从而影响问答与推荐结果。调查案例显示,业内人士网购相关优化系统,虚构某智能手环信息并生成多篇宣传文章发布后,多个大模型平台询问“手环推荐”,虚构产品竟出现在靠前推荐之列。此类“推荐可被操控”的现象,使消费者在搜索、咨询、比价等环节面临更隐蔽的误导风险。 原因——标准缺位与逐利冲动叠加,平台治理滞后。 业内研究机构指出,“生成式引擎优化”仍是年轻赛道,行业标准化程度不高,效果衡量指标尚未统一,服务质量与结果高度依赖平台规则、服务商能力与资源渠道,这为夸大宣传、以量取胜、甚至恶意造假提供了空间。此外,大模型应用的使用门槛降低,内容生成与分发成本显著下降,虚假信息能以更快速度扩散;部分平台对外部投放内容的来源核验、引用标注、风险提示等机制仍有不足,客观上增加了被“信息污染”的概率。逐利驱动与治理短板相互叠加,放大了新型误导的现实危害。 影响——误导购买决策,挤压公平竞争,并带来安全与隐私隐患。 对消费者而言,大模型问答越来越成为“消费导购入口”。一旦推荐结果被操控,消费者可能购买到并不存在或质量难以保障的产品,造成资金损失与维权成本上升;即便产品真实存在,也可能出现“劣币驱逐良币”,使合规经营者在流量竞争中处于不利位置,破坏市场公平。更值得关注的是,近期以“能自主执行操作、完成任务”为卖点的智能体类应用快速兴起,便利性增强的同时,若在授权管理、数据调用、操作链路审计诸上缺乏约束,可能引发误操作、敏感信息外泄、账号被不当使用等风险。天眼查数据显示,截至目前我国人工智能相关企业超过510万家,广东、北京、江苏数量居前,分别约78万余家、41万余家、39万余家,其中约1.09%的相关企业曾出现经营异常。产业规模迅速扩大之际,市场主体良莠不齐,更需制度与行业共同“补课”。 对策——把好“入口关”“授权关”“计费关”,多方协同治理。 消费者层面,中国消费者协会此前提示,相关智能体产品仍处于技术迭代阶段,复杂任务成功率有限,应警惕夸大宣传。具体而言:一要严格控制系统权限,尽量采用隔离环境部署,谨慎授予通讯录、相册、定位、支付等敏感权限,防范误操作和越权调用;二要弄清费用结构,关注订阅续费、按次计费、增值服务等规则,设置消费上限,拒绝不合理格式条款;三要尽量从官方渠道下载与购买服务,核对服务承诺与适用范围,留存合同、订单、聊天记录等证据,关注数据合规与个人信息保护要求。 维权路径方面,如遇虚假宣传、信息安全、计费争议、服务保障缺失等问题,可依次采取与经营者协商、申请平台客服介入、向相应机构投诉、通过法律途径维权等方式处理。 平台与企业层面,应强化内容来源核验、引用标注与风险提示,完善对异常投放、批量造假、诱导交易等行为的识别处置;服务商应守住合规底线,杜绝“虚构产品—制造口碑—操控推荐”的黑灰链条;行业组织可推动建立更清晰的服务边界、效果评价与责任追溯机制,以透明化减少信息不对称。监管层面可结合新业态特点,推动广告标识、算法透明、数据安全等制度衔接,形成可执行、可追责的治理闭环。 前景——让技术回归服务本质,以规则护航创新。 大模型与智能体应用正加速进入消费场景,既是产业升级的新机遇,也是治理能力的新考题。可以预期,随着标准体系完善、平台治理加强、合规成本显性化,依靠造假“投喂”牟利的空间将被压缩,真正具备产品力与服务能力的企业将获得更大市场回报。未来,推荐机制的可信度、数据使用的透明度、授权链路的可审计性,将成为衡量新技术能否赢得用户信任的关键指标。
新技术带来便利的同时也提出了新的治理要求;消费者需要理性选择——企业和平台应当诚信经营——行业需要加快标准化建设。只有建立在真实、透明与安全基础上的创新,才能真正惠及大众,推动产业健康发展。