期货日报
肖佳煊
2026-03-18 07:35
证券时报记者 吴瞬
当“龙虾”(OpenClaw)席卷网络,多方担忧其安全性之际,又曝出生成式引擎优化(GEO)给AI大模型“投毒”。在AI技术狂飙之下,AI风险正以更隐蔽、更具破坏性的方式出现。如何为狂飙的AI技术装上“安全阀”、扎紧安全篱笆,成为AI时代必须直面的命题。
AI风险,本质是技术发展与伦理治理、监管体系的失衡。一方面,一些AI公司奉行“速度优先”忽视“安全优先”,在技术狂飙之际,给不法分子留下了操作空间。如“龙虾”的开源社区缺乏严格的技能包审核机制,导致恶意插件轻易混入;AI大模型训练数据的来源与审核机制不透明,给“投毒”留下可乘之机。另一方面,传统监管模式滞后于技术迭代,往往在风险显现后才被动应对,形成“能力已到、治理未到”的真空期。
因此,首先要为技术创新划定安全边界、筑牢可持续发展的根基。比如防止“投毒”,势必对AI大模型公司提出更高、更具前瞻性的风险防范要求,采用数据必须具备可解释性、可追溯性,确立更高标准的审核门槛,从源头防范“投毒”。
其次,要构建“多方协同”的治理体系。相关部门需加快完善数字技术相关法律法规,明确平台、用户的责任边界,对于“投毒”、恶意利用开源工具等行为加大处罚力度;行业协会应制定统一的技术伦理规范与安全标准,引导企业自律;科研机构与专家需加强技术风险研究,为监管提供专业支撑;公众则要提升数字素养,理性使用技术工具。
最后,技术发展永无止境,风险形态也在不断演变,需建立快捷的风险监测与预警机制,如各部门对“龙虾”发布安全预警就是防患于未然的典型举措。
不过,扎紧技术狂飙的安全篱笆,绝非遏制创新。唯有在创新与安全之间找到平衡,才能让技术狂飙始终行驶在合规向善的轨道上,真正成为推动社会进步的动力,而非威胁公共利益的隐患。