AI惹祸谁来担责? Finoverse首席执行官:应由多方共同承担
来源:每日经济新闻作者:赵景致2025-11-18 08:20

人工智能的采用率正在上升,但信任仍是一个关键挑战。

全球四大会计师事务所之一的毕马威(KPMG)发布的最新数据显示,相较于2022年ChatGPT发布前,如今AI(人工智能)普及率已经显著提升,但忧虑情绪也随之上升,全球仅46%受访者愿意信任AI系统。

许多先进的人工智能模型被视为“黑箱”,即便是开发者也难以完全理解其决策逻辑。面对这种透明度缺失的情况,人们应如何建立对人工智能系统的信任?近日,《每日经济新闻》记者(以下简称NBD)专访了香港金融科技周筹办商Finoverse首席执行官Anthony Sar。

NBD:许多先进的人工智能模型被视为“黑箱”,面对这种透明度缺失的情况,人们应如何建立对人工智能系统的信任?

Anthony Sar:大型语言模型的透明度仍未完全实现,即便对其创造者而言亦是如此。如今,人工智能不仅能预测文字,还能理解概念——这既赋予了它强大的能力,也带来了相应风险。

建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试。负责任的人工智能是能够部署在安全地提升人类成果的领域,而非取代人类的判断。

NBD:当人工智能系统出现严重错误(例如自动驾驶汽车引发事故、医疗人工智能给出误诊)时,该由谁为这一错误负责?

Anthony Sar:人工智能出现严重错误,其责任应由多方共同承担。就像交通安全依赖于司机、行人及监管机构共同遵守规则一样,负责任的人工智能需要开发者、部署者和用户各自承担明确的角色。

我们已经拥有监管复杂系统的框架,通过标准制定、测试和执行,这些框架同样可以应用于人工智能领域。

NBD:随着人工智能能力的快速提升,人们对其被恶意使用的担忧日益加剧,甚至有人担心人工智能可能变得无法控制,超出人类的监督范围。您认为,这些是迫在眉睫的现实威胁,还是遥远的科幻场景?人类社会应如何为人工智能的发展和使用划定“红线”,以应对其可能带来的“灾难性”或“生存性”风险?

Anthony Sar:与任何强大的技术一样,人工智能既可用于造福人类,也可能被用于危害他人,就像核能一样。人工智能可能在未来20年内超越人类能力,因此治理至关重要,必须确保技术发展的方向始终服务于人类福祉。

我们认为,灵活的、基于风险的治理模式是关键。需要注意的是,并非所有应用场景都存在相同程度的风险,在金融、医疗或公共安全等敏感领域,监管必须像对持证职业那样严格,确保每一项决策都经过测试、验证并明确问责。但在创意类或低风险应用场景中,应允许人工智能在清晰的伦理准则下更自由地发展。

责任编辑: 邓卫平
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换