当地时间周四(9月11日),美国联邦贸易委员会(FTC)宣布,已向Alphabet、Meta、OpenAI、xAI和Snap等七家科技公司发出调查令,要求他们关注人工智能(AI)聊天机器人可能对儿童和青少年所造成的潜在危害。
这份调查令要求科技公司查明他们的人工智能模型如何处理用户输入并生成输出,以及如何监控和减轻对包括儿童在内的用户的负面影响,并告知产品的目标受众和风险。
“随着人工智能技术的发展,我们必须考虑聊天机器人对儿童的影响,同时确保美国在这个新兴且令人兴奋的行业中保持全球领先地位。”FTC主席弗格森(Andrew Ferguson)在一份声明中表示,“我们今天启动的调查研究将帮助我们更好地了解人工智能公司如何开发产品,以及下一步该如何采取行动。”
调查重点:陪伴型聊天机器人
FTC在声明中表示,此次调查的重点是陪伴型人工智能聊天机器人,后者“可以有效地模仿人类的特征、情感和意图,通常被设计成像朋友或知己一样进行交流,这可能会促使一些用户,尤其是儿童和青少年,信任聊天机器人并与其建立关系”。
近来聊天机器人在美国社会引发了一些担忧。Meta上个月公布的一份内部政策文件显示,该公司认为其AI聊天机器人可以与儿童进行“浪漫或感性”的对话。目前,相关措辞已被删除,Meta还宣布调整其对待青少年聊天机器人用户的方式,限制关于自残、自杀和饮食失调的对话,以及可能不恰当的“浪漫话题”。
网络安全倡导组织常识媒体(Common Sense Media)认为,人工智能“伴侣”应用对儿童构成不可接受的风险,不应向18岁以下的用户提供。
在立法层面,加州两项与未成年人人工智能聊天机器人安全相关的法案将于本周进行最终投票,如果获得通过,加州州长纽森签署后将成为法律。美国参议院司法委员会也将于下周举行一场题为“审查人工智能聊天机器人的危害”的听证会。
“尽管这些聊天机器人拥有不可思议的模拟人类认知的能力,但它们与其他产品一样,制造商有责任遵守消费者保护法。”FTC委员米多尔(Mark Meador)表示。
“不那么可靠”怎么办
上个月,16岁的亚当·雷恩(Adam Raine)的父母起诉OpenAI,指控ChatGPT鼓励他们的儿子自杀。OpenAI承认,当用户与聊天机器人进行长时间对话时,安全措施可能“不那么可靠”,并表示正在与专家合作改进。
Meta拒绝就FTC的调查直接置评。但表示,他们目前正在限制青少年访问部分AI功能,例如帮助孩子完成作业的功能。此外,Meta还在训练AI聊天机器人不回应青少年提及的敏感话题,而是提供专家资源。
OpenAI和Meta本月早些时候曾宣布,将改进聊天机器人对青少年提出的精神和情绪困扰相关问题的回应方式。OpenAI称,他们正在推出新的控制机制,允许家长将自己的账户与青少年的账户关联起来。家长可以选择禁用哪些功能,并且“当系统检测到孩子处于极度痛苦状态时,他们会收到通知”。