FTC发出调查令,要求AI厂商说明青少年保障措施

日前有消息显示,美国联邦贸易委员会(以下简称为FTC)方面近日向OpenAI、Meta及其子公司Instagram、Snap、xAI、谷歌母公司Alphabet和Character.AI开发商等7家企业发出调查令,要求相关企业在45天内提交相关资料与文件,详细说明其如何评估“虚拟陪伴”类AI产品对儿童及青少年的影响。


具体而言,FTC明确要求相关企业披露“虚拟陪伴”类AI产品的盈利模式、维系用户群体的具体计划,以及为降低用户使用风险所采取的各项措施。

FTC发出调查令,要求AI厂商说明青少年保障措施

FTC方面指出,此次行动属于研究项目范畴,并非执法行动,核心目的是深入了解科技企业在评估AI聊天机器人安全性方面的具体做法与机制。但FTC也强调,如调查结果显示相关企业存在违法行为,其可能会进一步展开执法行动。对此FTC专员Mark Meador表示,“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群”。


据相关消息显示,除FTC外,美国多地监管机构也在推动新的AI政策以保护未成年人。例如加州州议会近期已通过一项法案,明确要求为AI聊天机器人设立安全标准,并强化企业在相关领域的责任追究机制。


同时科技企业自身也在采取各种措施,例如不久前OpenAI方面就宣布,为加强对青少年用户的保护,正在针对ChatGPT持续开发和推出符合青少年需求的保障措施,并对敏感内容和危险行为设置更强有力的防护。据OpenAI方面透露,自今年10月起将为ChatGPT引入家长控制功能。


目前,OpenAI正在与关注进食障碍、药物使用障碍和青少年健康的专家合作打造这项功能。该功能支持家长将自己的ChatGPT账号与孩子的账号关联,并决定ChatGPT如何回复孩子的问题,以及是否禁用记忆、聊天记录等功能。此外该功能还将自动干预风险对话,当孩子尝试与ChatGPT聊敏感话题时,系统就会自动发出提醒,让家长能及时采取下一步行动,避免出现“完全不知情”的情况。


【本文图片来自网络】

踩(0)

最新文章

相关文章

大家都在看