Google Play更新开发者指南,以加强AI应用管理

当地时间6月6日,谷歌方面宣布对Google Play指导方针进行更新,以加强对生成式AI类App的治理,减少“不适当的”和“被禁止的”内容。


谷歌方面强调,“Google Play的AI生成内容政策旨在确保AI生成的内容对所有用户来说都是安全的,并且开发人员会采纳用户反馈以实现负责任的创新”,以及“开发者有责任确保其生成式AI应用不会生成令人反感的内容,包括Google Play不当内容政策中列出的禁止内容、可能剥削或虐待儿童的内容,以及可能欺骗用户或促成不诚实行为的内容”。

Google Play更新指导方针,加强生成式AI应用治理

谷歌方面指出,Google Play的AI生成内容政策适用于多种App,包括文本到文本的AI聊天机器人App,文本转图像、语音转图像或图像转图像App,语音及视频生成类App,不适用于“仅仅托管”而无法使用AI生成内容的App,例如不包含AI内容生成功能的社交媒体,或将AI用作生产力工具的App,例如带有AI功能的电子邮件等。


此外谷歌方面还表示,违规的AI生成内容包括但不限于未经同意和授权的深度伪造性内容;为诈骗提供便利的真人语音或视频记录;鼓励有害行为(如危险活动、自我伤害)的内容;助长欺凌和骚扰行为的内容;满足“性需求”的内容;恶意代码等。


值得一提的是,谷歌方面还要求开发者必须在App内提供“报告或标记攻击性人工智能生成内容”的功能,以便及时发现和处理不当内容,并需要利用这些反馈来改进内容过滤和审核机制。


【本文图片来自网络】

踩(0)

最新文章

相关文章

大家都在看