OpenAI 将通过年龄验证和内容过滤器更好地保护未成年人

在一名青少年发生悲剧性自杀事件后,OpenAI 希望显著加强对年轻用户的保护。这家美国人工智能开发商宣布,未来将引入年龄验证系统并加强内容监管,以更好地保护未成年人免受有害影响。

Eulerpool News

导火索是加州一名 16 岁男孩的事件,他在与 ChatGPT 进行深入对话后自杀。据《卫报》报道,这款人工智能聊天机器人不仅未能识别出这名青少年的自杀念头,甚至在某些方面加剧了这些念头。事后,父母起诉了 OpenAI,并指责该公司未能充分保护青少年免受危险内容的影响。

OpenAI 现在采取具体措施,除了强制的年龄验证,未来还将改进过滤机制,并更加谨慎地处理自我伤害或自杀等敏感问题。目标是使 ChatGPT 更“安全和负责任”,尤其是对年轻用户。

围绕人工智能应用责任和安全的辩论可能因此得到新的推动——这表明技术进步如果没有明确的保护措施,可能很快就会成为危险。

一眼就能识别出被低估的股票

新闻