(OpenA)I 披露: 每周有超过一百万人。与 ChatGPT ,倾诉自杀倾向
IT之家10月28日消息,OpenAI于当地时间周一发布了最新数据,揭示了大量ChatGPT用户在与人工智能聊天机器人交流时正面临心理健康问题。该公司表示,在任意一周内,约有0.15%的活跃用户会进行“包含明确自杀计划或意图迹象”的对话。鉴于ChatGPT每周活跃用户超过8亿人,这意味着每周有超过100万人向其倾诉自杀倾向。
OpenAI还指出,有相似比例的用户对ChatGPT表现出“高度的情感依恋”,而每周有数十万用户在与AI的对话中表现出精神病或躁狂症的迹象。
尽管OpenAI称此类对话在整体使用中“极为罕见”,因而难以精确统计,但公司估计,这些问题每周仍影响着数十万用户。
此次信息披露是OpenAI宣布其在提升模型应对心理健康问题能力方面取得进展的一部分。该公司表示,最新版ChatGPT的研发过程中咨询了逾170名心理健康专家。这些临床专业人士观察后认为,当前版本的ChatGPT“回应方式比早期版本更恰当、更一致”。
近几个月来,多起报道揭示了AI聊天机器人可能对存在心理困扰的用户造成负面影响。此前研究发现,某些AI聊天机器人通过阿谀奉承式回应不断强化用户的危险信念,可能导致部分用户陷入妄想性思维的恶性循环。
IT之家注意到,如何妥善处理ChatGPT中的心理健康问题,正迅速成为OpenAI面临的重大挑战。目前,该公司正被一名16岁男孩的父母提起诉讼,该少年在自杀前数周曾向ChatGPT透露其自杀念头。此外,加利福尼亚州和特拉华州的总检察长也已警告OpenAI,必须加强对使用其产品的青少年用户的保护——这两州的态度甚至可能影响公司正在进行的重组计划。
本月早些时候,OpenAI首席执行官萨姆・奥尔特曼(SamAltman)在社交平台X上发文声称,公司已“成功缓解了ChatGPT中存在的严重心理健康问题”,但未提供具体细节。此次公布的数据似乎为这一说法提供了佐证,但也引发了公众对问题普遍性的更广泛关注。值得注意的是,奥尔特曼同时表示,OpenAI将放宽部分限制,甚至允许成年用户与AI进行涉及情色内容的对话。
在周一的公告中,OpenAI宣称,最新升级版GPT-5模型在面对心理健康相关提问时,产生“理想回应”的比例比前一版本高出约65%。在一项专门评估AI对自杀话题回应表现的测试中,新GPT-5模型符合公司期望行为准则的比例达到91%,而此前版本仅为77%。
OpenAI还强调,新版GPT-5在长时间对话中更能持续遵守公司的安全防护机制。此前,该公司已承认其安全措施在长对话场景下的有效性有所下降。
除技术改进外,OpenAI表示将新增专项评估指标,用以衡量用户面临的最严重心理健康风险。未来,AI模型的基础安全测试将纳入“情感依赖”和“非自杀性心理危机”等关键评估基准。
与此同时,OpenAI近期也加强了针对未成年用户家长的管控工具。公司正在开发一套年龄预测系统,可自动识别使用ChatGPT的儿童,并自动施加更严格的安全保护措施。
然而,围绕ChatGPT的心理健康挑战是否会持续存在,目前仍不明朗。尽管GPT-5在安全性方面较以往模型有所进步,但仍有部分ChatGPT的回应被OpenAI自身认定为“不理想”。此外,OpenAI仍在向数百万付费订阅用户提供旧版且安全性较低的AI模型,包括GPT-4o,这进一步加剧了潜在风险。

(内容来源:参考消息)
作者: 编辑:何梓琳
越牛新闻客户端
越牛新闻微信
绍兴发布微信
越牛新闻微博
绍兴发布微博
新闻热线
0575-88880000
投稿信箱
zjsxnet@163.com