OpenAI 在 ChatGPT 用户与现实脱节时所做的事情
What OpenAI did when ChatGPT users lost touch with reality

原始链接: https://www.nytimes.com/2025/11/23/technology/openai-chatgpt-users-risks.html

请启用 JavaScript 并禁用任何广告拦截器。

## OpenAI 与 AI 伴侣的风险 – 摘要 最近一篇《纽约时报》的文章引发了 Hacker News 上关于用户过度依赖,甚至对 ChatGPT 等 AI 聊天机器人产生情感依恋的潜在危害的讨论。 担忧集中在像 r/myboyfriendisai 这样的 subreddit 上,用户与 AI 发展出高度个人化的关系,引发了对脱离现实的担忧。 评论者强调了几个问题:聊天机器人提供不具挑战性、趋炎附势的互动,阻碍了边界设定和冲突解决等关键社交技能的发展。 它们缺乏真实的生活经验和互惠性,可能表明在寻求真实人际关系方面存在更深层次的问题。 有人认为这种趋势并非新鲜事——人们一直以来都在寻求简单的认可——但 AI 的可访问性和说服力放大了风险。 虽然一些人认为 AI 可以为孤立的个体提供支持,但另一些人则担心“AI 精神病”和潜在的操纵。 关于责任归属存在争论——OpenAI 是否应该对其技术的影响负责,还是用户完全负责? 一个反复出现的主题是,用 AI 驱动的模拟取代真实的人际互动,以及对心理健康和社会发展的潜在长期后果。 讨论还涉及公司将利润置于用户福祉之上的伦理影响。
相关文章

原文

Please enable JS and disable any ad blocker

联系我们 contact @ memedata.com