克劳德协助选择伊朗袭击目标,可能包括学校。
Claude helped select targets for Iran strikes, possibly including school

原始链接: https://twitter.com/robertwrighter/status/2030482402628214841

我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2026 X Corp.

关于Anthropic的AI模型Claude可能被用于帮助选择伊朗的袭击目标,甚至可能包括一所学校,Hacker News上出现了一场讨论。这些指控源于《华盛顿邮报》的一份报道以及*nonzero.org* Substack的进一步分析,但一些评论员质疑报道的可信度和偏见。 争论的焦点在于AI开发者对其工具被用于军事目的所承担的伦理责任。尽管Anthropic之前曾表达过对这类应用的担忧,但用户指出技术的固有双重用途——即使是像地图这样基本的工具也可能被用于目标定位。 许多人认为,最终责任在于授权和执行军事行动的人,而不是AI本身。另一些人则强调AI在现代战争中的更广泛作用,并提及其在加沙的使用以及五角大楼最近因Claude的安全防护被认为不足而对其发出的禁令。
相关文章

原文

We’ve detected that JavaScript is disabled in this browser. Please enable JavaScript or switch to a supported browser to continue using x.com. You can see a list of supported browsers in our Help Center.

Help Center

Terms of Service Privacy Policy Cookie Policy Imprint Ads info © 2026 X Corp.

联系我们 contact @ memedata.com