LLM 不写正确的代码,它写的是看似正确的代码。
LLM Doesn't Write Correct Code. It Writes Plausible Code

原始链接: https://twitter.com/KatanaLarp/status/2029928471632224486

我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2026 X Corp.

一个黑客新闻的讨论强调了大型语言模型(LLM)的一个关键缺陷:它们生成的是*看似合理*而非*一定正确*的内容,无论是代码还是法律论证。一位评论员将其比作起草法律简报,指出LLM可以快速生成看似有效的论点,但可能存在缺陷,但由于法官时间不足而无法进行彻底审查,这些论点仍有可能成功。 这造成了一种不对称性——容易生成,难以反驳——类似于布兰多利定律(“废话不对称原则”)。这种担忧也延伸到代码领域,暗示LLM生成的代码将给未来负责调试和纠正其不准确性的开发者带来巨大的“技术债”。 基本上,LLM优先考虑*看起来正确*,而非*真正正确*,这可能会影响司法公正和软件质量。 之前的一个相关讨论也被链接了。
相关文章

原文

We’ve detected that JavaScript is disabled in this browser. Please enable JavaScript or switch to a supported browser to continue using x.com. You can see a list of supported browsers in our Help Center.

Help Center

Terms of Service Privacy Policy Cookie Policy Imprint Ads info © 2026 X Corp.

联系我们 contact @ memedata.com