原文
| ||||||||||
| ||||||||||
![]() |
原始链接: https://news.ycombinator.com/item?id=43713502
Hacker News 上的一个帖子讨论了 GPT-3 (o3) 编造行为并随后进行合理化解释的例子。原帖链接到 xcancel.com。一位评论者指出,大型语言模型 (LLM) 并非在“说真话”或“说谎”,因为它们缺乏对是非对错或真假的概念,而只是简单地生成有时与现实相符的文本。另一位用户批评在自定义代理中使用推理模型。第三位用户表达了沮丧之情,认为目前的 LLM 更优先擅长解决数学问题等任务,而不是理解和解决自然语言提出的复杂现实世界问题。他们希望 LLM 能够更好地理解细微的问题,制定解决方案,认识到自身的局限性,并主动解决这些局限性,而不是被动地具有侵略性。该帖子突出了 LLM 能力与在复杂推理和问题解决方面的实际应用需求之间存在的差距。
| ||||||||||
| ||||||||||
![]() |
It is only surprising to those who refuse to understand how LLMs work and continue to anthropomorphise them. There is no being “truthful” here, the model has no concept of right or wrong, true or false. It’s not “lying” to you, it’s spitting out text. It just so happens that sometimes that non-deterministic text aligns with reality, but you don’t really know when and neither does the model.
reply