大型语言模型知道谁对谁做了什么吗?
Do Large Language Models know who did what to whom?

原始链接: https://arxiv.org/abs/2504.16884

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。与arXivLabs合作的个人和组织都已接受并认同我们开放、社区、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与遵守这些价值观的合作伙伴合作。有提升arXiv社区价值的项目想法吗?了解更多关于arXivLabs的信息。

Hacker News上的讨论总结如下: 该讨论围绕一篇研究论文展开,探讨大型语言模型(LLM)是否真正理解句子中的“谁对谁做了什么”,抑或它们主要关注句法结构。最初的观察指出,LLM经常在生成的故事情节中互换角色,表明其缺乏一致的实体关系模型。 该论文(arxiv.org/abs/2504.16884)通过实验对此进行了研究。实验1表明,LLM优先考虑句法而非主题角色(谁对谁采取行动)。实验2发现,即使在特定的隐藏单元中,对主题角色的理解证据也很有限,尽管注意力机制在主题角色提取方面表现出更强的能力,有时甚至超过人类。 评论者们就这些发现展开了辩论,一些人认为,只要有足够的训练数据,LLM就能追踪角色,而另一些人则指出论文的证据表明并非如此。一位用户强调了论文的结论:虽然LLM具备理解角色的能力,但其核心理解可能更多地受到句法驱动的影响。

原文

arXivLabs is a framework that allows collaborators to develop and share new arXiv features directly on our website.

Both individuals and organizations that work with arXivLabs have embraced and accepted our values of openness, community, excellence, and user data privacy. arXiv is committed to these values and only works with partners that adhere to them.

Have an idea for a project that will add value for arXiv's community? Learn more about arXivLabs.

联系我们 contact @ memedata.com