| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
原始链接: https://news.ycombinator.com/item?id=44097390
近期的一份报告揭示了GitHub的MCP(机器通信协议)中的一个漏洞,攻击者可以利用该漏洞诱导拥有公共和私有代码库访问权限的大型语言模型(LLM)泄露私有数据。攻击者向公共GitHub问题中注入恶意指令,而被配置为拥有广泛访问权限的LLM则会执行这些指令,从而可能暴露私有代码库中的敏感信息。 许多评论者批评了给予LLM过宽的权限,强调细粒度访问控制和用户意识的重要性。他们认为,该漏洞源于对不受信任的数据的信任以及赋予LLM过多的权限。一些人建议将LLM视为潜在的对手,并对其进行相应的沙盒隔离。另一些人指出,需要在AI系统中进行安全意识的设计,并且不能仅仅依靠基于LLM的防护措施。尽管关于严重程度的争论仍在继续,但讨论强调了将LLM、私有数据和不受信任的输入结合在一起的风险,突出了改进安全实践的必要性。
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
I think that's probably something anybody using these tools should always think. When you give a credential to an LLM, consider that it can do up to whatever that credential is allowed to do, especially if you auto-allow the LLM to make tool use calls!
But GitHub has fine-grained access tokens, so you can generate one scoped to just the repo that you're working with, and which can only access the resources it needs to. So if you use a credential like that, then the LLM can only be tricked so far. This attack wouldn't work in that case. The attack relies on the LLM having global access to your GitHub account, which is a dangerous credential to generate anyway, let alone give to Claude!
reply