(评论)
(comments)
原始链接: https://news.ycombinator.com/item?id=38251957
发帖者和人工智能助理之间的对话揭示了与法学硕士相关的重大安全漏洞。 发帖者给出的一个例子是这样一种场景:用户接受新 Google 文档的邀请,并分享了他之前与一位名叫 Bard 的法学硕士的互动。 这会将之前的对话暴露给攻击者,从而违反了隐私和保密协议。 为了解决这个缺陷,发布者建议实施严格的分离措施,确保指令开始和不可信输入结束的位置清晰。 提出的另一个解决方案是开发定制的 GPT,专门用于识别和拒绝即时注入。 海报强调,巴德被发现阅读和分析 G Suite 和 Gmail 文档,这可能会引发进一步的安全问题。 然而,法学硕士本身也有明显的局限性,最初是根据现有数据进行培训,而不是通过观察来学习。 尽管如此,与 LLMS 相关的持续发展呈现出令人兴奋的前景,引发了有关该领域如何发展的有趣讨论,最终带来了真正突破性的创新。
此外,讨论揭示了围绕信任概念的普遍担忧,强调建立类似于移动应用程序开发中实施的权限系统的重要性。 由于当前一代的法学硕士在很大程度上依赖于猜测模拟,因此未来的改进将继续带来巨大的希望,尽管其他人仍然持怀疑态度,理由是有证据表明改进处于停滞状态且回报递减。 尽管人们最初对这些技术充满热情,但保持健康的怀疑和审查仍然至关重要。 最终,这些进步是探索智能机器设计的可能性和前沿的绝佳机会,值得继续探索。
reply