## LLM 生成的密码:安全风险
尽管大型语言模型(LLM)*看起来*能生成强密码,但从根本上说,它们并不适合这项任务。LLM 的设计目的是预测文本,因此会产生可预测的输出——这与创建强密码所需的随机性恰恰相反。这并非纯粹的理论;LLM 和 AI 编码代理已经在实际应用和代码开发中生成并使用这些弱密码。
测试表明,LLM 生成的密码存在模式、重复,并且熵值明显低于预期。即使调整“温度”设置也无法解决这个问题。令人惊讶的是,编码代理通常*更喜欢* LLM 生成的密码,除非明确指示它们使用安全的密码生成方法,例如 `openssl rand`。
随着 AI 越来越多地自动化代码创建,这构成了一种风险。弱密码可能会重新使有效的暴力破解攻击成为可能,特别是如果攻击者能够识别由特定 LLM 生成的代码并针对这些可预测的模式。
**建议:** 避免使用 LLM 生成的密码。开发者应指示编码代理使用安全的密码生成工具。AI 实验室应优先在模型和代理中默认启用安全的密码生成功能。这凸显了一个更广泛的问题:AI 产生*合理*输出的能力并不能保证*正确性*,这对于安全应用来说是一个关键的区别。
## 编码代理与框架:摘要
本文探讨了“编码代理”——为软件开发增强的大语言模型——以及驱动它们的“代理框架”的架构。虽然大语言模型的进步至关重要,但最近的许多进展源于*如何*利用它们,特别是通过管理工具、上下文和记忆的系统。像Claude Code和Codex这样的编码代理不仅仅是模型,而是围绕模型构建的应用层,以实现更优越的编码性能。
核心思想是将大语言模型(“引擎”)与周围系统(“框架”)分离。框架管理控制循环,决定检查什么、使用哪些工具以及如何维护状态。编码框架的关键组件包括:**实时仓库上下文**、**高效的提示塑造与缓存**、**结构化和验证的工具**、**上下文缩减**以避免过载、**会话记忆**以保持连续性以及**委托**给子代理以进行并行任务。
本质上,一个好的框架为大语言模型提供相关信息,管理复杂性,并确保安全执行。作者强调,框架设计通常比模型本身更能区分大语言模型的性能,并分享了一个极简的“迷你编码代理”实现来说明这些概念。最终,编码框架是关于用软件开发的实用性来增强大语言模型——导航代码库、运行测试和管理迭代反馈。
这是《泰晤士报》网站的导航和推广概述。该网站提供广泛的报道,涵盖众多版块,包括英国和世界新闻、政治、商业、体育、文化、旅游等。它还设有专门的评论、财经、生活与时尚、以及益智游戏区域。
除了新闻之外,《泰晤士报》还提供杂志(如《泰晤士报杂志》和《风格》)、电视指南、播客和各种指南(学校、大学、最佳居住地等)。用户可以管理账户、订阅(目前有1英镑3个月的优惠),并访问Times+独家内容。
一篇重点文章报道了一起事件,Meta被指控在莎拉·温-威廉姆斯的书《粗心的人》详细描述了该公司内部的性骚扰和审查指控后,对其进行了噤声。出版商认为Meta的行动证实了书中的说法。
## 微型 ELF 文件:摘要
本文重新探讨了为现代 64 位 Linux 创建尽可能小的可执行 ELF 文件的挑战。作者受到一篇几年前实现 45 字节二进制文件的文章的启发,旨在创建一个最小的“Hello, world!”程序。
最初的尝试产生了一个 383 字节的 ELF 文件,然后通过删除部分信息将其缩小到 173 字节。进一步优化 x86-64 汇编代码将大小减少到 157 字节。关键突破在于策略性地*覆盖* ELF 和程序头中未使用的字段,用可执行代码,将文件大小减少到 120 字节。
这种极致压缩依赖于 Linux 加载器对不完整头部数据的容忍度。虽然通过缩短输出字符串可以将大小进一步减少到 114 字节,但实现低于该大小的尺寸目前受到头部结构限制。 现代 Linux 更严格的验证阻止了复制最初的 45 字节的壮举,但 120 字节仍然是一个非常小的可执行文件,展示了最大限度地减小软件尺寸的巨大潜力。
## 软件的第三个时代:从集市到温彻斯特神秘屋
埃里克·雷蒙德的《大教堂与集市》定义了一个时代:互联网赋能的开源、社区驱动的软件。这种“集市”模式受益于协作反馈——“众目睽睽”发现漏洞。现在,人工智能正在大幅降低*代码的成本*,开启了一个新阶段,让人联想到莎拉·温彻斯特那座无休止扩张、古怪的豪宅。
正如互联网促进了集市的发展一样,人工智能允许开发者快速构建高度个性化的“温彻斯特神秘屋”——庞大、通常缺乏文档的工具,专为个人需求和热情量身定制。人工智能代理可以以远超人类能力的速度生成代码,但反馈却没有跟上。这形成了一个紧密耦合的单人创作和即时使用循环,优先考虑个人效用而非社区利益。
这并不意味着开源的终结。集市目前正被人工智能生成的内容淹没,需要新的工具来过滤质量。关键在于认识到代码是廉价的,但*沟通*并非如此。成功的项目,如OpenClaw,专注于提供一个强大的基础,同时将定制留给用户,这反映了温彻斯特使用预制组件的做法。
未来需要能够使*注意力*廉价的工具,让维护者能够管理涌入的信息,并确保有价值的想法不会在噪音中迷失。我们需要系统以机器速度高效地处理贡献,弥合人工智能驱动的创作与人类规模协作之间的差距。