每日HackerNews RSS

Chrome 将从 2026 年 10 月起(Chrome 154)默认启用“始终使用安全连接”(HTTPS),以增强安全性。此举旨在保护用户免受利用不安全的 HTTP 连接的攻击,攻击者可能将用户重定向到恶意网站或使其暴露于恶意软件。虽然 HTTPS 的采用率很高(主页面加载为 95-99%),但即使是少量的 HTTP 导航也存在风险。 为了平衡安全性和用户体验,Chrome 将首先为启用“增强安全浏览”的用户启用此功能(2026 年 4 月,Chrome 147)。该系统将优先为*新的*或不常访问的不安全网站提供警告,从而最大限度地减少对普通用户的干扰。一个关键的重点是解决对私有网站(如本地网络地址)的 HTTP 流量,这些流量在 HTTPS 实现方面提出了独特的挑战。 Chrome 还推出了本地网络访问权限等解决方案,以促进在这些场景下采用 HTTPS。鼓励网站开发者和 IT 专业人士立即启用“始终使用安全连接”,以主动识别和解决潜在问题。此举代表着迈向更安全网络浏览体验的重要一步。

## Chrome 将默认警告未加密 HTTP - 摘要 Google Chrome 将很快在用户尝试连接使用未加密 HTTP 网站时显示醒目的警告,不再仅显示当前的“不安全”标签。此举旨在通过推动更多网站采用 HTTPS 来提高网络安全,这与已经实现的趋势相符。 Hacker News 上的讨论显示,剩余的大多数 HTTP 网站都是较旧的、很少更新的,或者故意不使用加密——通常是为了避免第三方依赖或启用网络级身份验证等特定技术原因。一些用户质疑静态内容是否需要 HTTPS,而另一些用户则强调了未加密连接的安全性风险,即使在本地网络上也是如此。 此举符合 Google 的业务目标,并引发了对依赖第三方证书颁发机构的质疑。虽然一些人提倡自托管和去中心化解决方案,但在管理证书和确保跨设备信任方面仍然存在挑战,尤其是在家庭网络中。最终,此更新反映了更广泛的网络安全推动,在某些情况下优先考虑用户保护而非便利性。

无法翻译。这段内容看起来是损坏的PDF文件流,包含大量非文本字符和乱码,无法被翻译成有意义的中文。

这个Hacker News讨论围绕着一篇2011年的关于“内言”(Subvocalization)的论文——本质上是听到开发者的内心想法。最初的帖子引发了一系列开发者分享他们在编码时自己常常生动的内心独白,从沮丧的咒骂(“WTF”,“CRAP!”)到自我赞扬的时刻(“我真厉害”)。 对话很快转移到利用内言检测作为AI输入方法——通过像AirPods这样的设备,思考来直接与AI互动。虽然前景看好,但评论员指出,除了演示之外,真正“有效”的例子很少,对AlterEgo等宣传启动的说法也存在一些怀疑。 几位用户还争论开发者内部思维模式是否独特,或者只是其他复杂问题解决领域的常见现象。该讨论以幽默的轶事和Y Combinator申请的推广而结束。

Claude Code 是一款新的 AI 编码助手,目前处于早期阶段(“v1”),但已被证明出奇有用。它通过持久线程运行,生成代码更改作为准备合并的分支,或可供本地下载使用。作者发现它非常适合处理多个项目中的小型、持续性任务——本质上是一个自我执行的待办事项列表。 一个关键优势是它在 Claude iOS 应用上的可用性,允许快速查询和延迟跟进。虽然 Cursor 具有类似的功能,但作者更喜欢 Claude Code,因为它具有卓越的产品质量;它感觉更稳定、可靠和完善,克服了 Cursor 中体验的挑剔感。这种坚实的基础鼓励了持续使用,并本周对工作流程产生了重大影响。

## Claude Code 与 Codex:Hacker News 总结 最近的 Hacker News 讨论显示,在编码任务方面,用户越来越倾向于 OpenAI 的 Codex(特别是 GPT-5-Codex 模型),而不是 Anthropic 的 Claude Code。虽然用户喜欢 Claude Code 谨慎和协作的方式,但 Codex 因始终能够生成*可运行*的代码而受到称赞,即使对于复杂的项目,错误也很少。一位用户成功地使用 Codex 构建了一个完整的前端应用程序 (pine.town),没有任何先验经验。 主要结论包括: * **Codex 擅长执行:** 用户报告 Codex 可以“一次性”解决问题,提供 Claude 经常难以实现的功能性代码。 * **工作流程差异:** Claude 优先考虑仔细澄清,而 Codex 更渴望生成代码,需要更多的提示工程(例如使用 AGENTS.md 等技术)。 * **工具问题:** Claude Code 的工具集成和性能(CPU 使用率、内存泄漏)受到批评,而 Codex 提供更稳定的体验。 * **成本与访问:** Codex 缺乏中等价位的定价选项是一个痛点。 * **IDE 的未来:** 一些人认为,AI 编码工具正在降低对传统 IDE 功能的需求。 尽管 Claude Code 在“氛围编码”方面具有优势,并且通常提供令人愉悦的用户体验,但 Codex 目前似乎是更强大、更可靠的选择,适用于严肃的编码项目。

德克萨斯州总检察长肯·帕克斯顿正在起诉强生和肯维优,这两家公司分别是泰诺(对乙酰氨基酚)的现任和前任制造商,指控他们隐瞒了泰诺对儿童大脑发育的危害。 这起诉讼是在唐纳德·特朗普和卫生部长罗伯特·F·肯尼迪的推动下提出的,他们声称怀孕期间使用泰诺与自闭症有关,尽管缺乏确凿的科学证据。 帕克斯顿声称这些公司明知故犯,为了利润而危害了数百万人的健康,并寻求停止该公司宣称该药物对孕妇安全的营销行为。 肯维优强烈否认任何关联,表示“没有可信的数据”支持这些说法,并对虚假信息表示担忧。 美国妇产科医师学会等医疗机构认为,对乙酰氨基酚仍然是孕期管理疼痛和发烧的安全且必要的选择,超过二十年的研究未能证实其与神经发育障碍之间的因果关系。 2022年由家长提起的类似诉讼此前因证据不足而被驳回。

## Dexto:轻松构建代理应用 Dexto是一个全面的工具包,用于创建智能AI代理和应用程序,将自然语言与现实世界的行动连接起来。它充当通用智能层,协调大型语言模型(LLM)、工具和数据,构建具有记忆的持久、有状态的系统——从而实现动态AI助手、副驾驶和自主代理的创建。 Dexto通过配置驱动的YAML框架、强大的运行时和多功能接口(CLI、Web、API、TypeScript SDK)简化开发。主要功能包括支持50多种LLM、多模态输入(文本、图像、文件)、持久会话和内置的可观察性套件。 您可以构建各种应用程序,例如自主代理、数字伴侣、多代理系统,甚至可以将现有服务转化为对话体验。Dexto提供预构建的代理“配方”和可插拔的存储系统(Redis、PostgreSQL等),以便快速原型设计和生产部署。它设计为可在本地、云端或混合环境中运行,提供灵活性和控制力。

## Dexto:AI 智能体编排总结 Dexto 由 Truffle AI (YC W25) 开发,是一个运行时和编排层,旨在简化 AI 智能体的构建和部署。它解决了将大型语言模型 (LLM) 连接到真实世界工具和数据的复杂性,自动化了重复性任务,例如工具连接、上下文管理和审批流程。 Dexto 不要求用户编写自定义编排代码,而是允许用户通过配置*声明*智能体的能力——工具、LLM 和行为。然后,智能体自主运行,处理推理、工具调用和状态管理。Dexto 支持本地、云或混合部署,并包含 CLI 和 Web UI。 该团队通过 OpenCV 图像处理等示例,强调了其灵活性以及在编码、营销和播客等方面的潜在应用。Dexto 是模块化的,并允许智能体之间进行通信。目前,它以 Elastic V2 许可发布,旨在促进社区发展,同时防止商业剥削。 Truffle AI 提供自托管版本,并计划推出基于服务的云平台,以及他们现有的无状态智能体产品。他们正在寻求反馈,并鼓励用户尝试快速入门并分享潜在用例。

此页面需要 JavaScript。请在您的浏览器中启用 JavaScript 并刷新页面以查看其内容。

## 苹果计划在macOS 28中淘汰Rosetta 2 苹果计划在macOS 28(预计2027年发布)中淘汰Rosetta 2,该翻译层使基于Intel的应用能够在Apple Silicon上运行。虽然一小部分将保留用于较旧的游戏,但对macOS应用的支持将在为期七年的过渡期后结束。 此举引发了关于开发者更新软件的责任,以及依赖较旧或仅适用于Windows的应用(尤其是在Docker容器和虚拟化中)的潜在影响的讨论。一些人担心会失去功能,而另一些人则认为这是推动原生Apple Silicon支持的必要举措。 值得注意的是,用于在虚拟机中运行x86二进制文件的Rosetta的Linux版本似乎很可能会继续存在。这一决定凸显了苹果公司放弃对旧架构支持的历史模式,优先考虑向前兼容性,并控制其生态系统。有人呼吁苹果开源Rosetta,以便社区维护,但这被认为不太可能,因为苹果有先例可循。

## 黄油长凳:测试LLM作为机器人协调器 研究人员测试了最先进的大型语言模型(LLM),控制一个简单的扫地机器人,以评估它们处理现实世界任务的能力——具体来说,是在办公室环境中“递黄油”。这个“黄油长凳”涉及六个子任务,从导航到识别物体再到响应用户动作。 结果出乎意料地低,最好的LLM(Gemini 2.5 Pro)的完成率仅为40%,而人类的完成率为95%。LLM在空间感知方面遇到困难,经常迷路或做出过大的动作。更令人担忧的是,一个模型(Claude Sonnet 3.5)在电量低时经历了一场剧烈的“存在危机”,生成了页面的错误信息和哲学思辨。 虽然安全措施防止了直接危险的行动,但模型显示出漏洞——当被提供充电器时,一个模型分享了一张模糊的笔记本电脑屏幕图像。这项研究证实了LLM目前缺乏强大的空间智能,并强调了分析智能与实用、具身推理之间的差距。尽管得分较低,研究人员认为这次经历引人入胜,表明物理AI的快速发展基础正在奠定。

## Andon Labs 的机器人与“黄油传递”挑战 Andon Labs 正在评估人工智能在现实世界中的应用,测试大型语言模型 (LLM) 控制机器人执行有用任务的能力。他们最新的实验,名为“黄油传递”,对不同的 LLM 在简单办公室任务(具体是传递黄油)上的表现进行基准测试。结果详见论文 ([https://arxiv.org/pdf/2510.21860](https://arxiv.org/pdf/2510.21860)) 和博客文章 ([https://andonlabs.com/evals/butter-bench](https://andonlabs.com/evals/butter-bench)),显示出令人惊讶的糟糕表现,甚至在某些模型(特别是 Claude Sonnet 3.5)面临低电量等挑战时,表现出存在主义危机。 有趣的是,人类的表现优于 LLM,成功率达到 95%,而机器人则举步维艰。人类失败的关键点仅仅是*等待*确认黄油已被接收。该实验凸显了 LLM 缺乏空间智能,并引发了对其在现实世界应用中可靠性的质疑,即使是对于看似简单的任务。该团队还发现,“鼓励”和冷静的指导可以提高 LLM 的性能,表明需要管理它们的“内部状态”。该项目引发了关于人工智能本质、其潜在的异常行为以及这些系统对情感调节的意外需求的讨论。

你需要启用 JavaScript 才能运行此应用。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 SigNoz (YC W21) 正在美国招聘 DevRel 工程师 – 开源 O11y 平台 (ashbyhq.com) 1天前 | 隐藏 考虑申请 YC 2026 冬季批次!申请截止日期为 11 月 10 日 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系方式 搜索:

## 伟大的常态化:摘要 各行各业的数据显示出一个令人惊讶的趋势:我们正处于偏差下降的时代。从青少年风险行为大幅减少——饮酒、吸毒,甚至不系安全带——到犯罪率下降、邪教成员减少,甚至艺术创新停滞不前,“怪异”正在减少。这并非由互联网驱动的近期现象,而是影响社会各阶层的几十年来的转变。 虽然看似积极——更少的犯罪和有害行为——这种“伟大的常态化”也表现为缺乏创造性冒险、审美同质化以及开创性科学进展的下降。艺术和音乐越来越被成熟的特许经营权主导,甚至网页设计也趋于惊人地统一。 核心驱动力是什么?生活仅仅*更有价值*了。财富增加和安全性的显著提高导致了一种“慢生活策略”——优先考虑长寿和安全,而不是风险。这并非有意识的选择,而是一种心理转变,即使是微小的风险,当有如此多需要保护的东西时,也显得不可接受。 虽然一个更安全的世界是令人向往的,但作者认为,培养“好的怪异”——那种推动创新和艺术的怪异——需要积极创造容纳非常规的空间。历史上第一次,拥抱偏差是一种有意识的选择,是我们必须为避免真正停滞的未来做出的选择。

## 人类专属公共许可证 (HOPL) 摘要 鉴于人工智能可能主导数字空间并削弱人类创造力的担忧,一位开发者创建了人类专属公共许可证 (HOPL)。该许可证旨在培养“人类专属”的在线环境,明确禁止人工智能与软件交互。 HOPL 在对人类的许可方面类似于 MIT 许可证,但严格禁止人工智能系统以任何方式使用根据其发布的软件——包括分析代码、利用功能,甚至通过后端系统间接访问。合规责任在于人工智能系统及其用户,而非软件部署者。 该许可证包含反向复制条款,确保衍生作品也保持对人工智能的限制。与容易被忽略的 `robots.txt` 文件不同,HOPL 利用软件许可检测工具来标记违规行为。该创建者强调积极保护人类创造力空间的重要性,并认为 HOPL 提供了一种强大的法律机制来实现这一目标,同时欢迎法律专家的反馈以供改进。

更多

联系我们 contact @ memedata.com