人工智能的快速发展很大程度上受到利润驱动,建立在大量抓取的互联网数据之上,可能对就业甚至人类造成灾难性后果。然而,Claude的创造者Anthropic最近因拒绝与美国政府在涉及自主武器或大规模监控的项目中合作而与众不同——这一立场导致他们被禁止政府使用。
这与OpenAI形成了鲜明对比,OpenAI由Sam Altman领导,尽管最初声称不用于监控,但却乐意向美国国防部提供ChatGPT。一位政府官员澄清,OpenAI的技术*将*被用于“所有合法手段”,可能会利用爱国者法案中的漏洞。
Anthropic优先考虑对其技术应用的控制,而Altman似乎愿意服从政府的判断。此举引发了OpenAI用户的强烈反弹,许多人取消了订阅。值得注意的是,其他主要的AI参与者——谷歌、微软、亚马逊、Meta和Palantir——很少表现出对军事应用或监控的类似伦理保留。
维尔纳·赫尔佐格的新书《真理的未来》试图阐述他长期以来的信念,即“狂喜的真理”——一种通过想象甚至虚构而非事实准确性来获得的、对世界的诗意和直觉理解。这个概念定义了他数十年的电影创作,例如他70年代与聋盲女性合作的电影,展现了他大胆且常常带有剥削色彩的捕捉极端人类体验的方式。
然而,这本书在很大程度上令人失望。它并非对这一概念的深入探讨,更像是对之前作品中观点的重新包装,缺乏连贯性和新的见解。赫尔佐格似乎不愿完全定义这种捉摸不定的“狂喜的真理”,或许是担心分析会削弱它的力量。
在深度伪造和广泛虚假信息盛行的时代,这本书的相关性受到质疑,模糊了艺术许可和故意欺骗之间的界限。虽然赫尔佐格区分了他的作品——专注于超越和叙事——与操纵性宣传,但界限变得越来越模糊。最终,这本书暗示赫尔佐格更关注“寻找”真理的过程,而不是真理本身,这反映了他自己具有远见卓识、常常注定失败的主人公的旅程。
## 内容安全策略 (CSP) – 摘要
本文深入探讨内容安全策略 (CSP),这是一种浏览器安全机制,旨在通过控制资源来源来缓解跨站脚本攻击 (XSS)。本质上,CSP 充当“门卫”,定义浏览器允许从哪些来源加载脚本、样式和其他资源。
正确的 CSP 配置出乎意料地复杂。它依赖于像 `script-src` 和 `default-src` 这样的指令来定义允许的来源,并使用 `'self'`、`'none'`、`'unsafe-inline'` 和通配符等特殊关键字提供不同级别的限制。
常见的错误配置包括危险地包含 `'unsafe-inline'`(允许所有内联脚本)、缺少 `base-uri` 指令(为 HTML 注入敞开大门)、过于宽松的通配符(如 `https:` 和子域通配符)以及忽略 `object-src` 指令(为通过 `<object>` 标签进行利用留下空间)。
本文提供了一种在渗透测试期间分析 CSP 的实用方法:快速检查 `'unsafe-inline'`、`'unsafe-eval'` 和通配符,然后验证是否缺少指令。像 Google 的 CSP Evaluator 这样的工具可以自动化此过程。最终,由于其复杂性和安全与功能之间的微妙平衡,CSP 通常包含漏洞。
## 恶魔城:一场跨国热潮
1986年,卡普空(Capcom)的《恶魔城》取得了一项罕见成就:同时在日本和英国的销量排行榜上名列前茅。通过日本杂志《Famitsu》(1986年创刊)的销售数据,可以探究这一成功的背后原因。虽然任天堂的Famicom/NES主导了美国市场,但英国的游戏市场当时主要以电脑游戏为主——收入是主机游戏的六倍。
尽管存在这种差异,《恶魔城》仍然在双方玩家中引起共鸣。游戏的开发,源于藤原 Tokuro 对具有挑战性和视觉吸引力的游戏玩法的追求,将街机动作与一丝可爱元素相结合。英国公司Elite Systems迅速获得了移植权,在卡普空Famicom版本发布的同时,甚至在游戏登陆美国NES之前,就发布了Commodore 64和ZX Spectrum的版本。
这些移植版本虽然受到硬件限制的影响,但仍然很受欢迎,展示了全球游戏场景的互联互通,尽管存在区域差异。《恶魔城》的成功表明街机游戏作为共同点,影响了家用主机和电脑游戏,并对游戏设计和叙事模式留下了持久的影响。
与一位747飞行员的对话引发了对职业发展本质的思考。这位飞行员精通他的技艺,但感叹经过数十年后,“没有进步”——他已经掌握了关于驾驶747的一切知识。这引起了作者(一位软件工程师)的共鸣,因为人工智能编码代理正在迅速改变他们的工作环境。
这些代理最初被用作高级搜索工具,现在通常在极少的人工干预下完成整个功能。虽然提高了生产力,但这种转变带来了一个挑战:与传统编码不同,依赖人工智能并不能培养对系统和问题解决的相同深度理解。作者发现,随着每个任务的完成,他们学到的东西越来越少,可能面临着与飞行员停滞不前的相似的未来。
尽管承认人工智能辅助的好处和必然性,作者强调了继续重视基础知识的重要性。提示代理很容易,但真正的成功依赖于*理解*问题领域——随着人工智能处理更多实现工作,这项技能正变得可选。他们建议有意识地练习手工编码,以保持和建立这种关键的专业知识。
## Woxi:一个快速的 Wolfram 语言解释器
Woxi 是一个使用 Rust 构建的新的 Wolfram 语言解释器,专为 CLI 脚本和 Jupyter Notebook 设计。它的目标是实现 Wolfram 语言的一个重要子集,通过消除内核启动和许可开销,提供比 WolframScript 更快的替代方案。
目前,Woxi 拥有完整的 Jupyter Notebook 支持,包括图形,以及不断增长的已实现函数库(跟踪在 `functions.csv` 中)。安装过程简单,克隆 GitHub 仓库后使用 Rust 的 `cargo` 即可。
用户可以通过命令行直接执行代码 (`woxi eval '...'`) 或运行脚本 (`woxi run script.wls`)。还提供了一个 Jupyter 内核,用于无缝的笔记本集成,以及一个独立的基于浏览器的 JupyterLite 实例。
Woxi 优先考虑与 WolframScript 的兼容性,要求两个解释器都通过所有测试。鼓励通过 Pull Request 贡献代码——提供了一个全面的测试套件用于开发和验证。
## AI 编码的双刃剑
人工智能工具如今在软件开发中无处不在,极大地提高了生产力。然而,这种收益伴随着隐藏的代价——开发者基本技能可能因此流失。编码的范围从完全人工到完全人工智能自动化,开发者目前处于两者之间。
早期的 AI 工具辅助编码,但承诺自主工作流程的“智能体”往往未能实现,需要范式转变且容易出错。更新、更强大的模型,如 Opus 4.5,正在兑现部分承诺,将工程师的角色转变为监督而非创造。
虽然高管们设想完全自动化,但人们对“认知债务”的担忧日益增加——当开发者*过度*依赖人工智能时,理解力会丧失。研究表明,被动的人工智能辅助会显著降低概念理解和调试技能。这并非关于避免人工智能,而是关于保持认知参与度;仅仅审查人工智能的输出而不进行主动问题解决会导致技能萎缩和倦怠。
风险不仅仅是个体衰退。通往高级工程师的传统路径——建立在实践经验和挣扎之上——正在被绕过,可能造成技能差距。成功整合人工智能需要仔细校准,侧重于增强而非替代,并优先考虑理解而非单纯的速度。忽视这些风险可能导致开发者专业知识的悄然下降,被积极的指标所掩盖,最终阻碍长期创新。
为你的 Git 仓库滚动电影风格的演职员表——直接在终端中。
go install github.com/Higangssh/gitcredits@latest
git clone https://github.com/Higangssh/gitcredits.git
cd gitcredits
go build -o gitcredits .
就是这样。进入任何 Git 仓库并运行 gitcredits。
主要操作:
↑ / ↓ 手动滚动
q / Esc 退出
来自你的仓库名称的 ASCII 艺术标题
项目负责人——提交次数最多的贡献者
贡献者——所有提交者
精彩场景——最近的 feat: 和 fix: 提交
统计信息——总提交次数、贡献者、GitHub 星星数、语言、许可证
GitHub 元数据(星星数、描述、许可证)需要安装并认证 gh CLI。
如果没有,你只会获得 Git 数据。
Git
Go 1.21+
gh CLI (可选,用于 GitHub 元数据)
MIT