启用 JavaScript 和 Cookie 以继续。
启用 JavaScript 和 Cookie 以继续。
该实验详细描述了一种*目视*观察单个原子衰变的方法,特别是通过α粒子发射。虽然原子本身太小而无法看见,但它们核衰变时释放的能量可以被检测为微小的光闪。
该装置利用弱放射源(例如烟雾探测器中的镅), направлен на экран сцинтилляции сульфида цинка——一种被粒子撞击时会发光的材料。这些微弱的光闪是由每个α粒子的能量产生的,在眼睛完全适应黑暗后被放大并观察。
结果是可见的“火花之海”,每个火花代表一个原子事件释放的能量。该实验强调了拍摄这种现象的局限性;直接观察是关键。虽然处理放射性材料时应谨慎,但少量物质在像其他有毒化学品一样处理时风险很小。也可以购买预制设备,称为闪烁镜,以便更轻松地观察。
## 大语言模型时代写作的价值 本文告诫人们不要依赖大语言模型来*写作*,认为写作的真正价值在于它所培养的**思考过程**。写作并非仅仅是生成文档,而是关于澄清理解——你自己的和读者的——以及通过努力探索思想来建立智力能力。 使用大语言模型生成内容会绕过这个关键过程,阻碍个人成长并侵蚀**信任**。一份明确由人类撰写的文档表明了对主题的参与和可信度的建立。 大语言模型在写作的某些方面,例如研究、转录和**想法生成**,确实是有价值的工具——在需要大量输出并选择性使用的情况下是有益的。然而,为了真正有效地利用大语言模型,我们必须优先培养相应的、深思熟虑的独立思考能力。最终,目标不是更快的输出,而是*更好的*理解。
最近的调查显示,许多联邦政府应用程序请求过多的权限,引发了严重的隐私担忧。例如,白宫应用程序要求访问位置、生物识别信息,甚至包含来自受制裁的中国公司华为的追踪器。这种趋势,被称为“Fedware”,也延伸到联邦调查局(包含广告追踪器)、联邦紧急事务管理局(为基本警报请求28个权限)和国税局(在进行隐私评估之前发布应用程序)的应用程序。 像 CBP Mobile Passport Control 这样的应用程序尤其令人担忧,它们收集生物识别数据,并保留面部指纹长达75年,并在移民及海关执法局和联邦调查局等机构之间共享。移民及海关执法局的 SmartLINK,由一家私营监狱公司的子公司构建,使用地理位置、面部识别甚至医疗数据来监控个人。 此外,政府通过从 Venntel 等商业经纪人处购买位置数据来绕过搜查令要求,甚至追踪参加礼拜活动或抗议活动的人员。尽管面临法律挑战,国税局和移民及海关执法局之间也发生了数据共享。尽管反复建议加强隐私保护,但实施率仍然很低,这表明该系统被设计用于监控,而非公共服务。专家建议使用网络浏览器和 RSS 订阅源,而不是这些耗费大量数据的应用程序。
## 缺失的阶梯:人工智能与软件工程的未来
人工智能正在迅速自动化传统上由初级工程师执行的任务——这些任务对于培养基础技能、判断力和系统理解至关重要。虽然最初关于人工智能将“基本上”编写所有代码的预测并未完全实现(目前的估计范围在30-50%),但人工智能*正在*显著改变开发者环境,提高生产力,但也造成了关键的技能差距。
研究表明存在“监督悖论”:依赖人工智能可以*降低*学习效果,甚至会使经验丰富的开发者放慢速度,但开发者越来越不愿意在没有它的情况下工作。这种依赖威胁着未来高级工程师的培养,因为传统的学习过程——解决具有挑战性的任务——正在被绕过。
来自Anthropic等的数据显示,人工智能正在影响招聘,在人工智能相关岗位中,年轻专业人员的新工作开始数量明显下降。公司正在采用人工智能,但并未取代入门级职位,这表明未来可能长期缺乏能够有效监督人工智能生成代码和维护系统完整性的经验丰富的工程师。
解决方案并非仅仅是采用人工智能,而是积极重建“阶梯”——实施结构化的学习路径,优先考虑理解而非速度,将上下文视为重要的基础设施,并对人工智能的角色设定现实的期望,将其视为工具而非教师。核心挑战是确保我们继续培养能够监督和验证人工智能输出的工程师,否则我们将失去构建和维护复杂系统所需的专业知识。
启用 JavaScript 和 Cookie 以继续。
## 寄生社会关系:摘要 寄生社会关系是指我们与从未谋面的人建立的单向连接,通过故事、音频、视频和互联网等媒体产生熟悉感。这个概念诞生于1956年,承认了我们与所观察对象建立联系的自然倾向,并因技术而得到放大。 虽然历史上是通过讲故事和语言建立的,但互联网——尤其是社交媒体——极大地*增加了*这些连接的可能性。我们与网络名人、作者,甚至历史人物发展出这些关系。 尽管有时被认为具有负面影响——作为“真实”关系的替代品——寄生社会关系也可能是有益的。它们提供灵感、与过去的联系,甚至是评估潜在现实世界互动的依据。最终,拥有这些关系可以是一种积极的体验,通过思想和内容促进共同理解和连接。
启用 JavaScript 和 Cookie 以继续。
目睹了社交媒体从早期以人为本的发展历程,作者对其目前的走向表示担忧。他们观察到,社交媒体正朝着自动化和武器化的方向转变,这得益于模仿真实互动的AI工具——它们撰写帖子和评论,*仿佛*是由真人创作的。
尽管运营着成功的时事通讯和播客,作者仍然将真实的互动置于“增长黑客”之上,珍视社交媒体作为分享想法和建立联系的空间。他们哀叹AI“声誉教练”的兴起,这些教练优先考虑产出和数据,而非真实的存在,从而助长了“有毒的激怒机器”。
作者倡导透明度,敦促人们识别并揭露自动化内容,并要求平台优先考虑信息而非人为制造的互动。他们强调*保持*在线存在的重要性,即使——甚至特别是在挣扎时,认为脆弱和诚实对于维护网络的社会结构至关重要。
## Marginalia Search NSFW 过滤器:摘要 作者为 Marginalia Search 开发了一个 NSFW 过滤器,起因于 API 用户请求。最初使用 fasttext 等快速分类器尝试效果不佳,原因是训练数据偏差——从 NSFW 搜索收集的样本包含过多“与 NSFW 相关”的噪声,导致误报。最先进的 Transformer 模型对于搜索引擎的实时需求来说速度太慢。 解决方案采用了一种新颖的方法:利用大型语言模型 (LLM),如 Qwen 3.5,来*标记*大量(10K 个样本)搜索结果为安全或 NSFW。然后,使用这些标记数据训练一个从头开始实现的简单、单隐藏层神经网络。 该网络专注于精心挑选的特征——指示 NSFW 内容的术语,以及用于避免过度过滤的“区分性”术语。训练是迭代的,过滤器在实时搜索结果上的表现被用于完善特征集并减少误报。虽然不完美(NSFW 分类器很少能做到完美),但该过滤器在初步评估中实现了约 90% 的准确率,现已在 API 上上线,并计划提供 UI 选项。作者强调了平衡速度、准确性和实际 NSFW 内容低发生率的“棘手”性质。