## 动态规划:从20世纪50年代的基础到现代机器学习
尽管最近才受到重视,机器学习建立在源于1952年理查德·贝尔曼关于动态规划的数学概念之上。这为最优控制和强化学习奠定了基础,最初是为离散时间提出的,后来扩展到连续系统。值得注意的是,贝尔曼发现这种连续形式与19世纪的物理方程——汉密尔顿-雅可比方程——相对应,从而统一了连续强化学习、随机控制和扩散模型等领域。
这种联系使得我们可以将问题视为优化轨迹。例如,连续时间强化学习利用汉密尔顿-雅可比-贝尔曼方程来寻找最优策略。同样,训练扩散模型(一种强大的生成技术)可以被解释为随机最优控制问题,利用相同的底层数学结构。
最近的研究表明,可以通过使用策略迭代和Q学习数值求解这些方程,并根据既定的控制基准(如线性二次调节器和莫顿投资组合问题)进行验证,从而实现实际应用。这突出了贝尔曼的基础性工作如何继续推动现代机器学习的进步,尤其是在强化学习和生成建模方面。
## Eclipse GlassFish:现代化平台
多年来,GlassFish一直饱受缓慢、缺乏支持且仅适用于开发的声誉。然而,自2022年以来,在Eclipse基金会的管理下,并得益于OmniFish的重大贡献,GlassFish已经发生了重大转变。现代Eclipse GlassFish(版本7.0及更高版本,最新版本为8.0)现在是一个强大、企业级的应用服务器。
主要改进包括来自OmniFish的积极商业支持和长期维护、频繁发布,以及对现代Java版本(高达25)和Jakarta EE 11的支持。与旧的Oracle GlassFish版本不同,它具有更快的性能、增强的安全功能,并且具有云就绪能力,提供Docker镜像和轻量级微服务分发版。
此外,Embedded GlassFish已经发展成为一个生产就绪的运行时环境,非常适合微服务。该平台现在积极支持MicroProfile API,提供健康检查和配置管理等功能。Eclipse GlassFish不再是一个过时的平台,而是满足当今企业Java需求的面向未来的解决方案。
## 复制研究揭示关键创新聚集研究中的问题
一篇最近被《美国经济评论》接受的评论详细指出了Moretti (2021) 的十个重大问题,该论文是一篇被高度引用的研究,探讨了技术集群规模与创新(专利产出)之间的联系。作者的复制研究对该论文的核心主张,即*因果*关系,提出了质疑,认为观察到的相关性可能并非因果关系。
批评的核心集中在Moretti尝试解决选择偏差(使用事件研究)和遗漏变量偏差(使用工具变量)中的缺陷。复制研究揭示了两种分析中的编码错误,更正后导致结果为零。其他问题包括由于数据合并错误导致的结果无法复现,不正确的统计计算影响了专利质量估计(显示质量随着集群规模的扩大而*下降*,与原始发现相反),以及对统计模型的误读。
作者最初受委托为住房政策资金扩展Moretti的研究,发现了许多编码和概念错误。这些错误范围从简单的数据处理错误到模型规范中的重大错误,显著改变了结论。研究结果表明,聚集的益处可能被夸大,并强调了在有影响力的研究中回应复制尝试的重要性。
## VHDL 与 Verilog:确定性的关键
本文重点介绍了 VHDL 和 Verilog 之间的一个关键区别:**确定性**。VHDL 通过其“delta 循环”算法实现可预测的结果。该系统将信号更新和过程评估分为不同的阶段。信号更新首先发生,触发过程,然后过程更新信号——但这些更新被安排在*未来*的 delta 循环中。这确保了过程始终看到信号值的稳定快照,无论每个阶段内的执行顺序如何,从而保证了确定性的结果。
Verilog 缺乏这种分离。信号更新和过程评估可以交错进行,这意味着过程可能会根据执行顺序观察到不同的值,从而导致非确定性行为。虽然 Verilog 的非阻塞赋值*延迟*更新,但它们并未强制执行 VHDL 的分阶段方法。
作者认为 VHDL 的 delta 循环是其最强大的特性,以最小的开销提供内置的确定性。虽然 Verilog 可以通过使用非阻塞赋值在特定的同步设计中实现确定性,但这并非普遍保证。VHDL 依赖于信号进行过程间通信,而信号本质上利用了 delta 循环,这有助于其一致的行为,与 Verilog 依赖 `reg` 类型以及阻塞赋值与非阻塞赋值的复杂性形成了鲜明对比。