原文
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
原始链接: https://news.ycombinator.com/item?id=44055347
Hacker News 上的一篇讨论围绕着一个原则展开:利用内存可以显著提高算法效率,甚至比优化时间更重要。一篇论文指出,多磁带图灵机可以用比预期更少的空间进行模拟。评论者讨论了预计算和缓存,例如查找表和使用哈希的存储去重,如何在实践中体现这一原则。讨论扩展到社区规模缓存(如预编译软件)的考虑以及 O(1) 随机内存访问在实际数据中心中的局限性,指出 O(n^(1/2)) 的访问复杂度。讨论还涉及到大型语言模型 (LLM) 本质上是巨大的预计算模型,作为一种高级缓存形式来逼近复杂解。核心结论是,存储中间结果或预计算值可以起到“时间压缩”的作用,重用存储数据以避免冗余计算,从而提高算法效率。
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
https://arxiv.org/abs/2502.17779
reply