| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
原始链接: https://news.ycombinator.com/item?id=44001087
Ollama的新型多模态引擎旨在提供一流的多模态模型支持,引发了Hacker News社区的热烈讨论。虽然其易用性和类似Docker的LLM使用方式受到称赞,但Ollama因其历史上缺乏对核心依赖项llama.cpp的归属声明,以及对其未来盈利模式的担忧而受到批评。一些用户强调Ollama运行多个模型的便捷性,而另一些用户则更重视llama.cpp的速度和功能,并对Ollama存储模型权重的方式表示不满。讨论还涉及llama.cpp项目内部的人际冲突以及支持新模型的挑战。评论者也质疑Ollama引擎完全独立于llama.cpp的说法是否准确,因为它仍然使用与llama.cpp开发密切相关的GGML库。最后,人们对多模态模型的实际应用以及LLM中“用户上下文”的细微之处也表现出兴趣。
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
Presumably Ollama had been working on this for quite a while already - it sounds like they've broken their initial dependency on llama.cpp. Being in charge of their own destiny makes a lot of sense.
reply