OpinióndockerLLM
El ecosistema local de LLMs no necesita Ollama (y me incomodó descubrirlo)
Fui team Ollama desde el día uno. La semana pasada intenté reemplazarlo con llama.cpp directo y un wrapper mínimo. El resultado me obligó a repensar algo que creía que ya tenía resuelto: Ollama soluciona UX, no infraestructura.
6 min208