Local LLM sin Ollama: llama.cpp directo en pipelines reales | Juanchi.dev