Levantar Open WebUI con Ollama en un comando
· Lectura de un minuto
Tener un ChatGPT local completo con Ollama integrado usando un solo comando Docker.
Experimento: levantar Open WebUI con Ollama en un comando​
Contexto: la imagen ollama de Open WebUI incluye Ollama, por lo que no hace falta tenerlo instalado previamente.
docker run -d -p 8080:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
ghcr.io/open-webui/open-webui:ollama
Resultado:
Unable to find image 'ghcr.io/open-webui/open-webui:ollama' locally
ollama: Pulling from open-webui/open-webui
...
Status: Downloaded newer image for ghcr.io/open-webui/open-webui:ollama
a3f1c2d8e9b0...
Abre http://localhost:8080, crea una cuenta de administrador y ya puedes descargar modelos desde la interfaz.
Qué aprender: con un solo comando tienes un ChatGPT local completo. El volumen ollama persiste los modelos entre reinicios del contenedor.