Codex CLI con Ollama en local
· Lectura de un minuto
Usar Codex CLI sin enviar código a servidores externos, conectándolo a Ollama para inferencia completamente local.
Experimento: Codex con Ollama en local
Contexto: usar Codex sin enviar código a servidores externos, útil para proyectos privados o con restricciones de privacidad.
ollama pull qwen2.5-coder:7b
export OPENAI_BASE_URL="http://localhost:11434/v1"
export OPENAI_API_KEY="ollama"
codex --model qwen2.5-coder:7b "explica qué hace la función main en src/index.ts"
Resultado:
Leyendo src/index.ts...
La función `main` inicializa el servidor Express, registra los middlewares de
autenticación y logging, monta las rutas desde src/routes/, y arranca el servidor
en el puerto definido en la variable de entorno PORT (por defecto 3000).
Qué aprender: con qwen2.5-coder:7b y 8 GB de RAM obtienes un agente de código completamente local. La velocidad es menor que con la API de OpenAI, pero suficiente para tareas de análisis y edición de ficheros.