Codex CLI con Ollama en local
· Lectura de un minuto
Usar Codex CLI sin enviar código a servidores externos, conectándolo a Ollama para inferencia completamente local.
Ejecución de modelos en local
Ver Todas las EtiquetasUsar Codex CLI sin enviar código a servidores externos, conectándolo a Ollama para inferencia completamente local.
Descargar y ejecutar un modelo de lenguaje completo en cualquier máquina con un solo fichero ejecutable, sin npm, pip ni Docker.
Reutilizar código escrito para la API de OpenAI apuntando a un modelo local en LM Studio, sin coste por token.