RAG sobre documentos propios con AnythingLLM
Queremos hacer preguntas a un modelo sobre documentos privados sin enviarlos a servicios externos, y para ello usaremos AnythingLLM con Ollama como LLM runtime local.
Ejecuci贸n de modelos de lenguaje en local con Ollama
Ver Todas las EtiquetasQueremos hacer preguntas a un modelo sobre documentos privados sin enviarlos a servicios externos, y para ello usaremos AnythingLLM con Ollama como LLM runtime local.
Usar Codex CLI sin enviar c贸digo a servidores externos, conect谩ndolo a Ollama para inferencia completamente local.
Generar embeddings sin enviar datos a ning煤n servicio externo usando Ollama y nomic-embed-text, 煤til para RAG privado.
Fijar un system prompt y ajustar par谩metros en Ollama para crear un asistente especializado sin repetirlos en cada sesi贸n.
Tener un ChatGPT local completo con Ollama integrado usando un solo comando Docker.
En este experimento vamos a ejecutar un modelo en local, para poder hablar con un LLM en nuestra m谩quina.