Saltar al contenido principal

RAG sobre documentos propios con AnythingLLM

· 2 min de lectura

Queremos hacer preguntas a un modelo sobre documentos privados sin enviarlos a servicios externos, y para ello usaremos AnythingLLM con Ollama como LLM runtime local.

  1. Instalamos Ollama y descargamos el modelo que queramos usar para analizar los documentos.

  2. Instalamos AnythingLLM y lo ejecutamos.

alt text

Si pulsamos "Comenzar", nos sugiere un modelo adecuado a nuestros recursos hardware, pero lo que queremos es usar Ollama como proveedor de modelos.

alt text

  1. Seleccionamos "Configuración manual" y localizamos "Ollama":

alt text

  1. Elegimos un modelo de entre los que tenemos disponibles en Ollama y terminamos el proceso de configuración inicial:

alt text

  1. Creamos un espacio de trabajo (workspace) al que adjuntar documentos y preguntarle a nuestro modelo local:

alt text

  1. Subimos un PDF al espacio de trabajo y lo pineamos:

alt text

  1. Y finalmente podemos hacerle preguntas sobre el contenido adjunto al espacio de trabajo:

alt text

Referencias​