RAG sobre documentos propios con AnythingLLM
· 2 min de lectura
Queremos hacer preguntas a un modelo sobre documentos privados sin enviarlos a servicios externos, y para ello usaremos AnythingLLM con Ollama como LLM runtime local.
Publicaciones sobre AnythingLLM
Ver Todas las EtiquetasQueremos hacer preguntas a un modelo sobre documentos privados sin enviarlos a servicios externos, y para ello usaremos AnythingLLM con Ollama como LLM runtime local.