Búsqueda semántica con ChromaDB
Indexar textos en ChromaDB con embeddings automáticos y recuperar los más relevantes para una consulta, sin escribir una línea de código de vectorización.
Indexar textos en ChromaDB con embeddings automáticos y recuperar los más relevantes para una consulta, sin escribir una línea de código de vectorización.
Usar /init para que Claude Code analice el proyecto automáticamente y genere un fichero de contexto listo para usar.
Queremos hacer preguntas a un modelo sobre documentos privados sin enviarlos a servicios externos, y para ello usaremos AnythingLLM con Ollama como LLM runtime local.
Automatizar el flujo de commit con Conventional Commits creando una skill reutilizable en Claude Code.
AGENTS.md es un archivo de configuración para Codex CLI, donde le dices al agente cómo debe trabajar sobre tu proyecto. En este experimento vamos a evitar que Codex toque los ficheros que son generados o ignore convenciones del proyecto definiendo restricciones.
Usar Codex CLI sin enviar código a servidores externos, conectándolo a Ollama para inferencia completamente local.
Descargar y ejecutar un modelo de lenguaje completo en cualquier máquina con un solo fichero ejecutable, sin npm, pip ni Docker.
Reutilizar código escrito para la API de OpenAI apuntando a un modelo local en LM Studio, sin coste por token.
Generar embeddings sin enviar datos a ningún servicio externo usando Ollama y nomic-embed-text, útil para RAG privado.
Fijar un system prompt y ajustar parámetros en Ollama para crear un asistente especializado sin repetirlos en cada sesión.