Configurar Llama con Obsidian
En este artículo aprenderás a configurar Ollama junto con obsidian para poder utilizar Llama 3.2 o cualquier otro modelo LLM disponible en Ollama.
Descargar Obsidian
Primero descarga obsidian e instalaló en tu ordenador
en Arch Linux a través de `yay` puedes usar:yay -S obsidian
Descargar Ollama
A continuación descarga ollama para tu maquina:
En linux puedes usar:curl -fsSL https://ollama.com/install.sh | sh
Descargar un LLM, Llama 3.2
Después de instalar Ollama, abre una terminal y ejecuta:
ollama run llama3.2
A continuación se descargará el modelo de Llama 3.2, y si no tienes ninguno instalado se utilizará este por defecto.
Para descargarnos cualquier otro modelo simplemente ejecuta el mismo comando seguido del modelo que quieres utilizar:
ollama run llama3.3
Puedes ver aqui el resto de modelos.
Descargar un Embedding model
Podemos descargar un modelo de embedding que nos permitirá mejorar la precisión de las predicciones, reducir el ruido y la variabilidad en los resultados y aumentar la eficiencia computacional.
En este caso descargaremos nomic-embed-text
ollama pull nomic-embed-text
Configurar Obsidian con Llama
A continuación abre obsidian, y en settings > community plugins
busca Local GPT e instala este plugin.
Te recomiendo seleccionar un atajo de teclado, como por ejemplo crtl + space
, para poder utilizar las opciones que este plugin nos ofrece por defecto.