dev.ansango / blog

Configurar Llama con Obsidian

· 2 min de lectura

Configurar Llama con Obsidian

a9810aa2559e4647e146bbff0fd69ebe_MD5.jpeg

En este artículo aprenderás a configurar Ollama junto con obsidian para poder utilizar Llama 3.2 o cualquier otro modelo LLM disponible en Ollama.

Descargar Obsidian

Primero descarga obsidian e instalaló en tu ordenador

en Arch Linux a través de `yay` puedes usar:
yay -S obsidian

Descargar Ollama

A continuación descarga ollama para tu maquina:

En linux puedes usar:
curl -fsSL https://ollama.com/install.sh | sh

Descargar un LLM, Llama 3.2

Después de instalar Ollama, abre una terminal y ejecuta:

ollama run llama3.2

A continuación se descargará el modelo de Llama 3.2, y si no tienes ninguno instalado se utilizará este por defecto.

Para descargarnos cualquier otro modelo simplemente ejecuta el mismo comando seguido del modelo que quieres utilizar:

ollama run llama3.3

Puedes ver aqui el resto de modelos.

Descargar un Embedding model

Podemos descargar un modelo de embedding que nos permitirá mejorar la precisión de las predicciones, reducir el ruido y la variabilidad en los resultados y aumentar la eficiencia computacional.

En este caso descargaremos nomic-embed-text

ollama pull nomic-embed-text

Configurar Obsidian con Llama

A continuación abre obsidian, y en settings > community plugins busca Local GPT e instala este plugin.

Una vez instalado, activaló y selecciona como AI Provider, Ollama. En Providers Configuration puedes seleccionar el modelo que quieres usar en **Default Model**, y posteriormente si descargaste un embedding model configuraló en **Embedding Model**.

Te recomiendo seleccionar un atajo de teclado, como por ejemplo crtl + space, para poder utilizar las opciones que este plugin nos ofrece por defecto.