ansango / wiki
 ·  1 min de lectura

Configurar llama con obsidian

Utiliza llama3.2 con obsidian para completar y mejorar tus notas de una manera sencilla y rápida, incluyendo embedding models que trabajen con tus llms favoritos.

Descargar obsidian

Primero descarga obsidian e instalalo en tu ordenador

en Arch Linux a través de `yay` puedes usar:
yay -S obsidian

Descargar ollama

A continuación descarga ollama para tu maquina:

En linux puedes usar:
curl -fsSL https://ollama.com/install.sh | sh

Descargar un LLM, llama 3.2

Después de instalar ollama, abre una terminal y ejecuta:

ollama run llama3.2

A continuación se descargará el modelo de llama 3.2, y si no tienes ninguno instalado se utilizará este por defecto.

Para descargarnos cualquier otro modelo simplemente ejecuta el mismo comando seguido del modelo que quieres utilizar:

ollama run llama3.3

Puedes ver aqui el resto de modelos.

Descargar un Embedding model

Podemos descargar un modelo de embedding que nos permitirá mejorar la precisión de las predicciones, reducir el ruido y la variabilidad en los resultados y aumentar la eficiencia computacional.

En este caso descargaremos nomic-embed-text

ollama pull nomic-embed-text

Configurar obsidian con llama

A continuación abre obsidian, y en settings > community plugins busca Local GPT e instala este plugin.

Una vez instalado, activaló y selecciona como AI Provider, Ollama. En Providers Configuration puedes seleccionar el modelo que quieres usar en **Default Model**, y posteriormente si descargaste un embedding model configuraló en **Embedding Model**.

Te recomiendo seleccionar un atajo de teclado, como por ejemplo crtl + space, para poder utilizar las opciones que este plugin nos ofrece por defecto.