Tienes cientos de notas en Markdown, pero necesitas resúmenes rápidos. En lugar de usar ChatGPT, este tutorial muestra cómo usar Ollama + Llama 3 en tu servidor para procesar tus archivos sin que salgan de tu red.
Requisitos
- Linux (Ubuntu/Debian)
- 8 GB de RAM (mínimo)
- Ollama instalado
Paso 1: Instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh
Paso 2: Descargar Llama 3
ollama pull llama3
Paso 3: Script para resumir una nota
Crea resumen.sh:
#!/bin/bash
NOTA="$1"
if [ ! -f "$NOTA" ]; then
echo "Archivo no encontrado"
exit 1
fi
cat "$NOTA" | ollama run llama3 "Resume este texto en 3 líneas:"
Paso 4: Uso
chmod +x resumen.sh
./resumen.sh notas/proyecto_x.md
Avanzado: Integración con Obsidian
Usa el plugin Templater para llamar a este script desde Obsidian. Al guardar una nota, genera automáticamente un resumen en el frontmatter.
Seguridad total
Ningún dato sale de tu máquina. Ni siquiera se almacena en disco. Es IA ética, en casa.
#Ollama #IA #Privacidad #Markdown #AILocal