Inicio tecnología Artículo

Cómo usar Ollama para resumir tus notas locales sin subir nada a la nube

Cómo usar Ollama para resumir tus notas locales sin subir nada a la nube

Tienes cientos de notas en Markdown, pero necesitas resúmenes rápidos. En lugar de usar ChatGPT, este tutorial muestra cómo usar Ollama + Llama 3 en tu servidor para procesar tus archivos sin que salgan de tu red.

Requisitos

  • Linux (Ubuntu/Debian)
  • 8 GB de RAM (mínimo)
  • Ollama instalado

Paso 1: Instalar Ollama

curl -fsSL https://ollama.com/install.sh | sh

Paso 2: Descargar Llama 3

ollama pull llama3

Paso 3: Script para resumir una nota

Crea resumen.sh:

#!/bin/bash
NOTA="$1"
if [ ! -f "$NOTA" ]; then
  echo "Archivo no encontrado"
  exit 1
fi
cat "$NOTA" | ollama run llama3 "Resume este texto en 3 líneas:"

Paso 4: Uso

chmod +x resumen.sh
./resumen.sh notas/proyecto_x.md

Avanzado: Integración con Obsidian

Usa el plugin Templater para llamar a este script desde Obsidian. Al guardar una nota, genera automáticamente un resumen en el frontmatter.

Seguridad total

Ningún dato sale de tu máquina. Ni siquiera se almacena en disco. Es IA ética, en casa.

#Ollama #IA #Privacidad #Markdown #AILocal

Tiempo de lectura estimado: 4 minutos
580 palabras
Volver al inicio Volver atrás