Inicio tecnología Artículo

Cómo montar tu propio servidor de IA local con Ollama y Llama 3 en 2026 (sin internet)

Cómo montar tu propio servidor de IA local con Ollama y Llama 3 en 2026 (sin internet)

No necesitas la nube para usar IA. Este tutorial te guía paso a paso para instalar Ollama y Llama 3 en un servidor casero, con acceso solo desde tu red local. Tus datos nunca salen de casa.

Requisitos

  • Linux (Ubuntu 22.04 o Debian 12)
  • 16 GB de RAM (mínimo para Llama 3 8B)
  • Disco SSD de 50 GB+

Paso 1: Instalar Ollama

curl -fsSL https://ollama.com/install.sh | sh
sudo usermod -aG sudo ollama

Paso 2: Descargar Llama 3 sin internet

En una máquina con internet:

ollama pull llama3
ollama save llama3 ./llama3.tar

Copia llama3.tar a tu servidor vía SCP y carga:

ollama load ./llama3.tar

Paso 3: Crear API local

Crea /etc/systemd/system/ollama.service:

[Service]
ExecStart=/usr/bin/ollama serve
Environment="OLLAMA_HOST=0.0.0.0"
User=ollama

Activa y reinicia:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl restart ollama

Paso 4: Acceder desde tu red

Desde cualquier dispositivo en tu LAN:

curl http://tu-servidor:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Resume este texto..."
}'

Seguridad total

  • No abre puertos a internet
  • Todos los datos se procesan localmente
  • Puedes afinar el modelo con tus propios textos

La IA ética no se compra. Se construye.

#Ollama #IA #AILocal #Privacidad #ServidorCasero #Llama3

Tiempo de lectura estimado: 5 minutos
620 palabras
Volver al inicio Volver atrás