No necesitas la nube para usar IA. Este tutorial te guía paso a paso para instalar Ollama y Llama 3 en un servidor casero, con acceso solo desde tu red local. Tus datos nunca salen de casa.
Requisitos
- Linux (Ubuntu 22.04 o Debian 12)
- 16 GB de RAM (mínimo para Llama 3 8B)
- Disco SSD de 50 GB+
Paso 1: Instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh
sudo usermod -aG sudo ollama
Paso 2: Descargar Llama 3 sin internet
En una máquina con internet:
ollama pull llama3
ollama save llama3 ./llama3.tar
Copia llama3.tar a tu servidor vía SCP y carga:
ollama load ./llama3.tar
Paso 3: Crear API local
Crea /etc/systemd/system/ollama.service:
[Service]
ExecStart=/usr/bin/ollama serve
Environment="OLLAMA_HOST=0.0.0.0"
User=ollama
Activa y reinicia:
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl restart ollama
Paso 4: Acceder desde tu red
Desde cualquier dispositivo en tu LAN:
curl http://tu-servidor:11434/api/generate -d '{
"model": "llama3",
"prompt": "Resume este texto..."
}'
Seguridad total
- No abre puertos a internet
- Todos los datos se procesan localmente
- Puedes afinar el modelo con tus propios textos
La IA ética no se compra. Se construye.
#Ollama #IA #AILocal #Privacidad #ServidorCasero #Llama3