Cómo instalar DeepSeek-R1 en tu ordenador y usar IA sin depender de la nube

La inteligencia artificial (IA) avanza a pasos agigantados, con modelos cada vez más potentes que permiten desde generar textos hasta resolver problemas matemáticos complejos. Sin embargo, la mayoría de estas herramientas funcionan en la nube, lo que implica costos recurrentes y preocupaciones sobre la privacidad de los datos. DeepSeek-R1, un modelo de IA de código abierto, permite ejecutar tareas avanzadas de razonamiento de forma completamente local en cualquier ordenador, sin necesidad de conexión a Internet.

Para instalarlo y hacerlo funcionar fácilmente, se utiliza Ollama, una plataforma que permite descargar y ejecutar modelos de IA directamente desde la terminal del sistema operativo. Con esta combinación, cualquier usuario puede acceder a un potente modelo de lenguaje sin depender de servidores externos.


¿Qué es DeepSeek-R1 y por qué usarlo?

DeepSeek-R1 es un modelo de IA especializado en tareas que requieren razonamiento avanzado, como resolución de problemas matemáticos, programación y análisis lógico. Su principal ventaja es que puede ejecutarse en local, sin enviar datos a terceros, lo que garantiza una mayor privacidad y seguridad.

A diferencia de otros modelos de IA, DeepSeek-R1 utiliza aprendizaje por refuerzo en lugar de depender exclusivamente de datos etiquetados, lo que mejora su capacidad de autoevaluación y resolución de problemas.

Ventajas principales de DeepSeek-R1

Privacidad total: No necesita conexión a Internet, protegiendo la información del usuario.
Ahorro de costos: No implica pagos recurrentes ni cuotas por uso.
Flexibilidad: Es de código abierto y puede adaptarse a distintas necesidades.
Optimización de recursos: Tiene versiones que funcionan incluso en ordenadores sin GPU potente.

Para aprovechar todas estas ventajas, es necesario instalar Ollama, una herramienta que facilita la gestión de modelos de IA en local.


Ollama: la clave para ejecutar IA en tu ordenador

Ollama es una plataforma diseñada para descargar y ejecutar modelos de IA en cualquier ordenador, ya sea con Windows, macOS o Linux. Funciona desde la terminal del sistema operativo y permite instalar modelos de manera rápida y sencilla.

Principales características de Ollama

Compatible con múltiples modelos de IA, incluyendo DeepSeek-R1 y LLaMA 2.
Interfaz ligera y fácil de usar, basada en la terminal.
Funciona tanto en CPU como en GPU, optimizando el rendimiento según el hardware disponible.
Modo completamente offline, garantizando mayor seguridad y privacidad.

Además, Ollama puede complementarse con Open WebUI, una interfaz gráfica que permite interactuar con los modelos de IA desde el navegador, facilitando su uso para quienes prefieren una experiencia más visual.


Cómo instalar DeepSeek-R1 con Ollama

A continuación, se explica cómo instalar DeepSeek-R1 en cualquier ordenador y empezar a usarlo en pocos pasos. Incluso puedes optar por alquilar o instalar tu propio servidor dedicado en un centros de datos. Stackscale (Grupo Aire) es una gran opción sus servidores bare-metal con GPU.

1. Instalar Ollama en el ordenador

El primer paso es descargar e instalar Ollama desde su página oficial (ollama.com) o del repositorio en GitHub.

  • En Windows y macOS, se descarga el instalador desde la web y se sigue el proceso habitual de instalación.
  • En Linux, se ejecuta el siguiente comando en la terminal:
curl -fsSL https://ollama.com/install.sh | sh

2. Descargar el modelo DeepSeek-R1

Una vez instalado Ollama, se debe descargar el modelo de IA. Para ello, se abre la terminal y se introduce:

ollama pull deepseek-r1:8b

Este comando descarga la versión de 8.000 millones de parámetros (8B), que ofrece un equilibrio entre rendimiento y requisitos de hardware. Sin embargo, también se pueden descargar otras versiones según la capacidad del ordenador:

  • 1.5B parámetros (~1,1 GB): ollama pull deepseek-r1:1.5b
  • 7B parámetros (~4,7 GB): ollama pull deepseek-r1
  • 70B parámetros (requiere +24GB VRAM): ollama pull deepseek-r1:70b
  • 671B parámetros (para hardware extremo, +300GB VRAM): ollama pull deepseek-r1:671b

3. Ejecutar DeepSeek-R1

Para iniciar el modelo y comenzar a usar la IA, se ejecuta:

ollama run deepseek-r1:8b

Esto abrirá una terminal interactiva donde el usuario podrá escribir preguntas y recibir respuestas generadas por la IA. Para salir del programa, se usa el comando:

/bye

Si se prefiere una interfaz gráfica, se recomienda instalar Open WebUI, que permite gestionar los modelos de IA desde un navegador web.


Requisitos de hardware para DeepSeek-R1

Para un rendimiento óptimo, se recomienda utilizar una GPU compatible, aunque Ollama también puede ejecutarse en CPU (con menor velocidad de procesamiento).

Tarjetas gráficas compatibles

🔹 NVIDIA: RTX 4090, 4080, 4070, 3090 Ti, 3080, 2080 Ti, TITAN RTX, A100, H100.
🔹 AMD (ROCm): Radeon RX 7900 XTX, 7800 XT, 7700 XT, Instinct MI300X, MI250.
🔹 Apple Silicon (Metal): MacBook con M1, M2 o M3.

Si no se dispone de una GPU compatible, el modelo puede ejecutarse en CPU, aunque el rendimiento será inferior.


Conclusión: IA avanzada sin depender de la nube

La instalación de DeepSeek-R1 con Ollama ofrece una alternativa potente y privada para quienes desean usar inteligencia artificial sin conexión a Internet. Esta configuración permite ejecutar modelos avanzados sin preocuparse por costos recurrentes, protección de datos o dependencia de servidores externos.

Gracias a esta combinación, cualquier usuario puede acceder a herramientas de IA de última generación y utilizarlas en su propio ordenador, abriendo nuevas posibilidades para la automatización, la investigación y la creatividad sin restricciones.

vía: Noticias Inteligencia Artificial

Scroll al inicio