DeepSeek R1 en Raspberry Pi: ¿Realmente puedes ejecutar un modelo Open Source tan potente?
DeepSeek R1 (o “dips R1”, como también se conoce) es el nuevo gran protagonista en la carrera de los modelos de lenguaje. Con un origen sorprendente, esta startup china ha logrado, con un presupuesto relativamente modesto, competir de manera significativa con gigantes como OpenAI. El hecho de que DeepSeek R1 sea Open Source y que además permita la “destilación” de modelos (para que funcionen en hardware menos potente) ha dado lugar a multitud de titulares: “Ejecuta DeepSeek en tu Raspberry Pi” o “DeepSeek, el ChatGPT que puedes instalar en casa”.
Sin embargo, no es oro todo lo que reluce. Aunque técnicamente sí podemos hacer funcionar un modelo de DeepSeek en una Raspberry Pi, no es el mismo que se compara directamente con los más poderosos de OpenAI. En este artículo te contaremos las claves, las diferencias entre modelos y qué puedes esperar realmente si decides ejecutarlo en tu pequeña placa de sobremesa.
1. ¿Qué es DeepSeek R1 y por qué ha causado tanto revuelo?
DeepSeek R1 es un modelo de lenguaje a gran escala surgido desde una startup china que, aparentemente, ha logrado competir en muchas métricas con los modelos más punteros de OpenAI. Se trata de un proyecto Open Source, lo que implica que cualquiera con el hardware adecuado puede descargarlo y ejecutarlo sin depender de servicios en la nube.
Lo que más llama la atención es que está entrenado en un hardware menos potente que el usado por las grandes empresas, y aun así, ha conseguido resultados sorprendentes. Su arquitectura y el enfoque de entrenamiento han permitido que DeepSeek R1 sea adaptable, algo que veremos a continuación con la llamada “destilación de modelos”.
2. Destilación de modelos: la clave para hardware menos potente
Uno de los factores diferenciales de DeepSeek R1 es su capacidad para “destilar” otros modelos. La destilación de un modelo, en términos generales, consiste en transferir el conocimiento de un modelo grande (profesor) a otro más pequeño (alumno). El alumno resultante puede ejecutarse en hardware más modesto, conservando buena parte de las capacidades del profesor.
Sin embargo, cuanto más reduzcas el tamaño de ese modelo alumno, más perderá en cuanto a conocimientos, coherencia en sus respuestas y capacidad de razonar sobre temas complejos. Esto es lógico: no se puede meter un océano en un vaso de agua. Por tanto, cuando alguien dice que DeepSeek R1 puede funcionar en una Raspberry Pi, en realidad está hablando de un modelo destilado, mucho más pequeño que el original de 400 GB, y por ello con capacidades limitadas.
3. Comparativa entre el modelo completo y los modelos destilados
3.1 El modelo completo (70B)
El modelo más avanzado de DeepSeek R1 ronda los 400 GB de tamaño. ¿La pega? Necesitas hardware de gama muy alta para poder ejecutarlo con soltura, es decir, varias GPU potentes (como las NVIDIA 4090 o equivalentes) o incluso estaciones de trabajo y servidores preparados para computación intensiva.
Con este modelo es donde DeepSeek R1 realmente compite con OpenAI en múltiples métricas y donde se producen las comparaciones más llamativas. Pero, evidentemente, no hay forma de correr esta variante en una Raspberry Pi.
3.2 Modelos intermedios (14B, 32B, etc.)
En el rango intermedio, encontramos modelos de unos 14 a 32 GB, que ya pueden ejecutarse (aunque con ciertas limitaciones) en una GPU con 12 GB de VRAM o en un ordenador con suficiente RAM si estamos dispuestos a aceptar velocidades de inferencia muy bajas. Si tu PC doméstico cuenta con una GPU de gama media-alta, es posible que puedas experimentar con estos modelos y obtener resultados “decentes”.
3.3 Modelos más pequeños (7B, 1.5B, etc.)
Para llegar hasta la Raspberry Pi, tenemos que irnos a la gama más pequeña, con modelos de alrededor de 7B o incluso 1.5B. Estos modelos ya pueden ejecutarse en una Raspberry Pi de 8 GB de RAM o hardware similar, pero a costa de sacrificar gran parte de la calidad de las respuestas, la coherencia y la velocidad de inferencia.
En pruebas reales, el modelo de 7B funciona tan lento en la Raspberry Pi (poco más de un token por segundo) que, en la práctica, su uso es poco viable. Y si bajamos aún más al modelo de 1.5B, las respuestas se vuelven extremadamente limitadas y plagadas de lo que se suele llamar “alucinaciones”, es decir, información inventada o confusa.
4. ¿Merece la pena ejecutar DeepSeek R1 en Raspberry Pi?
Si la idea es reproducir la experiencia de un ChatGPT o de la versión completa de DeepSeek R1, la respuesta es clara: no, no vas a tener esa experiencia. El hardware de la Raspberry Pi resulta insuficiente para cargar todo ese conocimiento y ofrecerte, de forma ágil, respuestas complejas y precisas.
No obstante, eso no significa que sea inútil. En tareas muy concretas y de baja complejidad, un modelo destilado pequeño puede, por ejemplo, ayudarte con pequeños fragmentos de código, errores de sintaxis o preguntas sumamente básicas. En estos casos, la Raspberry Pi puede servir como un entorno de pruebas o como un experimento curioso, sobre todo si disfrutas trasteando con la IA y quieres aprender cómo funcionan estos modelos a bajo nivel.
5. Experimentos y conclusiones prácticas
Para entender mejor las diferencias, se han hecho pruebas comparando:
- Una GPU NVIDIA 3060 (12 GB de VRAM).
- La versión en la nube de DeepSeek R1.
- Una Raspberry Pi con 8 GB de RAM.
En la GPU de escritorio, es posible ejecutar con relativa soltura el modelo 14B, y aunque el 32B ya va más despacio (al tener que usar RAM en lugar de VRAM), sigue siendo factible para pruebas puntuales. Sin embargo, el modelo 70B se queda fuera del alcance de la 3060.
Por su parte, en la Raspberry Pi se puede llegar a cargar el modelo 7B y hasta el 1.5B, pero las respuestas son lentas y, en muchos casos, incorrectas o incoherentes. Sin más rodeos: es interesante como experimento, pero poco más.
DeepSeek R1 ha demostrado que no es necesario contar con un presupuesto millonario para competir en el ámbito de la IA. Su enfoque Open Source y la posibilidad de destilar modelos más pequeños brinda una gran flexibilidad, pero no hay trucos mágicos: el modelo de 70B no cabe en una Raspberry Pi, y los modelos destilados más ligeros sacrifican buena parte de la funcionalidad original.
Si buscas un sistema local que te permita hacer consultas complejas, necesitarás hardware muy potente para correr el modelo completo o, al menos, uno de los intermedios. Por el contrario, si lo que te interesa es un experimento educativo o una prueba de concepto, cargar el modelo de 1.5B o 7B en una Raspberry Pi puede resultarte entretenido, con la expectativa de que obtendrás respuestas más bien limitadas.
En definitiva, DeepSeek R1 supone un avance significativo en la democratización de la IA, pero hay que tener los pies en la tierra a la hora de valorar sus límites, especialmente en dispositivos con escasos recursos como la Raspberry Pi. Si lo que buscas es rendimiento real a la altura de OpenAI, necesitarás una infraestructura mucho más potente… o confiar en la versión en la nube.
¡Gracias por llegar hasta aquí! Esperamos que este artículo te haya ayudado a comprender mejor lo que hay detrás de los titulares sobre “DeepSeek R1 en Raspberry Pi”.