Deepseek es una empresa china de inteligencia artificial fundada en 2023 por Liang Wenfeng, cofundador del hedge fund High-Flyer. Desarrolla modelos de lenguaje de gran escala (LLM) de código abierto que compiten directamente con GPT-4, Claude y Gemini, pero a una fracción del costo de entrenamiento reportado.
En enero 2025, Deepseek lanzó DeepSeek-R1, un modelo de razonamiento que superó a o1 de OpenAI en varios benchmarks y sacudió los mercados al ser open-source y gratuito. Su aparición demostró que se pueden construir modelos de élite con menos recursos computacionales de los que se pensaba.
| Perfil | Uso principal |
|---|---|
| Estudiantes | Resolver problemas de matemáticas, física y programación con razonamiento detallado. |
| Desarrolladores | Generar y depurar código con DeepSeek-Coder, integrar vía API a bajo costo. |
| Investigadores | Ejecutar el modelo localmente (open-source) y ajustarlo para tareas específicas. |
| Empresas | Usar la API como alternativa económica a GPT-4 para aplicaciones de producción. |
| Curiosos de la IA | Explorar cómo piensa la IA leyendo el "pensamiento en voz alta" de R1. |
Deepseek ha lanzado varias generaciones de modelos especializados:
Modelo de propósito general de alta capacidad. 671 mil millones de parámetros (arquitectura MoE). Compite con GPT-4o.
Open SourceModelo de razonamiento (como o1 de OpenAI). Muestra su proceso de pensamiento paso a paso. Destaca en matemáticas y lógica.
RazonamientoEspecializado en generación, completado y revisión de código. Soporta 338 lenguajes de programación.
CódigoGeneración anterior de propósito general. Base para muchos modelos derivados de la comunidad open-source.
BaseModelo multimodal de Deepseek para comprensión y generación de imágenes. Compite con DALL·E y Stable Diffusion.
MultimodalVersión de R1 entrenada sin datos supervisados — aprendió a razonar solo con aprendizaje por refuerzo.
InvestigaciónMixture of Experts: aunque V3 tiene 671B parámetros en total, solo activa 37B por token. Esto lo hace eficiente sin sacrificar calidad.
R1 muestra su razonamiento interno antes de responder. Puedes leer cómo analiza el problema y llega a la solución paso a paso.
Ventana de contexto de 128K tokens — puede leer documentos largos, libros completos o grandes bases de código de una sola vez.
DeepSeek API cobra ~$0.14 por millón de tokens de entrada (V3), frente a $5–$15 de GPT-4o. Hasta 40x más barato en algunos casos.
Al ser open-source, puedes correr versiones destiladas (7B, 14B) con Ollama o LM Studio directamente en tu PC, sin internet ni pago.
Fuerte en chino e inglés, pero funciona correctamente en español y decenas de idiomas más, incluyendo soporte para código en 338 lenguajes de programación (Coder V2).
| Aspecto | 🧠 DeepSeek-R1 | 🤖 ChatGPT o1 | ✨ Gemini 2.0 | 🟠 Claude 3.5 |
|---|---|---|---|---|
| Tipo | Razonamiento (open-source) | Razonamiento (cerrado) | Multimodal (cerrado) | Conversacional (cerrado) |
| Costo | Gratis / API muy económica | $20/mes o API cara | Gratis / API moderada | $20/mes o API cara |
| Código abierto | ✅ Sí | ❌ No | ❌ No | ❌ No |
| Uso local | ✅ Con Ollama | ❌ No | ❌ No | ❌ No |
| Chain of Thought | ✅ Visible | ⚠️ Oculto | ✅ Flash Thinking | ⚠️ Parcial (Extended) |
| Contexto | 128K tokens | 128K tokens | 1M tokens | 200K tokens |
| Fortaleza | Matemáticas, código, costo | Razonamiento general | Multimodal, documentos | Escritura, análisis |
| Privacidad | ⚠️ Empresa china | ✅ EE.UU. (OpenAI) | ✅ EE.UU. (Google) | ✅ EE.UU. (Anthropic) |
Qué es DeepSeek y por qué sacudió el mundo de la IA
DeepSeek R1 vs ChatGPT o1 — comparativa real
Cómo usar DeepSeek gratis en español
Ejecutar DeepSeek local con Ollama en Windows
Estos ejercicios te permitirán conocer Deepseek de forma directa, compararlo con otras herramientas y entender cuándo conviene usarlo.
ollama run deepseek-r1:7b