🧠 Deepseek — El LLM chino de código abierto

¿Qué es Deepseek?

Deepseek es una empresa china de inteligencia artificial fundada en 2023 por Liang Wenfeng, cofundador del hedge fund High-Flyer. Desarrolla modelos de lenguaje de gran escala (LLM) de código abierto que compiten directamente con GPT-4, Claude y Gemini, pero a una fracción del costo de entrenamiento reportado.

En enero 2025, Deepseek lanzó DeepSeek-R1, un modelo de razonamiento que superó a o1 de OpenAI en varios benchmarks y sacudió los mercados al ser open-source y gratuito. Su aparición demostró que se pueden construir modelos de élite con menos recursos computacionales de los que se pensaba.

🔥 En enero 2025, el lanzamiento de DeepSeek-R1 hizo caer las acciones de Nvidia un 17% en un día, generando un debate global sobre el monopolio de EE.UU. en la IA.

¿Por qué es importante?

  • 🆓 Código abierto — los pesos del modelo son descargables y modificables libremente.
  • 💰 Entrenado con mucho menos dinero — se reportó un costo de ~$6 millones vs miles de millones de sus competidores.
  • 🧮 Razonamiento avanzado — DeepSeek-R1 piensa paso a paso (Chain of Thought) antes de responder.
  • 🌐 API pública — disponible en platform.deepseek.com a precios muy competitivos.
  • 📱 App y web gratuita — chat.deepseek.com funciona sin pago como ChatGPT free.

¿Quién usa Deepseek?

PerfilUso principal
EstudiantesResolver problemas de matemáticas, física y programación con razonamiento detallado.
DesarrolladoresGenerar y depurar código con DeepSeek-Coder, integrar vía API a bajo costo.
InvestigadoresEjecutar el modelo localmente (open-source) y ajustarlo para tareas específicas.
EmpresasUsar la API como alternativa económica a GPT-4 para aplicaciones de producción.
Curiosos de la IAExplorar cómo piensa la IA leyendo el "pensamiento en voz alta" de R1.

🗂️ Modelos de Deepseek

Deepseek ha lanzado varias generaciones de modelos especializados:

DeepSeek-V3

Modelo de propósito general de alta capacidad. 671 mil millones de parámetros (arquitectura MoE). Compite con GPT-4o.

Open Source

DeepSeek-R1

Modelo de razonamiento (como o1 de OpenAI). Muestra su proceso de pensamiento paso a paso. Destaca en matemáticas y lógica.

Razonamiento

DeepSeek-Coder V2

Especializado en generación, completado y revisión de código. Soporta 338 lenguajes de programación.

Código

DeepSeek-V2

Generación anterior de propósito general. Base para muchos modelos derivados de la comunidad open-source.

Base

Janus Pro

Modelo multimodal de Deepseek para comprensión y generación de imágenes. Compite con DALL·E y Stable Diffusion.

Multimodal

DeepSeek-R1 Zero

Versión de R1 entrenada sin datos supervisados — aprendió a razonar solo con aprendizaje por refuerzo.

Investigación

⚙️ Características técnicas clave

🔗 Arquitectura MoE

Mixture of Experts: aunque V3 tiene 671B parámetros en total, solo activa 37B por token. Esto lo hace eficiente sin sacrificar calidad.

🧮 Chain of Thought

R1 muestra su razonamiento interno antes de responder. Puedes leer cómo analiza el problema y llega a la solución paso a paso.

📖 Contexto extenso

Ventana de contexto de 128K tokens — puede leer documentos largos, libros completos o grandes bases de código de una sola vez.

💵 API económica

DeepSeek API cobra ~$0.14 por millón de tokens de entrada (V3), frente a $5–$15 de GPT-4o. Hasta 40x más barato en algunos casos.

🖥️ Ejecutable local

Al ser open-source, puedes correr versiones destiladas (7B, 14B) con Ollama o LM Studio directamente en tu PC, sin internet ni pago.

🌐 Multilingüe

Fuerte en chino e inglés, pero funciona correctamente en español y decenas de idiomas más, incluyendo soporte para código en 338 lenguajes de programación (Coder V2).

⚠️ Consideraciones de privacidad

  • Deepseek es una empresa china — los datos enviados al chat o la API pueden estar sujetos a regulaciones chinas.
  • Para datos sensibles, se recomienda usar la versión open-source local con Ollama.
  • Varios países y empresas han restringido su uso en dispositivos institucionales por esta razón.
  • Si lo ejecutas localmente (offline), el problema de privacidad desaparece.

📊 Comparativa: Deepseek vs otros LLMs

Aspecto 🧠 DeepSeek-R1 🤖 ChatGPT o1 ✨ Gemini 2.0 🟠 Claude 3.5
Tipo Razonamiento (open-source) Razonamiento (cerrado) Multimodal (cerrado) Conversacional (cerrado)
Costo Gratis / API muy económica $20/mes o API cara Gratis / API moderada $20/mes o API cara
Código abierto ✅ Sí ❌ No ❌ No ❌ No
Uso local ✅ Con Ollama ❌ No ❌ No ❌ No
Chain of Thought ✅ Visible ⚠️ Oculto ✅ Flash Thinking ⚠️ Parcial (Extended)
Contexto 128K tokens 128K tokens 1M tokens 200K tokens
Fortaleza Matemáticas, código, costo Razonamiento general Multimodal, documentos Escritura, análisis
Privacidad ⚠️ Empresa china ✅ EE.UU. (OpenAI) ✅ EE.UU. (Google) ✅ EE.UU. (Anthropic)

📖 Diccionario de términos

LLM (Large Language Model) Modelo de inteligencia artificial entrenado con enormes cantidades de texto para comprender y generar lenguaje natural.
MoE (Mixture of Experts) Arquitectura donde el modelo tiene muchos sub-modelos ("expertos") y solo activa los más relevantes para cada tarea, ahorrando recursos.
Chain of Thought (CoT) Técnica donde el modelo razona paso a paso antes de dar una respuesta, mejorando su precisión en problemas complejos.
Open Source Software (o modelo) cuyo código fuente y pesos están disponibles públicamente para descargar, modificar y distribuir.
Ollama Herramienta gratuita para ejecutar modelos de IA de forma local en tu computadora, sin necesidad de internet.
Token Unidad básica de texto que procesa un LLM. Una palabra suele ser 1-2 tokens. El costo de las APIs se mide por tokens.
Destilación Proceso de crear un modelo pequeño que aprende de uno grande, conservando buena parte de su capacidad con menos recursos.
Aprendizaje por refuerzo (RL) Técnica de entrenamiento donde el modelo recibe recompensas por respuestas correctas y aprende a mejorar por sí solo.
Ventana de contexto Cantidad máxima de texto que el modelo puede "leer" a la vez. Más contexto = puede analizar documentos más largos.
Benchmark Prueba estandarizada para medir el rendimiento de modelos de IA en tareas como matemáticas, código o comprensión lectora.

🎬 Videos: Deepseek en acción

Qué es DeepSeek y por qué sacudió el mundo de la IA

DeepSeek R1 vs ChatGPT o1 — comparativa real

Cómo usar DeepSeek gratis en español

Ejecutar DeepSeek local con Ollama en Windows

📝 Cuestionario

🧪 Taller Práctico: Explorando Deepseek

Estos ejercicios te permitirán conocer Deepseek de forma directa, compararlo con otras herramientas y entender cuándo conviene usarlo.

1. Explorar el chat gratuito

  • Ve a chat.deepseek.com y crea una cuenta gratuita.
  • Haz una pregunta de matemáticas difícil (ej: resolver una ecuación cuadrática).
  • Activa "DeepThink (R1)" y observa cómo razona paso a paso.
  • Compara la respuesta con ChatGPT para la misma pregunta.

2. Probar el razonamiento

  • Escríbele: "Tengo 3 cajas: roja, azul y verde. La roja no está junto a la azul…" (un acertijo lógico).
  • Lee el bloque de "pensamiento" que genera antes de responder.
  • ¿Llega a la respuesta correcta? ¿El proceso es claro?
  • Anota qué tan transparente es su razonamiento vs ChatGPT.

3. Generar código

  • Pídele: "Crea una función en Python que valide si un email es válido usando expresiones regulares."
  • Copia el código en VS Code o un editor online (ej: replit.com).
  • Prueba el código con emails válidos e inválidos.
  • Pídele que explique cada línea del código.

4. Comparar privacidad

  • Investiga: ¿en qué países está restringido Deepseek y por qué?
  • Lee los términos de servicio del chat (deepseek.com/terms) — ¿qué datos recopila?
  • Debate: ¿usarías Deepseek para datos personales o confidenciales? ¿Por qué sí o no?

5. Instalar Ollama (opcional)

  • Descarga Ollama desde ollama.com e instálalo en Windows.
  • En la terminal ejecuta: ollama run deepseek-r1:7b
  • Interactúa con el modelo sin internet — todo queda en tu PC.
  • ¿Qué tan rápido responde comparado con la versión web?