Abstrakte Darstellung eines KI Agenten Modells

DeepSeek V4 potencia los agentes de IA abiertos en producción

DeepSeek V4 es una familia de modelos abiertos para agentes de IA, pensada para cubrir tareas largas, llamadas a herramientas y flujos de trabajo de programación mejor que un simple chatbot. La vista previa del 24 de abril de 2026 trae dos modelos de mezcla de expertos, una longitud de contexto de un millón de tokens y compatibilidad de API con los formatos de OpenAI y Anthropic. Así, a menudo se puede integrar el modelo en frameworks de agentes mediante configuración, sin tener que escribir código nuevo.

Qué distingue técnicamente a DeepSeek V4

DeepSeek V4 se compone de V4-Pro y V4-Flash. Ambas variantes usan una arquitectura de mezcla de expertos. Esto significa que no se activa todo el modelo en cada petición, sino solo una parte de los parámetros. Así se reduce la carga de cálculo y resulta más rentable operar modelos muy grandes.

Los pesos de los modelos DeepSeek V4 están disponibles bajo licencia MIT. Los desarrolladores pueden descargarlos, alojarlos por su cuenta, adaptarlos o usarlos a través de la API. Aun así, en la práctica, el despliegue local sigue siendo exigente por el tamaño del modelo.

Modelo Parámetros totales Parámetros activos por token Longitud de contexto Uso típico
DeepSeek V4-Pro 1,6 billones 49.000 millones 1 millón de tokens Agentes complejos, tareas de programación y flujos de trabajo largos
DeepSeek V4-Flash 284.000 millones 13.000 millones 1 millón de tokens Automatización rápida, pruebas y tareas más sencillas

La longitud de contexto tan amplia es especialmente importante porque los agentes tienen que mantener mucha información a la vez. Esto incluye instrucciones del sistema, descripciones de herramientas, pasos de trabajo anteriores, archivos y resultados de pruebas. Para ello, DeepSeek combina métodos de atención comprimida que reducen la memoria necesaria y el coste de cálculo con entradas largas.

Por qué los agentes de IA se benefician de V4

Un agente de IA no solo responde a preguntas sueltas. Puede planificar varios pasos, llamar a herramientas externas, editar archivos, ejecutar código y evaluar resultados a lo largo de procesos extensos. Para eso, el modelo necesita una memoria estable dentro de la tarea en curso y llamadas a herramientas fiables.

  • Contexto largo: Un millón de tokens permite sesiones amplias con documentación, base de código e historial, sin depender desde el principio de recortes agresivos o de lógica de búsqueda adicional.
  • Benchmarks de agentes: V4-Pro-Max alcanza un 67,9 % en Terminal Bench 2.0, un 80,6 % en SWE Verified y un 55,4 % en SWE Pro. Estas pruebas miden tareas como análisis de errores, cambios de código y trabajo en terminal.
  • Uso de herramientas: La API admite llamadas a herramientas, salida JSON y formatos que muchos frameworks existentes ya entienden. Eso reduce el esfuerzo de integración.

Los resultados no muestran que V4 supere de forma uniforme a todos los modelos cerrados más avanzados. Pero sí lo convierten en un candidato abierto muy sólido para agentes que procesan muchos tokens y usan herramientas externas con regularidad.

Cómo OpenClaw y Hermes Agent pueden usar V4

OpenClaw

OpenClaw admite DeepSeek mediante una API compatible con OpenAI. Por eso, en muchas configuraciones basta con ajustar el proveedor, la clave de API y el nombre del modelo. Las definiciones de herramientas y los prompts existentes no tienen por qué reescribirse desde cero.

Para agentes de programación exigentes, V4-Pro es la opción más potente. En tareas cortas y repetibles, V4-Flash puede ser suficiente, porque está pensado para ser más rápido y barato. Cambiar entre ambas variantes es, sobre todo, una cuestión de configuración.

Hermes Agent

Hermes Agent trabaja con archivos de configuración, ajustes de proveedor y endpoints propios opcionales. DeepSeek se puede integrar ahí como proveedor o mediante un endpoint compatible con OpenAI. Encaja bien en instalaciones que funcionan de forma continua, ejecutan tareas programadas y son accesibles a través de plataformas de mensajería.

Para Hermes, el almacenamiento en caché de contexto es especialmente relevante. Los agentes suelen enviar una y otra vez instrucciones de sistema similares, listas de herramientas e información guardada. Si esas entradas están en caché, el coste de cada petición posterior baja de forma notable.

Cuándo tiene más sentido usar Pro o Flash

V4-Pro encaja con tareas que tienen muchas dependencias. Esto incluye bases de código grandes, sesiones de terminal largas, análisis de errores en varios pasos y agentes que deben tomar varias decisiones seguidas de forma autónoma.

V4-Flash tiene sentido cuando la velocidad y el precio pesan más que la máxima profundidad. Ejemplos típicos son automatizaciones sencillas, prototipos, pruebas, preprocesamiento y tareas con una estructura clara.

  • Empezar con Flash: Para pruebas iniciales y flujos simples, Flash reduce costes y ofrece respuestas rápidas.
  • Pasar a Pro: Para flujos de trabajo en producción con cambios de código, cadenas de herramientas o contextos largos, Pro es la opción más robusta.
  • Control de costes: Los precios de la API de DeepSeek distinguen entre entrada, salida y aciertos de caché. V4-Pro tiene un descuento temporal hasta el 31 de mayo de 2026.

La regla principal para decidir es sencilla: Flash encaja con ejecuciones de agentes claras y cortas; Pro, con tareas abiertas y muchos pasos intermedios. Si no lo tenéis claro, podéis probar primero los flujos de trabajo con Flash y pasar a Pro solo cuando la exigencia suba.

Qué límites importan al migrar y operar

DeepSeek presenta V4 como sucesor de endpoints anteriores. Deepseek-chat y deepseek-reasoner dejarán de estar disponibles después del 24 de julio de 2026 a las 15:59 UTC. Por eso, las instalaciones que aún apunten a esos nombres deberían migrar a deepseek-v4-flash o deepseek-v4-pro.

Que los pesos del modelo sean abiertos no significa automáticamente que operar en hardware propio vaya a salir barato. V4-Pro es muy grande y necesita una infraestructura adecuada. Para muchos equipos, la API seguirá siendo la vía más sencilla, mientras que el autoalojamiento será interesante sobre todo para organizaciones con capacidad de cálculo propia.

Además, en los agentes no cuenta solo el modelo. Los permisos de herramientas, los accesos a archivos, los secretos y los servicios externos deben limitarse y revisarse. Un modelo potente aumenta la utilidad de un agente, pero no sustituye una configuración de seguridad bien hecha.


Publicado

en

por

Etiquetas: