Horas
Minutos
Segundos

Today at 4pm EST I Webinar: Dapta 101: Go from zero to your first AI agent in one session.

DeepSeek V4: calidad de frontera a una sexta parte del precio

Historias de noticias de IA de la semana

DeepSeek V4: calidad de frontera a una sexta parte del precio

Imagen de Annie Neal
Annie Neal

Growth Advisor

Índice

Comparte este post

DeepSeek lanzó V4-Pro y V4-Flash el 24 de abril de 2026, y el modelo ha hecho lo que DeepSeek hizo a principios de 2025 con R1: forzar a toda la industria de IA a recalcular el precio de la capacidad de frontera. V4-Pro empaca 1.6 billones de parámetros totales con 49 mil millones activados por token, soporta 1 millón de tokens de contexto, y obtiene 80.6% en SWE-Bench Verified, apenas 0.2 puntos porcentuales detrás de Claude Opus 4.6 con 80.8%. Los precios son donde el anuncio se vuelve sísmico. Los tokens de entrada cuestan $0.145 por millón, aproximadamente 7x más baratos que GPT-5.5 o Claude Opus 4.7. Los tokens de salida cuestan $1.74 por millón, aproximadamente 6x más baratos. Para propósitos prácticos, DeepSeek ha igualado la capacidad de frontera occidental a una sexta parte del costo.

El modelo más ligero V4-Flash ofrece 284 mil millones de parámetros totales con 13 mil millones activados, también soportando contexto de 1 millón de tokens, diseñado para casos de uso que no requieren profundidad máxima de razonamiento pero se benefician de las mismas capacidades de contexto largo y precios agresivos. Ambos modelos están disponibles en Hugging Face bajo la estrategia de lanzamiento abierto de DeepSeek, lo que significa que los pesos pueden ser descargados, afinados y auto-hospedados por cualquier organización con el cómputo para ejecutarlos. Esta es la segunda vez en aproximadamente 18 meses que DeepSeek ha enviado un modelo que reinicia las expectativas de precios de la industria a la baja por un orden de magnitud.

La arquitectura técnica explica cómo DeepSeek logra capacidad de frontera a esta estructura de costos. V4-Pro usa un diseño Mixture-of-Experts que activa solo 49 mil millones de sus 1.6 billones de parámetros por token, lo que significa que el modelo lleva la capacidad de conocimiento asociada con un modelo denso de 1.6T mientras mantiene costos de inferencia por token comparables a un modelo denso mucho más pequeño. Este es el mismo truco arquitectónico que hizo a GPT-4 económicamente viable, pero DeepSeek lo ha ejecutado con una proporción agresiva de dispersión 32:1 que empuja la frontera de eficiencia más lejos que cualquier otro modelo publicado.

La puntuación de SWE-Bench Verified de 80.6% merece contexto adicional. SWE-Bench Verified mide qué tan bien un modelo puede resolver autónomamente issues reales de GitHub de repositorios open source, lo que es el proxy más cercano disponible para trabajo profesional real de ingeniería de software. El hecho de que un modelo open source chino esté ahora dentro de 0.2 puntos del modelo insignia de codificación de Anthropic significa que la frontera global de capacidad de ingeniería de software ya no está concentrada en laboratorios estadounidenses.

Presentado por: Dapta

Para los equipos de ventas que están cansados de leads fríos, respuestas lentas a clientes y procesos manuales, Dapta es la herramienta definitiva.

Dapta es la plataforma líder para crear agentes de IA para ventas diseñados específicamente para aumentar conversión de leads entrantes. Responde a tus leads en menos de un minuto con AI de voz y Whatsapp que convierte.

Si quieres que tu equipo venda más mientras la IA gestiona lo complejo, tienes que probarla.

Las implicaciones de precios se cascadean a través de toda la economía de IA. Cuando un modelo de codificación de calidad de frontera cuesta $0.145 por millón de tokens de entrada, la economía de unidad de las herramientas de codificación con IA se desplaza dramáticamente. Empresas como Cursor, Cody y GitHub Copilot han estado fijando precios de sus productos contra la suposición de que los costos de API de modelos de frontera permanecerían en el rango de $5 a $10 por millón de tokens de entrada. Con V4-Pro disponible a una séptima parte de ese costo, la ecuación de margen bruto para herramientas de codificación con IA se transforma.

Para LATAM y mercados emergentes, DeepSeek V4 cambia la economía práctica de desplegar IA a escala. Industrias que previamente no podían justificar herramientas de IA por puesto a $20 a $30 por desarrollador por mes ahora pueden considerar despliegues a una quinta parte de ese costo usando V4-Pro a través de APIs socias o infraestructura auto-hospedada. Startups locales, bancos regionales y servicios gubernamentales en países donde los presupuestos de TI están restringidos repentinamente tienen un camino para desplegar IA de calidad de frontera sin las barreras de precio que limitaron olas anteriores de adopción.

La dimensión geopolítica es imposible de ignorar. DeepSeek ahora ha tomado dos veces la frontera global de capacidad y la ha hecho accesible a estructuras de costos chinas. El AI Index 2026 de Stanford señaló que la brecha de rendimiento de modelos EE.UU.-China se ha cerrado efectivamente. DeepSeek V4 cierra la brecha de precios también. Para los laboratorios de IA occidentales, el mensaje es que la capacidad por sí sola ya no es un foso. Los laboratorios que sobrevivan necesitarán competir en confianza empresarial, herramientas integradas, posicionamiento regulatorio y experiencia de desarrollador en lugar de puntuaciones de benchmark.

Link aquí.

También te puede interesar