Anthropic lanzó Claude Opus 4.7 el 16 de abril de 2026, y la recepción ha sido inusualmente mixta para el lanzamiento de un modelo estrella. En el papel, el lanzamiento luce como un avance sólido: mejoras significativas en programación, un modelo de visión más nítido y nuevas funciones como control de esfuerzo y un comando dedicado de revisión de código. En la práctica, muchos usuarios avanzados, particularmente desarrolladores que dependen de Claude Code, lo están llamando una regresión. El problema central es que las mejoras principales del modelo vienen con un nuevo tokenizador que consume entre 1.0x y 1.35x más tokens por el mismo input, mientras Anthropic mantuvo los precios iguales. El resultado es un aumento de precio silencioso que está golpeando a suscriptores Pro y Max exactamente en los niveles de uso donde más lo sienten.
Las ganancias en programación son reales. SWE-bench Pro subió 11 puntos, CursorBench pasó de 58% a 70%, y Rakuten-SWE-Bench muestra a Opus 4.7 resolviendo tres veces más tareas de producción que Opus 4.6. En Terminal Bench, el modelo superó tareas que modelos Claude anteriores fallaban completamente. Para trabajo de finanzas y conocimiento económico, Opus 4.7 establece marcas de estado del arte en evaluaciones GDPval-AA y Finance Agent. La visión también recibió una actualización importante: el modelo ahora acepta imágenes hasta 2,576 píxeles en el borde largo, lo que es 3.75x más píxeles que versiones anteriores de Claude, haciéndolo mucho más útil para diagramas densos, capturas de pantalla y documentos multimodales.
Pero dos regresiones han dominado las conversaciones entre desarrolladores. La primera es la recuperación de contexto largo. En el benchmark MRCR (multi-round coreference resolution), Opus 4.7 cayó de 78.3% a 32.2%. Para usuarios cuyos flujos de trabajo dependen de alimentar grandes bases de código o documentos largos a Claude y esperar recuperación precisa a través de ese contexto, esto es un paso atrás significativo. La segunda es el cambio en el tokenizador. Anthropic dice que la actualización mejora la eficiencia de procesamiento de texto y señala que el uso neto de tokens realmente mejoró en evaluaciones internas de programación. Pero los reportes de usuarios reales cuentan otra historia: los mismos prompts ahora cuestan hasta 35% más tokens, lo que para suscriptores en planes con límite se traduce directamente en alcanzar límites semanales más rápido.
El hilo de Reddit r/ClaudeCode titulado «Claude Opus 4.7 is dogshit» y una ola paralela de discusión en Hacker News ilustran el sentimiento. Los desarrolladores ejecutando cargas de trabajo pesadas en agentes, particularmente aquellos que quemaban tokens en tareas de programación de larga duración, están reportando que su uso mensual efectivo ha caído notablemente aunque sus facturas permanezcan iguales.
Los precios permanecen en $5 por millón de tokens de entrada y $25 por millón de tokens de salida, sin cambios desde Opus 4.6. El modelo está disponible en Claude.ai, la API de Anthropic, Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry. Las nuevas capacidades incluyen un nivel de esfuerzo xhigh, un comando /ultrareview en Claude Code para revisiones de código dedicadas, modo auto extendido a usuarios Max, y presupuestos de tarea en beta pública.
Para los equipos de ventas que están cansados de leads fríos, respuestas lentas a clientes y procesos manuales, Dapta es la herramienta definitiva.
Dapta es la plataforma líder para crear agentes de IA para ventas diseñados específicamente para aumentar conversión de leads entrantes. Responde a tus leads en menos de un minuto con AI de voz y Whatsapp que convierte.
Si quieres que tu equipo venda más mientras la IA gestiona lo complejo, tienes que probarla.
El contexto más amplio importa. Anthropic está manteniendo simultáneamente Claude Mythos Preview como su modelo más capaz mientras posiciona Opus 4.7 como el caballo de batalla para programación de propósito general y tareas agénticas. Opus 4.7 se describe como menos ampliamente capaz que Mythos, con capacidades de ciberseguridad intencionalmente reducidas. Ese posicionamiento es estratégico: Mythos permanece restringido a través del Proyecto Glasswing, mientras Opus 4.7 es el modelo con el que la mayoría de usuarios realmente interactuarán día a día.
Para equipos en América Latina y globalmente evaluando qué modelo estandarizar, el lanzamiento de Opus 4.7 ilustra una tensión creciente en el mercado de modelos de IA. Las mejoras en benchmarks ya no se traducen limpiamente en calidad percibida por el usuario, y los cambios en el tokenizador pueden reconfigurar la economía de las suscripciones de la noche a la mañana. La lección para los compradores es monitorear el consumo real de tokens en cargas de trabajo representativas, no solo los precios publicados, al comparar modelos entre proveedores.