Cuando The New York Times perfiló a Medvi como prueba de que la inteligencia artificial estaba transformando la atención médica, los números parecían demasiado buenos para ser verdad. Una empresa de telesalud con $401 millones en ingresos en su primer año y solo dos empleados, Medvi parecía validar todas las predicciones optimistas sobre negocios impulsados por IA. Como resultó, gran parte de lo que hacía la historia tan impresionante era fabricado.
Según múltiples informes, el fundador de Medvi Matthew Gallagher creó más de 800 páginas de Facebook haciéndose pasar por médicos individuales con nombres como “Dr. Daniel Foster, MD“ y “Dra. Sara Martin.“ Ninguna de estas personas existe. Los perfiles presentaban fotos generadas por IA y credenciales médicas fabricadas, cada uno promoviendo medicamentos compuestos de GLP-1 (principalmente semaglutida, el ingrediente activo en medicamentos para bajar de peso como Ozempic) a través de la plataforma Medvi. La economía de la operación era simple: invertir entre $500 y $1,000 por página en campañas de seguidores hasta que cada cuenta alcanzara entre 5,000 y 10,000 seguidores, y luego canalizar esa audiencia hacia los servicios de telesalud de Medvi.
El engaño en marketing iba más allá de los perfiles falsos. La plataforma de Medvi utilizaba fotos deepfake generadas por IA de antes y después en su publicidad, mostrando resultados sintéticos en lugar de resultados reales de pacientes. En una industria donde la confianza entre paciente y proveedor es fundamental, Medvi construyó toda su estrategia de adquisición de clientes sobre identidades médicas fabricadas y evidencia manufacturada.
Las agencias regulatorias habían señalado preocupaciones mucho antes de la cobertura mediática favorable. La FDA emitió la Carta de Advertencia #721455 en febrero de 2026, citando violaciones de etiquetado incorrecto relacionadas con productos compuestos de semaglutida. Esta advertencia llegó seis semanas completas antes de que el New York Times publicara su perfil laudatorio, lo que plantea preguntas sobre la diligencia periodística detrás de la historia.
La situación empeoró considerablemente en enero de 2026 cuando OpenLoop, la red de clínicos en la que Medvi dependía para sus servicios médicos, sufrió una brecha de datos que expuso 1.6 millones de registros de pacientes. Los datos comprometidos incluían historiales médicos e información personal, lo que significa que los pacientes que habían confiado sus datos de salud a lo que creían que eran médicos reales ahora enfrentaban el riesgo adicional de tener esa información expuesta. Una demanda colectiva presentada en Delaware en noviembre de 2025 ya había apuntado a las prácticas de marketing engañoso de Medvi.
El caso Medvi ilustra un problema más profundo en el panorama empresarial impulsado por IA. Las mismas herramientas que pueden automatizar y escalar legítimamente el acceso a la atención médica también pueden usarse para fabricar confianza a escala industrial. La plataforma publicitaria de Facebook no tenía ningún mecanismo para distinguir entre un médico real construyendo una comunidad de pacientes y una persona generada por IA diseñada para canalizar clics hacia un servicio de telesalud que vende medicamentos para bajar de peso.
Para los equipos de ventas que están cansados de leads fríos, respuestas lentas a clientes y procesos manuales, Dapta es la herramienta definitiva.
Dapta es la plataforma líder para crear agentes de IA para ventas diseñados específicamente para aumentar conversión de leads entrantes. Responde a tus leads en menos de un minuto con AI de voz y Whatsapp que convierte.
Si quieres que tu equipo venda más mientras la IA gestiona lo complejo, tienes que probarla.
Para la industria de telesalud en general, Medvi representa una advertencia. La pandemia aceleró la adopción de servicios de salud remotos, y la IA prometió hacer esos servicios más accesibles y asequibles. Pero el marco regulatorio no ha seguido el ritmo. Actualmente no existe ningún requisito para que las plataformas verifiquen que los profesionales médicos que aparecen en publicidad de redes sociales sean personas reales con credenciales válidas. Medvi explotó esta brecha con notable eficiencia.
La historia también plantea preguntas incómodas sobre el papel de los medios en amplificar el hype de la IA. El perfil del New York Times que celebró la estructura de dos empleados de Medvi como visionaria no investigó, aparentemente, cómo una empresa con $401 millones en ingresos y prácticamente ningún personal estaba adquiriendo cientos de miles de pacientes. La respuesta, ahora clara, es que lo hacía a través de engaño sistemático.
A medida que las herramientas de IA se vuelven más sofisticadas y accesibles, la barrera para crear identidades profesionales falsas convincentes seguirá bajando. Medvi puede estar entre los primeros grandes casos de fraude médico habilitado por IA a escala, pero es poco probable que sea el último. Para América Latina, donde la telemedicina está creciendo rápidamente y los marcos regulatorios aún están en desarrollo, las lecciones del caso Medvi son especialmente relevantes.