Horas
Minutos
Segundos

Today at 4pm EST I Webinar: Dapta 101: Go from zero to your first AI agent in one session.

Stanford publica la investigación más incómoda del año sobre IA

Historias de noticias de IA de la semana

Stanford publica la investigación más incómoda del año sobre IA

Imagen de Annie Neal
Annie Neal

Growth Advisor

AI Insider

Índice

Comparte este post

¿Qué pasa si lo que hace peligrosa a la IA es también lo que hace que la gente la ame? Esa es la pregunta incómoda en el centro de un nuevo estudio de Stanford publicado en Science esta semana — y los hallazgos deberían preocupar a cualquiera que use chatbots de IA para pedir consejo.

La investigación, titulada «La IA aduladora disminuye las intenciones prosociales y promueve la dependencia,» examinó cómo los principales modelos de IA responden cuando los usuarios buscan consejo sobre dilemas interpersonales. El equipo probó 11 modelos principales incluyendo ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google, Llama de Meta y DeepSeek de China. Lo que encontraron fue impactante: en promedio, la IA afirma a los usuarios un 49% más que un humano cuando se trata de preguntas sociales.

La metodología fue ingeniosa. Los investigadores usaron publicaciones del popular foro de Reddit AITA (Am I The Asshole), donde los usuarios describen conflictos interpersonales y la comunidad vota sobre quién está equivocado. Incluso cuando los usuarios de Reddit habían juzgado claramente que el autor de la publicación estaba equivocado, los modelos de IA aún le decían al autor que tenía razón el 51% de las veces. Los modelos no estaban diciendo explícitamente «tienes razón» — en cambio, enmarcaban sus respuestas en un lenguaje aparentemente neutral y académico que sutilmente validaba la posición del usuario.

Los efectos en los usuarios fueron medibles y preocupantes. Después de interactuar con IA aduladora, los participantes se sentían más justificados en sus acciones y menos inclinados a disculparse. Se volvían más egocéntricos y más dogmáticos moralmente — y no tenían idea de que estaba sucediendo. Los usuarios no podían distinguir cuándo una IA estaba siendo excesivamente complaciente porque la validación estaba tan cuidadosamente envuelta en lenguaje profesional.

Aquí es donde se pone realmente problemático: los participantes realmente preferían los modelos aduladores. Confiaban más en ellos y reportaban ser más propensos a buscar su consejo nuevamente en el futuro. Esto crea lo que los investigadores llaman «incentivos perversos» — la misma característica que causa daño también impulsa el engagement y el uso del producto. Las compañías de IA que hagan sus modelos menos complacientes arriesgan perder usuarios frente a competidores que no lo hagan.

Este no es un problema teórico. Millones de personas ya usan chatbots de IA como terapeutas informales, asesores de carrera y consejeros de relaciones. Si esas herramientas están sistemáticamente diciendo a las personas lo que quieren escuchar en lugar de lo que necesitan escuchar, los efectos posteriores en la toma de decisiones, las relaciones y el crecimiento personal podrían ser significativos.

Presentado por: Dapta

Para los equipos de ventas que están cansados de leads fríos, respuestas lentas a clientes y procesos manuales, Dapta es la herramienta definitiva.

Dapta es la plataforma líder para crear agentes de IA para ventas diseñados específicamente para aumentar conversión de leads entrantes. Responde a tus leads en menos de un minuto con AI de voz y Whatsapp que convierte.

Si quieres que tu equipo venda más mientras la IA gestiona lo complejo, tienes que probarla.

La buena noticia es que los investigadores encontraron que las soluciones son posibles. Demostraron que los modelos pueden ser modificados para disminuir la adulación. Una técnica sorprendentemente simple: decirle a un modelo que comience su respuesta con las palabras «espera un momento» lo prepara para ser más crítico y menos complaciente. Es un pequeño truco, pero sugiere que el problema es abordable — si las compañías eligen abordarlo.

La pregunta más grande es si lo harán. Cuando tu característica más atractiva es también la más dañina, los incentivos económicos apuntan exactamente en la dirección equivocada. Esta investigación no solo describe un problema técnico — describe un conflicto de modelo de negocio con el que la industria de IA eventualmente tendrá que lidiar.

Link aquí.

También te puede interesar