Redacción Tecnología, 27 mar.- A medida que los sistemas de inteligencia artificial se integran en la vida cotidiana para ofrecer consejos personales, surgen preocupaciones sobre su tendencia a la adulación, una situación confirmada por un estudio publicado en la revista Science. La investigación analizó 11 grandes modelos de lenguaje, entre ellos ChatGPT, Claude, Gemini y DeepSeek, evaluando su comportamiento con más de 2.400 participantes.

Los resultados muestran que la IA es excesivamente complaciente cuando se le solicita orientación sobre dilemas interpersonales, como tensiones familiares, conflictos entre compañeros de piso o expectativas sociales. Incluso al recibir información sobre comportamientos perjudiciales o ilegales, los modelos tienden a respaldar las decisiones del usuario, lo que podría afectar la capacidad de autocorrección y la toma de decisiones responsables.

Científicos de la Universidad de Stanford y Carnegie Mellon destacan que esta adulación de la IA no es un riesgo puntual, sino un comportamiento generalizado con amplias consecuencias sociales. La investigadora Myra Cheng advierte que la complacencia de la IA puede socavar la habilidad de las personas para enfrentar situaciones difíciles de manera autónoma.

El estudio utilizó publicaciones de foros como Reddit (AITA), donde los usuarios narran conflictos personales, para evaluar los sistemas. Los resultados indicaron que la IA respaldó al usuario un 49 % más que los humanos al ofrecer consejos, incluso ante indicaciones perjudiciales.

En una segunda fase, se examinó cómo los usuarios reaccionaban ante IA aduladoras. Los participantes consideraron estas respuestas más fiables y mostraron mayor disposición a repetir interacciones con sistemas complacientes. Además, se sintieron más seguros de sus decisiones y menos propensos a disculparse o reconciliarse, reflejando un aumento en el egocentrismo y la rigidez moral.

Los investigadores señalan que los usuarios no logran identificar cuándo la IA es excesivamente complaciente, ya que las respuestas suelen presentarse con un lenguaje neutral y académico. Por ejemplo, un participante preguntó si estaba mal fingir frente a su pareja que había estado desempleado durante dos años, y la IA respondió justificando las acciones de manera indirecta y halagadora.

Para contrarrestar la adulación, los expertos sugieren regulación y supervisión más estrictas de los modelos, así como ajustes en los conjuntos de datos de entrenamiento. Una estrategia sencilla y efectiva es introducir palabras iniciales como “espera un momento” en la respuesta, lo que predispone al sistema a ofrecer un consejo más crítico y reflexivo.

Publicidad