Un estudio revela que la IA es más confiada que precisa: los riesgos de su seguridad artificial
Los modelos de lenguaje como ChatGPT y Gemini suelen sobrestimar su rendimiento sin aprender de sus errores.
Cada vez más presentes en nuestras apps, chats y búsquedas, los asistentes virtuales basados en inteligencia artificial se han convertido en parte del paisaje digital cotidiano. Pero un nuevo estudio de la Universidad Carnegie Mellon (Estados Unidos) advierte sobre un rasgo preocupante: estos sistemas confían demasiado en sus propias respuestas, incluso cuando se equivocan.
El equipo comparó el grado de autoconfianza de personas y de cuatro grandes modelos de lenguaje -ChatGPT, Bard/Gemini, Sonnet y Haiku- en tareas como responder trivias, adivinar resultados deportivos o identificar dibujos. ¿El hallazgo? Tanto humanos como IA sobreestimaron su rendimiento, pero solo los humanos corrigieron su expectativa tras equivocarse.
"Si alguien creía que iba a acertar 18 respuestas y solo acertaba 15, luego ajustaba su pronóstico. La IA, en cambio, se volvía más confiada", explicó Trent Cash, autor principal del estudio publicado en Memory & Cognition.
¿Puede una máquina aprender que no sabe?
La investigación apunta a un tema de fondo: la falta de metacognición en la IA, es decir, la capacidad de tomar conciencia de sus propios límites. Frente a preguntas subjetivas o inciertas, los modelos se equivocaron mucho... pero siguieron respondiendo como si supieran la respuesta correcta.
Un caso llamativo fue el del modelo Gemini, que solo identificó correctamente una imagen de cada 20 en una prueba tipo Pictionary, aunque estimó haber acertado más de 14. "Es como ese amigo que dice ser buenísimo al pool, pero no mete una sola bola", ironizó Cash.
Entre los sistemas analizados, Sonnet fue el más prudente, y ChatGPT-4 mostró un rendimiento similar al humano en las tareas de dibujo.
Por qué esto importa: IA con confianza, pero sin conciencia
Para los autores del estudio, el principal riesgo es que la seguridad con la que las IA emiten sus respuestas puede hacer que los usuarios las crean sin cuestionar. A diferencia de una persona que duda o titubea, los asistentes virtuales no muestran señales visibles de inseguridad, incluso cuando están equivocándose.
"Muchas veces ni siquiera saben que no saben", señaló Danny Oppenheimer, coautor del estudio. Por eso, recomienda a los usuarios hacer preguntas sobre el nivel de confianza del sistema y no asumir que una respuesta bien redactada es necesariamente correcta.
A medida que estas tecnologías se expanden en el uso cotidiano, desde la educación hasta la salud, entender sus límites será clave para usarlas con responsabilidad.
"Tal vez haya algo profundamente humano en cómo reflexionamos sobre nuestros errores", concluyó Cash.