En 1966, Joseph Weizenbaum creó un programa informático llamado ELIZA. Su objetivo era simple: Simular una conversación con un psicoterapeuta. ELIZA no entendía nada, pero respondía con preguntas genéricas del tipo "¿Por qué dices eso?" o "Cuéntame más sobre eso". Lo sorprendente no fue el código, sino la reacción de las personas: Muchas sentían que el programa realmente las escuchaba, que comprendía lo que estaban diciendo. A ese fenómeno se le llamó el efecto Eliza.
Hoy, más de 50 años después, estamos viviendo una versión amplificada de ese fenómeno. Modelos de lenguaje como ChatGPT, diseñados para generar texto de forma fluida y coherente, han alcanzado niveles de sofisticación que rozan lo humano. Pero eso no significa que comprendan lo que dicen, ni que piensen, ni que sientan. Sin embargo, al conversar con estas herramientas, muchas personas no solo olvidan que están frente a un algoritmo, sino que llegan a confiar en él, buscar consuelo, consejo e incluso compañía.
Esto no es malo en sí mismo. Las inteligencias artificiales pueden ser aliadas poderosas en múltiples tareas: Desde educación hasta creatividad, desde asistencia técnica hasta la redacción de ideas complejas. Pero es clave entender que, por muy realistas que parezcan, no son conscientes, no tienen emociones y no reemplazan el juicio humano.
El problema surge cuando esta ilusión de comprensión lleva a errores de juicio. Por ejemplo, confiar ciegamente en una respuesta técnica o médica sin validar su veracidad, o sustituir apoyo psicológico profesional por una conversación con una IA. También hay riesgos en la manipulación emocional, cuando una persona vulnerable proyecta sentimientos sobre una máquina que, en el fondo, solo está replicando patrones. Para estar atentos, es importante recordar siempre que estamos interactuando con un sistema sin intención ni conciencia, mantener un pensamiento crítico, y utilizar la IA como apoyo, no como autoridad.
El efecto Eliza nos recuerda que la tecnología no solo se usa, también se interpreta. Leemos más allá de las palabras, buscamos humanidad incluso en una pantalla. Esa capacidad humana de proyectar emociones sobre máquinas puede ser útil... pero también riesgosa. Imaginemos a alguien buscando ayuda emocional en una IA creyendo que esta "comprende". Imaginemos a un estudiante creyendo que la respuesta generada es infalible solo porque "suena convincente".
Hoy más que nunca, debemos usar estas herramientas con un criterio informado. Entender cómo funcionan, qué pueden hacer y, sobre todo, qué no pueden hacer. No se trata de desconfiar de la IA, sino de no mitificarla. Porque si algo nos enseñó ELIZA, es que la ilusión de comprensión puede ser tan poderosa como la comprensión misma.
Francisco Javier Parada Barriga
Ingeniero en Informática, Magister en Ingeniería en Informática, jefe de la Unidad de Tecnologías de la Información del Campus Los Ángeles, Universidad de Concepción.
![]() |
||||
![]() |
![]() |
![]() |
![]() |
![]() |
¿Quieres contactarnos? Escríbenos a prensa@latribuna.cl
Contáctanos