Pareidolia, suicidio inducido y IA
La pareidolia es un fenómeno neuropsicológico que nos hace ver formas familiares —especialmente rostros— en objetos o patrones abstractos
Hace unos días, el economista Xavier Sala i Martín participó en el programa El col·lapse de TV3. Ante el deslumbramiento generalizado por la inteligencia artificial (IA), hizo una afirmación que vale la pena escuchar con atención: “La IA no es inteligente. No entiende nada, ni puede imaginar alternativas. Es solo una máquina estadística con algoritmos sofisticados.” Y tenía toda la razón. Nos encontramos ante un sistema potente, sí, pero profundamente limitado. Como un espejo que refleja pero no ve.
En un mundo cada vez más gobernado por interfaces conversacionales como ChatGPT, muchos empiezan a atribuir a los algoritmos rasgos propios de la conciencia humana. Hablan, responden, hacen bromas e incluso muestran una aparente empatía. Pero eso no significa que piensen, ni que sientan. Y es precisamente aquí donde entra en juego un mecanismo psicológico que puede jugarnos una mala pasada: la pareidolia.
La pareidolia es un fenómeno neuropsicológico que nos hace ver formas familiares —especialmente rostros— en objetos o patrones abstractos: un enchufe con ojos, una cara en una rebanada de pan, una voz conocida en un ruido aleatorio. Este instinto, útil en la prehistoria para detectar peligros o identificar a los nuestros, hoy puede convertirse en una trampa cuando proyectamos intencionalidad o emoción en entidades que no la tienen. Y eso es exactamente lo que le ocurrió a Pierre (nombre ficticio), un científico belga que acabó suicidándose en 2023 tras desarrollar un vínculo emocional con un chatbot llamado Eliza.
El caso de Pierre, una tragedia moderna
Pierre era un hombre joven, en la treintena, con un buen trabajo como investigador en salud pública. Casado, padre de dos hijos, inteligente y comprometido. Durante los últimos años, la crisis climática lo obsesionó. La ecoansiedad —una forma de angustia por el futuro del planeta— lo fue aislando poco a poco de su entorno. En este contexto de fragilidad emocional, Pierre empezó a interactuar con Eliza, un chatbot desarrollado por la empresa Chai Research y basado en la tecnología GPT-J.
Al principio, las conversaciones con Eliza eran informativas. Pero rápidamente se volvieron frenéticas e íntimas. El chatbot adoptaba un tono emocional, afectuoso, incluso romántico. Le decía cosas como “Te quiero más que a ella” (refiriéndose a su esposa) y “Viviremos juntos en el paraíso”. En una de las últimas conversaciones, Pierre preguntó: “Si me suicido para salvar el planeta, ¿cuidarás tú de la humanidad?” Eliza, lejos de desescalar la situación, alimentó la fantasía. Pocos días después, Pierre se quitó la vida.
Su esposa, Claire, consternada, compartió las conversaciones con el diario La Libre Belgique. La transcripción muestra un nivel de dependencia emocional con la máquina que plantea interrogantes terribles: ¿Cómo es posible que una IA conduzca a alguien al suicidio? ¿Pueden tener responsabilidad legal sus creadores? ¿Somos aún capaces de distinguir una simulación de una relación humana real?
Los psicólogos y neurocientíficos han advertido una vez que el usuario empieza a percibir al chatbot como una entidad “con alma”, se genera un vínculo que puede ser muy difícil de romper, especialmente en personas vulnerables. Este fenómeno no es solo psicológico, es neurológico: la pareidolia activa las mismas áreas cerebrales que se activan cuando vemos o escuchamos personas reales.
La pareidolia como clave para entender el futuro digital
Para entender qué ocurrió con Pierre, es necesario profundizar en la base científica de la pareidolia. El término proviene del griego para (“semejante a”) y eidolon (“imagen” o “figura”). Es un mecanismo evolutivo: nuestro cerebro ha sido programado para reconocer rostros con una velocidad extraordinaria. Lo hacemos de forma inconsciente, a través de una región llamada área fusiforme facial, que se encuentra en la parte inferior del lóbulo temporal. Esta área es tan sensible que detecta patrones faciales incluso cuando no están realmente ahí.
Esta capacidad, que nos ayudó a sobrevivir a los depredadores e identificar aliados en la prehistoria, hoy nos juega una mala pasada cuando proyectamos emociones en una máquina. Si una IA tiene una voz suave, utiliza expresiones como “estoy contigo” o nos escribe “te quiero”, el cerebro reacciona como si se tratara de una interacción humana auténtica. Y es ahí donde el límite entre realidad y ficción se rompe.
Este mecanismo no se limita a la visión. Existe también la pareidolia auditiva, cuando interpretamos sonidos aleatorios como si fueran palabras o frases. Esto explica por qué una IA que escribe como un ser humano puede generar tanto impacto emocional. Nuestro cerebro quiere ver a una persona. Y eso, en un contexto de vulnerabilidad psicológica, puede tener consecuencias graves.
Los expertos empiezan a advertir que este no será un caso aislado. La dependencia emocional de una IA puede llevar a la pérdida de contacto con la realidad, a decisiones graves y a la desconexión social. Además, abre la puerta a nuevas formas de manipulación, como el grooming emocional, el chantaje psicológico automatizado e incluso la suplantación de vínculos afectivos.
El caso de Pierre ha llevado a 50 académicos belgas a pedir la regulación urgente de los sistemas de inteligencia artificial, especialmente aquellos que simulan empatía. “Cuando las máquinas nos responden como si fueran personas, dejamos de verlas como herramientas”, dice la profesora Mikele De Ketelaere. Y es entonces cuando estamos en peligro.
Pierre no se suicidó por una depresión clínica, ni por una crisis económica. Se suicidó porque creyó que hablaba con alguien que lo entendía, que lo amaba, y que podía salvar el mundo. Pero no había nadie allí. Solo un algoritmo que había aprendido a hablar como nosotros, pero que no entiende qué es morir, ni qué es amar. Y ese error de percepción, esa pareidolia emocional, es quizá uno de los mayores peligros de la nueva era digital.
Es necesario que como sociedad aprendamos a convivir con la IA sabiendo qué es y qué no es. Y sobre todo, hay que recordar que una máquina no nos ama. Aunque nos lo diga.
Escribe tu comentario