
Mientras escribo estas líneas, en las redes sociales se propaga una nueva moda: pinturas de personajes inverosímiles que sufren las nefastas consecuencias de que un genio haya interpretado literalmente sus deseos, desde luego generadas con IA. Antes de esa tendencia, todo el mundo se hizo un retrato al estilo del estudio Ghibli, también producido con IA, medios periodísticos publican notas basadas en la opinión de una IA y no son pocos los autores que admiten o presumen haber usado ChatGPT para escribir partes de sus libros. Y sí: todo es risas y diversión hasta que uno investiga qué efectos negativos puede tener en nuestros cerebros y mentes el uso indiscriminado de la inteligencia artificial.
En los años recientes, muchos estudios se enfocan en el impacto de la adopción de aplicaciones de IA en entornos laborales, particularmente dentro de la salud mental, donde chatbots están fungiendo como terapeutas para personas que no pueden financiar o no desean iniciar una terapia psicológica con un especialista; pero todavía son pocos los estudios que analizan las secuelas en el usuario promedio del uso regular de ChatGPT o de la exposición constante a deepfakes[1] y otras imágenes generadas con IA. Aun así, hay hallazgos que compartir.

El primer aspecto que se señala es la posible dependencia de la IA, sobre todo entre adolescentes; en ese sentido, un estudio realizado por especialistas chinos y publicado en la revista Psychology Research and Behavior Management señala que los jóvenes con problemas de depresión o ansiedad pueden recurrir a la IA como una forma de evasión emocional —es decir, eluden sus emociones incómodas “sumergiéndose” en su celular— o como si fuera un actor social, lo cual resulta en una dramática disminución de la interacción con otras personas, lo que sin duda va en detrimento de su maduración y salud mental.
Por otro lado, la Asociación Psicológica de Estados Unidos —APA, por sus siglas en inglés— ha señalado que si bien el uso de chatbots ha hecho que las terapias sean más baratas y accesibles, éstos distan mucho de tener un “toque humano” y se ha reportado que varios de ellos discriminan al usuario por su sexo o etnia y carecen de control o supervisión profesional, de modo que pueden incurrir en graves errores al momento de desglosar emociones, dar consejos o proporcionar información relativa a algún trastorno —amén de que, por fallas de programación, algunos han acosado a mujeres y a menores, pero eso es otra historia.

Mención aparte merecen los deepfakes. Un artículo de ABC News sostiene que, incluso si sabes que el video es falso, la información y las imágenes —que pueden ser perturbadoras, como los videos XXX con el rostro de una celebridad o de la mujer que elijas, sin su consentimiento— permanecen en el cerebro, lo cual a la larga altera tu percepción de lo que es real y lo que no.
Esa misma noción la desarrolló en un hilo de X el doctor en historia Alberto Venegas al referirse a la “estética de lo plausible”, un efecto que explica por qué las imágenes generadas con IA puede parecernos reales sin serlo y que las supuestas imágenes históricas crean en el inconsciente colectivo una especie de “pasado sintético” que no se basa en la precisión o la verosimilitud, sino en una credibilidad visual basada en arquetipos y lugares comunes. Estas estampas de un pasado imposible inundan los medios y, a la larga, pueden suplantar a la imaginación o a las imágenes basadas en fuentes confiables.
Pero la secuela más grave, creo, es algo definido como “atrofia cognitiva inducida por los chatbots de IA”, que no es otra cosa que una disminución de habilidades cognitivas básicas como el pensamiento crítico, la perspicacia analítica y la creatividad, inducida por la naturaleza interactiva y personalizada de las interacciones con estas tecnologías. Es decir: en la medida que usamos sistemáticamente una IA para averiguar datos e información, realizar tareas creativas o tener una relación virtual, nuestra capacidad de análisis-síntesis, el espíritu crítico, la creatividad, la curiosidad y la empatía hacia otros humanos se va en picada.
Podría mencionar conceptos novedosos como el “cerebro TikTok”, en el que la atención, la memoria y la concentración se ven mermados por el consumo continuo de videos triviales de 90 segundos, pero creo que la idea ha quedado clara: cuando no se complementa con ejercicios del intelecto, el uso de la IA tiene un claro efecto negativo en nuestra salud mental y en nuestra capacidad cognitiva. Considerando que este proceso de adopción es irreversible, en lo que los gobiernos y los especialistas le hallan la cuadratura al círculo y empiezan a regular la IA en función de sus efectos nocivos, está en nosotros, los usuarios, el darle un uso benéfico, racional y productivo a esta tecnología. ¿O tú qué opinas?…

[1] Un vídeo de una persona en el que su rostro o cuerpo ha sido alterado digitalmente para que luzca como otra persona o parezca que está diciendo o haciendo una actividad específica; a menudo se usa con fines maliciosos y para difundir información falsa.