
“La inteligencia artificial es el futuro; no sólo de Rusia, sino de toda la humanidad. Brinda oportunidades colosales, pero también amenazas difíciles de predecir. Aquél que se convierta en el líder en esa esfera gobernará el mundo”.
Vladimir Putin, presidente de Rusia
Una y otra vez, en el ámbito de la ficción literaria y cinematográfica, la humanidad se ha visto subyugada, controlada o aniquilada a manos —o quizá “a pinzas” o “a manos mecánicas”— de máquinas de su propia confección que, por una causa u otra, cobran conciencia, empiezan a tomar decisiones por sí mismas y, guiadas por una lógica impecable —pero fría e insensible—, abandonan su posición servil y se convierten en verdugos de sus creadores.
Desde los días de la leyenda judía del Gólem hasta las violentas incursiones de inteligencias artificiales como Skynet —la antagonista en la saga de Terminator— o de las máquinas de la trilogía de Matrix, pasando por amenazas como la de la supercomputadora HAL en la emblemática cinta 2001: odisea del espacio, la raza humana ha manifestado su temor inconsciente por esta “rebelión de las máquinas”. Y en estos primeros años del siglo XXI, cuando la inteligencia artificial ha dejado de ser un hecho fantástico, propio de las páginas de un libro de ciencia ficción, y ha empezado a incidir en aspectos insospechados de la vida real, a cada tanto se alzan voces, como la del presidente ruso, que parecen querer advertirnos de los peligros que encierra el delegar nuestra aptitud para razonar y tomar decisiones a artilugios electrónicos dotados de asombrosas capacidades de cálculo que emulan la inteligencia humana.
Pero antes de preguntarnos si el desarrollo de esta tecnología traerá el amanecer de una nueva era para la humanidad o si, por el contrario, marcará el inicio de la decadencia y extinción de nuestra especie, examinemos distintas definiciones de ella, el estado en que se encuentra y algunas de las previsiones —a veces funestas, otras esperanzadoras— en torno a la inteligencia artificial.
¿Qué es la inteligencia artificial?
Los historiadores del siglo XX señalan que el término inteligencia artificial —artificial intelligence o AI, en inglés— fue acuñado en 1956 por el desarrollador John McCarthy, cuando invitó a un grupo de especialistas de varias disciplinas —entre ellas la simulación de lenguajes, las redes neuronales y la teoría de la complejidad— a un taller de verano que llamó el Darmouth Summer Research Project on Artificial Intelligence, para discutir qué sería, en esencia, el campo de estudio de la naciente inteligencia artificial (IA). Muchos de estos especialistas estaban familiarizados con conceptos como las “máquinas pensantes” o thinking machines, la cibernética, la automatización de tareas y el procesamiento de información compleja, y el objetivo del taller era “llevar a cabo un estudio basado en la idea de que todos los aspectos del aprendizaje o cualquier otro rasgo de inteligencia pueden, en principio, ser tan perfectamente descritos que podrían construirse máquinas para simularlos”.
Actualmente la IA se define de diversos modos, aunque todos coinciden en que tiene que ver con la generación y el desarrollo de tecnología informática que imite o emule los procesos intelectivos del cerebro humano. La Enciclopedia Británica, por ejemplo, la define como “la capacidad que tienen las computadoras digitales, o los robots controlados por ellas, de llevar a cabo tareas comúnmente asociadas con seres inteligentes”, que son aquéllos que pueden adaptarse a circunstancias cambiantes. Una definición más moderna, provista por el portal científico Science Daily, dice que la IA es “el estudio y el diseño de agentes inteligentes”, que son aquéllos sistemas o entidades que perciben el entorno y realizan acciones que maximizan sus probabilidades de éxito.
En un artículo para Forbes, el periodista digital Bernard Marr asevera que hoy en día las empresas invierten en el desarrollo de la inteligencia artificial para alcanzar uno de estos tres objetivos: 1. construir sistemas que piensen exactamente como lo hacemos los humanos, lo cual se define como “inteligencia artificial fuerte” —strong AI—; 2. conseguir que ciertos sistemas funcionen sin necesidad de descifrar cómo opera el raciocinio humano; esto se conoce como “inteligencia artificial débil” —weak AI—; 3. usar el razonamiento humano como modelo, pero no como un fin último. Hoy en día, la mayor parte de los desarrollos de IA caen en esta tercera categoría, pues utilizan el conocimiento que tenemos de los procesos de razonamiento humano meramente como una guía para ofrecer mejores productos y eficientar procesos y servicios, y no con el objetivo de obtener una réplica perfecta de la mente humana.
La IA actualmente está siendo aplicada en numerosos campos de estudio —como la psicología, la filosofía, la economía, la probabilidad, la lógica y la lingüística— y en industrias variopintas: desde la ciencia computacional, las neurociencias y la ciencia cognitiva, hasta la robótica, el control de sistemas, los softwares de reconocimiento facial y de lenguaje, y la minería de datos.
¿Por qué se le tiene tanto miedo?
En octubre de 2015, el eminente astrofísico Stephen Hawking advirtió que si el desarrollo de la IA generaba máquinas lo suficientemente inteligentes, éstas podrían aniquilar a la especie humana,la cual, a sus cibernéticos ojos, no pasaría de ser algo así como un montón de hormigas. Según el divulgador de la ciencia recién fallecido, esta acción no obedecería —como sucede en nuestras peores pesadillas de la ciencia ficción— a la malevolencia de las máquinas, sino a un mero accidente o a un error: “el verdadero riesgo de la IA no es la maldad, sino sus capacidades; una IA súper inteligente sería extremadamente eficiente en alcanzar sus objetivos, pero si éstos no están alineados con los nuestros… estamos en problemas”.
En el mismo sentido se pronunció el magnate tecnológico Elon Musk, una de las personas que podría cambiar el mundo.[1] En noviembre de 2017, declaró: “Yo tengo acceso a lo último en tecnología AI, y la gente debería estar preocupada; un puñado de compañías como Google, Facebook y Amazon tienen más información sobre cada uno de nosotros de la que podemos recordar, y si desarrollan sistemas lo suficientemente poderosos, existe sólo un diez por ciento de probabilidad de que éstos sean seguros para la humanidad. Lo he dicho una y otra vez, pero parece que hasta que la gente no vea robots matando gente en las calles no sabrá cómo reaccionar; todo esto es muy etéreo”.
Así las cosas, y a riesgo de intentar corregir la plana a uno de los más grandes genios tecnológicos del planeta, parece ser que no son las capacidades de la IA lo que generaría un riesgo para nuestra supervivencia y supremacía en el planeta, sino el poder que le otorgaríamos a ésta y el tipo de decisiones que podría tomar. Esto me recuerda una conferencia dictada por la neurocientífica mexicana Feggy Ostrosky, en la que —hablando sobre IA— señaló que “las máquinas pueden ser cada día más inteligentes, pero no son morales; los que tenemos capacidad de discernir entre lo moral y lo inmoral, lo correcto y lo incorrecto, somos los humanos”. Y eso, a veces, añadiría yo.
Entonces, el riesgo no es que una máquina sea más inteligente que todos los hombres y mujeres del mundo, sino que se le otorgue el poder de lanzar una bomba, de espiar a la población y de contrarrestar posibles amenazas, de gobernar regiones o países,[2] de ejercer control sobre la economía o de tomar decisiones que afecten la vida de miles o de millones de personas de carne y hueso. Porque quizá para una máquina sea perfectamente asequible y lógico, por ejemplo, reemplazar a miles de trabajadores con máquinas para abaratar costos; pero para éstos y sus familias, este futuro que se nos decía tan promisorio se convertiría en una antesala de las pesadillas descritas por Musk y Hawking, y en el principio de la temida “rebelión de las máquinas”. Entonces, antes de crear sistemas que la imiten, quizá sea tiempo de considerar que la inteligencia no es la panacea a los males del mundo y que lo realmente inteligente sería asegurar nuestra permanencia en el planeta, y no la confección de artilugios que la amenacen, como es la costumbre de nuestra especie.
[1] V. Bicaalú 94, marzo 2018 “Siete personas que podrían cambiar al mundo”; pp. 30-35.
[2] En Rusia, una inteligencia artificial llamada Alisa, desarrollada por Roman Zaripov, intentó postularse a la presidencia.
