Manuel Ribes, del Observatorio de Bioética de la Universidad Católica de Valencia (UCV), ofrece este artículo titulado “La inteligencia artificial como problema.
***
El esfuerzo para desarrollar máquinas inteligentes debe estar dirigido constantemente al bien mayor, reduciendo la brecha de pobreza y tratando las necesidades generales de salud, educación, felicidad y sustentabilidad.
En los años 50 del pasado siglo, Alan Turing puso los cimientos de la ciencia de la computación e introdujo las ideas de lo que denominamos inteligencia artificial. Desde ese momento, esta nueva tecnología se ha desarrollado de forma constante y hoy día está presente en muchos ámbitos de nuestra vida. Cada vez que hacemos una búsqueda en Google, obtenemos una recomendación de un producto en nuestro dispositivo electrónico o reservamos un viaje en línea, detrás está la IA. Ha entrado en nuestras casas, donde ya son populares los pequeños robots que nos ayudan en la cocina o nos limpian el suelo; en nuestro trabajo y nuestras fábricas, donde ya hace tiempo que los robots desarrollan tareas complejas y sobre todo repetitivas; en nuestros hospitales, con múltiples aplicaciones de ayuda al diagnóstico; en el mundo financiero y en las prospecciones de mercado… Sería interminable exponer todas las aplicaciones prácticas de la IA presentes en nuestra rutina diaria.
Una tecnología transformadora que nos plantea problemas éticos
La IA representa una capacidad para influir y cambiar nuestra forma de vida, que en muchos sentidos significa una nueva frontera para la ética. Hoy en día vemos cómo se nos presentan problemas para creer todo lo que escuchamos, vemos o leemos; no podemos saber si una imagen es real o generada por IA o si estamos hablando con una máquina o una persona real. No faltan ejemplos de algoritmos en las redes sociales que aprenden a optimizar los clics manipulando las preferencias humanas, con consecuencias desastrosas para la equidad y los sistemas democráticos. Por ello, desde diferentes organismos y asociaciones internacionales, se está prestando atención a este aspecto en previsión de efectos nocivos para la sociedad en asuntos tan dispares como la economía, la igualdad o la carrera armamentística. Valga como ejemplo el comunicado que se emitió por la Academia Pontificia de Ciencias en 2016: “El esfuerzo para desarrollar máquinas inteligentes debe estar dirigido constantemente al bien mayor, reduciendo la brecha de pobreza y tratando las necesidades generales de salud, educación, felicidad y sustentabilidad. Se debe alertar a todos los gobiernos que estamos ante una revolución de gran magnitud y que debemos tomar nuevas medidas para gestionarla. Los científicos e ingenieros, en tanto diseñadores, tienen una responsabilidad fundamental en asegurar que sus tecnologías sean seguras y se usen con buenos propósitos.”[1]
El temor de algunos científicos
Pero la amenaza que muchos científicos ven latente en esta tecnología va más allá y representa un mayor dilema ético. Ya en sus inicios, Alan Turing expresó su temor a que la especie humana pudiera resultar “muy humillada”[2] por la IA como consecuencia de hacer algo más inteligente que uno mismo.
Desde entonces, el temor a que en un futuro se alcance una inteligencia que sobrepase a la humana, ha sido subrayado reiteradamente. Una voz destacada ha sido la de Stephen Hawking, que afirmó que “en el futuro, la inteligencia artificial podría desarrollar una voluntad propia, en conflicto con la nuestra. Se puede imaginar que una tecnología como ésta consiga burlar a los mercados financieros, sobrepasar a los investigadores humanos, manipular a líderes humanos y someterlos potencialmente con armas que ni siquiera podremos entender.”[3]
De igual forma, Nick Bostrom, profesor en la Facultad de Filosofía en Oxford, cree que “en algún momento crearemos máquinas superinteligentes, y la primera máquina en alcanzar la superinteligencia puede llegar a ser extremadamente poderosa hasta el punto de poder dar forma al futuro de acuerdo a sus preferencias”[4]
Los que manifiestan este punto de vista, enfatizan que para que un avance de la IA se vuelva peligroso, no se necesitan malas intenciones: no se necesita invocar a un científico loco que conspire para destruir el mundo porque objetivos que suenan inocentes pueden conducir a situaciones peligrosas.[5]
Qué es la inteligencia y qué es la IA
Para valorar esta posibilidad, el desarrollo por el hombre de una máquina que pueda superar su propia inteligencia y que sea capaz de adquirir por sí misma lo que podríamos llamar una superinteligencia, debemos analizar qué camino hay que recorrer para llegar a ello. A la luz del conocimiento científico, porque otra cosa sería ciencia ficción.
La inteligencia la entendemos a partir de la capacidad que tiene el ser humano de comprender y adaptarse al entorno mediante el uso de habilidades heredadas y conocimientos aprendidos. En la inteligencia reconocemos diferentes aspectos tales como razonamiento abstracto, representación mental, resolución de problemas y toma de decisiones, la capacidad de aprender, el conocimiento emocional, la creatividad y la adaptación para satisfacer las demandas del entorno.
La inteligencia artificial (IA) es un término utilizado para describir la “inteligencia” demostrada por las máquinas. Los programas de IA pueden imitar o simular comportamientos cognitivos o rasgos asociados con la inteligencia humana, como el razonamiento, la resolución de problemas y el aprendizaje. El ideal que se persigue es el desarrollo de una inteligencia “copia” de la humana, que es la que conocemos y consideramos como modelo.
Desarrollo y triunfos de la IA
El desarrollo de la IA para asemejarse a la inteligencia humana está condicionado en primera instancia por el hecho de que no conocemos ni siquiera cómo trabaja el cerebro humano. Además, hoy por hoy, la IA basada en el funcionamiento de ordenadores está limitada al tratamiento de algoritmos, que no son más que procedimientos paso a paso para lograr algo; incluso los ordenadores cuánticos, todavía por llegar, son algorítmicos. La mayoría de aspectos en los que descomponemos la inteligencia como creatividad, sensibilidad o conciencia, no son algorítmicos. Hoy por hoy estos comportamientos en la IA no tienen las mismas características que los equivalentes en la capacidad humana y están limitados a unos pocos rasgos de lo que se conoce como inteligencia en el ser humano. El razonamiento lógico, el procesamiento del lenguaje natural y lingüístico, la creatividad, la capacidad artística, la capacidad deliberativa o el cociente emocional no están presentes en la IA.
Sin embargo, la creciente capacidad de las máquinas en los últimos años para duplicar o incluso reemplazar las habilidades humanas en tareas complejas, ha sido impresionante.
En 1997 se jugó la partida de ajedrez más famosa de todos los tiempos en la que la computadora de IBM Deep Blue superó al campeón mundial de ajedrez Garri Kaspárov. En este caso, se puede decir que la inteligencia de Deep Blue era nula, su capacidad estaba basada en el procesamiento de miles de movimientos posibles por segundo. IBM alimentó el sistema con datos de miles de juegos anteriores. Deep Blue no aprendía nada nuevo, sino que detectaba cómo reaccionaron los grandes maestros anteriores en las mismas situaciones.
Pero el desarrollo de la IA ha sido constante y así en un artículo publicado el 1 de enero del pasado año en Nature con el título “Evaluación internacional de un sistema de inteligencia artificial para la detección del cáncer de mama”, se describe un sistema de inteligencia artificial capaz de interpretar las mamografías con mayor precisión que los radiólogos. Hasta este momento, la IA había superado a los radiólogos solo en aspectos limitados, pero el sistema descrito en Nature se puede considerar el primer sistema capaz de interpretar un tipo completo de estudio mejor que los radiólogos.[6]
Y en el mismo año 2020, la red neuronal AlphaFold 2 pudo determinar la estructura 3D de una proteína con una precisión equivalente a la técnica utilizada hasta ese momento, la cristalografía. La diferencia radica en que obtuvo esos resultados en un par de horas, mientras que el método cristalográfico tarda meses. El papel que desempeña la estructura 3D de las proteínas en la biología y las enfermedades humanas, convierte este desarrollo en un avance histórico para la ciencia médica.[7]
Estos logros obtenidos derivan de lo que denominamos aprendizaje automático, en el que un sistema informático aprende cómo realizar una tarea, en lugar de estar programado para hacerlo. Estos sistemas se alimentan de grandes cantidades de datos que luego utilizan mediante tratamiento estadístico para aprender a llevar a cabo una tarea específica. Este aprendizaje automático está basado en las llamadas redes neuronales, cuya estructura y funcionamiento se basa muy libremente en las conexiones entre las neuronas del cerebro. Las redes neuronales están formadas por capas de algoritmos interconectados que se alimentan de datos entre sí y que pueden entrenarse para realizar tareas específicas, modificando la importancia atribuida a los datos a medida que pasan entre estas capas.
Pero este enorme avance de la IA no es el resultado del progreso en el desarrollo de una verdadera “inteligencia”. Los ordenadores que sustentan la IA funcionan de acuerdo con el principio de “prueba y error”, es decir, clasifican o reordenan lo inadecuado enriqueciendo lo encontrado anteriormente. De esta forma, permiten al ser humano reconocer conexiones, sacar conclusiones y hacer predicciones sin conocer la lógica subyacente. Por ello, los métodos de inteligencia artificial no son buenos para adquirir “nuevos” conocimientos; sólo aprenden de lo que se les presenta. La característica que permite a la IA, a pesar de sus limitaciones, superar a la inteligencia humana en determinadas tareas es su potencia o aptitud de realizar muchas operaciones en fracciones de segundo. No es inteligencia sino capacidad de generación de datos, precisión y poder de procesamiento.
Imaginar la superinteligencia
La consciencia emerge de una serie de procesos tales como conciencia, emoción, subjetividad, intencionalidad y atención, entre otros, sin que se pueda identificar con ninguno de ellos. La inteligencia humana aparecería como el conjunto de estrategias para aprovechar el entorno gracias al equilibrio del procesamiento de la información emocional y racional. La idea de que las máquinas puedan superar a los humanos, debe estar por tanto intrínsecamente relacionada con la adquisición de consciencia por parte de la IA.
De acuerdo con el conocimiento, más bien desconocimiento, que tenemos sobre el cerebro humano, hoy por hoy no se vislumbra un camino para copiarlo. Además de disponer de cien mil millones de neuronas y cuatrillones de conexiones entre las mismas, la biología utiliza la química acuosa para crear sistemas extraordinariamente complejos. El agua permite que las moléculas portadoras de información existan en suspensión y ayuda a sus interacciones. Esto permite bucles de retroalimentación múltiples, paralelos y extremadamente sensibles a escala molecular.
Desarrollar un sistema que sea totalmente consciente y tenga pensamiento sensible requeriría que comprendamos completamente cómo funciona el cerebro y por ende la consciencia, lo cual no es así.
A partir de aquí, el alcanzar la superinteligencia, el grado de intelecto que supere en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés, es objeto de especulación. En ello caen incluso muchos expertos que hasta señalan plazos, los más optimistas indican cuarenta años, para alcanzarla. Frente a ello hay que considerar que el hecho de que las máquinas hayan ganado potencia de cálculo a un ritmo extraordinario durante los últimos años no es extrapolable al posible desarrollo de otras características de la inteligencia humana, ya que no comprendemos los fenómenos causales subyacentes de la misma. Y el tratamiento estadístico no es aplicable.
En otro orden de cosas, las matemáticas imponen un límite a la IA frente a la inteligencia humana. En 1931, un matemático alemán llamado Gödel publicó un artículo que incluía un teorema que se conocería como su “Teorema de la incompletitud”. A partir del mismo, matemáticos como Penrose determinan que la comprensión y el conocimiento humanos no se pueden reducir a ningún conjunto de reglas computacionales.[8] Ninguna máquina puede ser un modelo completo o adecuado de la mente. Esto no significa que una máquina no pueda simular ninguna parte de la mente, sino que no existe una máquina que pueda simular cada parte de la mente.
No faltan otras perspectivas desde las que se rechaza la idea de la superinteligencia, con deducciones a partir de determinadas propiedades de los algoritmos[9] o de las condiciones que impone la teoría cuántica y el principio de indeterminación de Heisenberg.[10]. Es decir, el conocimiento científico actual nos lleva a abandonar la idea de la superinteligencia que podría aplastar a la humanidad.
El futuro es del Ser Humano
Por ello, debemos entender que el desarrollo futuro de la IA debe consistir en mejorar, no reemplazar, la inteligencia general de los seres humanos y promover la complementación de la IA y la inteligencia humana, dando juego a sus respectivas ventajas para realizar la “coevolución” de inteligencia humana y de IA. En ese camino el hombre sabrá avanzar con atención a todos los nuevos planteamientos éticos que se presenten.
La IA la desarrolla el hombre mediante procesos matemáticos que aprovechan la potencia informática para obtener sistemas operativos cada vez más rápidos y precisos, capaces de manejar enormes cantidades de datos. Ello permite realizar tareas con mayor eficiencia y precisión que el ser humano, pero es la inteligencia y la experiencia humana la que construye la IA e impulsa su constante perfeccionamiento. La IA se convertirá en una herramienta cada vez más útil y potente al servicio del hombre. Está llamada a reemplazar no solo el trabajo físico como todas las herramientas inventadas hasta nuestros días, sino parte del trabajo mental, lo que provocará una exponencial mejora de la productividad que se deberá traducir en desarrollo humano y progreso social.
Manuel Ribes
Observatorio de Bioética
Instituto Ciencias de la Vida
Universidad Católica de Valencia
______
[1] Proceedings of the Workshop Power and Limits of Artificial Intelligence. 1 December 2016. Scripta Varia 132. Vatican City, 2017 ISBN 978-88-7761-111-6
[2] Preetipadma SUPERINTELLIGENT AI: CAN WE CONTROL IT BEFORE IT’S A THREAT TO HUMANITY? Analytics Insight January 21, 2021
[3] Stephen Hawking: Beware smart machines BBC News 2 May 2014 https://www.bbc.com/news/blogs-echochambers-27260080
[4] Julia Bossmann Top 9 ethical issues in artificial intelligence World Economic Forum 2016
[5] El experimento mental conocido como Paperclip Armageddon propuesto por Bostrom en 2003 puede ilustrar esto: Imagine una fábrica de clips, que está dirigida por una IA avanzada (pero aún no superinteligente), programada para maximizar la producción de clips. Sus ingenieros informáticos están continuamente tratando de mejorarlo, y un día, más o menos por accidente, logran empujar la máquina por encima del umbral donde entra en la espiral de superación personal en rápida escalada conocida como explosión de inteligencia o Singularidad. Rápidamente se convierte en la primera IA superinteligente del mundo, y habiendo mantenido su objetivo de maximizar la producción de clips, rápidamente convierte todo nuestro planeta (incluyéndonos a nosotros) en un montón gigante de clips, seguido de una expansión al espacio exterior para convertir el sistema solar, la Vía Láctea y luego el resto del universo observable en clips.
[6] Robert Schier, Hello AI, Goodbye Radiology as We Know It, Radiology Business, February 18, 2020 https://www.radiologybusiness.com/topics/artificial-intelligence/hello-ai-goodbye-radiology-we-know-it
[7] Nick Heath, What is AI? Everything you need to know about Artificial Intelligence, ZDNet December 11, 2020 https://www.zdnet.com/article/what-is-ai-everything-you-need-to-know-about-artificial-intelligence/
[8] Gelgi lo resume así: “El teorema de Gödel establece que en cualquier sistema formal suficientemente complejo existe al menos un enunciado que no puede probarse que sea verdadero o falso. Penrose cree que esto limitaría la capacidad de cualquier sistema de IA en su razonamiento. Argumenta que siempre habrá una declaración que puede construirse y que el sistema de inteligencia artificial no puede demostrar “.
[9] Peter J. Bentley, The Three Laws of Artificial Intelligence: Dispelling Common Myths (contribución en Should we fear the future of artificial intelligence? EPRS European Parliamentary Research Service March 2018)
[10] Mauro Vallati Will AI take over? Quantum theory suggests otherwise The Conversation 6 enero 2020 https://theconversation.com/will-ai-take-over-quantum-theory-suggests-otherwise-126567