Premio Nobel a la Inteligencia Artificial

Reconociendo los avances en inteligencia artificial y los retos éticos que plantea su desarrollo

El premio Nobel de Física 2024

El premio Nobel de Física de este año se ha dirigido a reconocer los grandes avances de la inteligencia artificial (IA), galardonando a dos de sus más eminentes creadores. Sus méritos los destaca así la información oficial de la Real Academia de Ciencias Sueca: “…han utilizado herramientas de la física para desarrollar métodos que son la base del potente aprendizaje automático actual. John Hopfield creó una memoria asociativa que puede almacenar y reconstruir imágenes y otros tipos de patrones en los datos. Geoffrey Hinton inventó un método capaz de encontrar de forma autónoma propiedades en los datos y realizar así tareas como identificar elementos concretos en imágenes.”[1]

Estos descubrimientos han dado lugar a desarrollos tecnológicos que están cambiando nuestro modo de vivir. Cada vez que obtenemos una recomendación de un producto en nuestro dispositivo electrónico, hacemos una búsqueda en Google o reservamos un viaje en línea, detrás está la IA. También ha entrado en nuestras casas, donde ya son populares los pequeños robots que nos ayudan en la cocina o nos limpian el suelo; en nuestro trabajo y nuestras fábricas, donde ya hace tiempo que los robots desarrollan tareas complejas y sobre todo repetitivas; en nuestros hospitales, con múltiples aplicaciones de ayuda al diagnóstico; en el mundo financiero y en las prospecciones de mercado. Sería interminable exponer todas las aplicaciones prácticas de la IA presentes en nuestra rutina diaria.

Los comentarios se centran en los aspectos éticos 

Desde el primer momento, en el ámbito informativo tomó especial relevancia el pensamiento de Hinton sobre los peligros que puede entrañar la IA[2]. Él mismo se encargó de resaltarlo en la entrevista que se le hizo desde la organización de la Real Academia: “En particular, con respecto a la amenaza existencial de que estas cosas se descontrolen y tomen el control, creo que estamos en una especie de punto de bifurcación en la historia en el que en los próximos años tenemos que averiguar si hay una manera de hacer frente a esa amenaza. Creo que ahora es muy importante que la gente trabaje en la cuestión de cómo vamos a mantener el control. Tenemos que dedicar muchos esfuerzos a la investigación. Creo que algo que pueden hacer los gobiernos es obligar a las grandes empresas a dedicar muchos más recursos a la investigación sobre seguridad.”[3] Y esta idea la hemos visto en titulares de medios informativos como Fortune: “Geoffrey Hinton, premio Nobel, pionero de la IA y líder de la alarma”[4]; o CNN: “Con la advertencia sobre la IA, el Nobel se une a los galardonados que han advertido sobre los riesgos de su propio trabajo”[5].

Las preocupaciones éticas de la IA

La IA es seguramente la tecnología más transformadora de nuestro tiempo y plantea profundas preocupaciones éticas en relación con su uso. Tres importantes amenazas son inherentes a la propia esencia de esta tecnología:

  1. La privacidad;
  2. La fiabilidad de los datos con los que se entrenan los sistemas; y
  3. La responsabilidad sobre las decisiones que toma la IA.

La privacidad necesita una protección estricta frente a la potencial invasión de la misma, ya que la eficacia de la IA depende de la disponibilidad de grandes volúmenes de datos personales sujeta a procesos de recopilación, almacenamiento y utilización.

Los sistemas de IA son tan buenos como los datos con los que se entrenan, por lo que la selección objetiva de los datos es primordial. Esto es enormemente complicado, si no imposible, en sistemas abiertos del tipo Chat GPT, por lo que los desarrolladores e investigadores deben priorizar y estandarizar pruebas rigurosas y el monitoreo continuo.

Los sistemas de IA toman cada vez más decisiones que afectan a nuestras vidas con la puesta en circulación de vehículos autónomos o con sistemas de diagnóstico clínico, y resulta crítico por tanto establecer líneas claras de responsabilidad.

Frente a todas estas amenazas la sociedad está desprotegida, ya que la tasa de cambio tecnológico es tan rápida que incluso los legisladores más informados no pueden seguir el ritmo, y tampoco existen inversiones realistas para ello. Así lo afirma Joseph Fuller, profesor en Harvard Business School: “Los organismos reguladores no están equipados con la experiencia en inteligencia artificial para participar en [la supervisión] sin un verdadero enfoque e inversión.”[6]

A estos problemas éticos inherentes al funcionamiento de la IA hay que añadir otros derivados de su utilización inadecuada o perversa, como los ciberataques, la desinformación que permite manipular la opinión pública y amplificar las divisiones sociales o el desarrollo de armas autónomas. Pero lo que más temen algunos, al comprobar el ritmo acelerado del desarrollo de la IA, es la posibilidad de que los sistemas de IA superen la inteligencia humana, y reclaman que deberían tomarse medidas sobre su control y alineación con los valores humanos.

La advertencia de Geoffrey Hinton 

Es sobre todo esta posibilidad la que llevó al reciente premio Nobel, Geoffrey Hinton, a un importante cambio de perspectiva. En abril del pasado año, de forma sorpresiva, siendo vicepresidente de ingeniería de Google, dimitió del cargo, abandonando la primera línea de la investigación. Así tituló The Register esta decisión: “Hinton, el principal experto de Google, dimite, advierte sobre los peligros de la IA y lamenta en parte el trabajo de toda una vida”[7]. En una entrevista publicada por esos días en NPR afirmó: “Estas cosas podrían llegar a ser más inteligentes que nosotros y decidir tomar el control, y tenemos que preocuparnos ahora de cómo evitar que eso ocurra.”[8]

El hecho es que Hinton se apartó del trabajo de desarrollo de la IA para poder expresarse libremente sobre los peligros de la misma y participar activamente en la configuración de las normas para su desarrollo, colaborando con organismos internacionales e instituciones de investigación, y aportando ideas sobre cómo afrontar los retos éticos que plantean los avances de la IA.

Una vez que abandonó su cargo en Google, pronunció una conferencia en Cambridge titulada “Dos caminos hacia la inteligencia”[9], en la que comparó la forma de actuar de la inteligencia biológica y la IA y razonó el porqué de sus temores de que ésta pueda superar a la humana y tomar el control.

En su exposición distingue entre la computación digital, aquella en la que el software es independiente del hardware, de forma que los programas se puedan trasladar de un ordenador a otro haciendo que el conocimiento sea “inmortal”; y la computación biológica, la que se desarrolla en el cerebro humano, que aprovecha las propiedades “analógicas” de su “hardware” (neuronas, sinapsis) y en la que los resultados se almacenan en el mismo cerebro, por lo que el conocimiento no puede transferirse y lo define como un conocimiento “mortal”.

Ello conduce a diferencias importantes en dos aspectos: el intercambio de conocimientos y los mecanismos de aprendizaje.

La computación digital permite fusionar instantáneamente la información aprendida entre las diferentes copias de una red neuronal, lo que otorga a la inteligencia digital una mayor velocidad en la adquisición y difusión de conocimientos; los sistemas biológicos, en cambio, se basan en un proceso más lento de aprender observando y replicando a un profesor.

El aprendizaje en la computación digital utiliza la retropropagación, que, aunque aparentemente es un algoritmo “tonto”, resulta ser un potente algoritmo para ajustar las conexiones de una red neuronal en función de los errores que comete, y que cuando se combina con la potencia de cálculo y la precisión de los sistemas digitales, permitiría un aprendizaje más eficaz que la computación biológica.

Por otra parte, el acceso a datos y la potencia computacional de la inteligencia digital es prácticamente ilimitada frente a la limitada capacidad de conocimiento de los cerebros biológicos.

La controversia sobre la superioridad de la inteligencia humana 

Científicos y filósofos vienen desde hace décadas razonando sobre las posibilidades de esta superación de la IA sobre la inteligencia humana. El ser humano adquiere conocimientos de forma orgánica, teniendo experiencias y comprendiendo su relación con la realidad y con nosotros mismos. Pero este mecanismo es algo sumamente complejo que no conocemos y que incluye la percepción, la comunicación, la memorización y la información con cualidades como emoción, subjetividad, intencionalidad y atención. Además, la inteligencia humana le permite comprender abstracciones que no son perceptibles para los sentidos. Por contra, las redes neuronales artificiales aprenden de forma abstracta, procesando mediante la utilización de algoritmos, enormes depósitos de información sin relacionarla con la realidad, es decir carecen de experiencias emocionales genuinas.

Aunque en su origen las redes neuronales se desarrollaron tratando de imitar la inteligencia humana, la realidad es que estamos ante dos formas muy diferentes de adquirir conocimientos. Lo que dice Hinton es que la inteligencia que muestran los sistemas de inteligencia artificial trasciende sus orígenes artificiales y podrían ser mejores que el cerebro humano. Y sostiene que, si la IA llega a ser mucho más inteligente que los humanos, será muy hábil para manipularnos sin que nos demos cuenta. Del mismo modo, podríamos no darnos cuenta de que estamos siendo manipulados por la IA porque sería mucho más inteligente que nosotros.[10]

Pero hay otras formas de pensar, la de aquellos que no ven que la IA pueda convertirse en una amenaza o la más radical que sea imposible que alcance el nivel de inteligencia humano.


Yann LeCun, antiguo alumno y colaborador de Hinton, actualmente vicepresidente y científico jefe de IA en Meta considera que en el presente la IA tropieza con los límites de lo físico, y lo expresa poniendo de manifiesto que “cualquier gato puede saltar sobre una serie de muebles y llegar a lo alto de alguna estantería. Hoy en día no tenemos ningún sistema de inteligencia artificial que se acerque a hacer estas cosas, salvo los coches autoconducidos”, y están sobredimensionados, ya que requieren “cartografiar toda la ciudad, cientos de ingenieros, cientos de miles de horas de formación”[11]. Pero sí tiene fe en que esto se superará por una sencilla idea básica: si las neuronas pueden hacerlo, las redes neuronales también. Sin embargo, afirma que nunca supondrá una amenaza: “Los asistentes de IA acabarán siendo más inteligentes que nosotros, pero no debemos sentirnos amenazados. Deberíamos sentirnos fortalecidos por ello. Es como si todo el mundo tuviera un equipo de personas inteligentes trabajando para él. No hay nada mejor que trabajar con gente más inteligente que tú, ¿verdad?”[12]

Son muchos los que defienden la superioridad del pensamiento humano en comparación con la IA en base a diferentes argumentos. Desde la lógica matemática se argumenta, como lo hace el premio Nobel Roger Penrose, a partir del teorema de incompletitud de Gödel, según el cual queda limitada la capacidad de cualquier sistema basado en algoritmos. Y en la naturaleza humana hay rasgos no computables, nuestro cerebro trabaja de acuerdo a las leyes de la mecánica cuántica[13][14].

También desde la neurociencia se aduce que los algoritmos artificiales intentan imitar únicamente la función consciente de partes de la corteza cerebral, ignorando el hecho de que no sólo toda experiencia consciente va precedida de un proceso inconsciente, sino que además el paso del inconsciente a la consciencia va acompañado de pérdida de información.[15]

Un debate no cerrado

Aunque los argumentos en favor de la supremacía de la inteligencia humana sobre la AI pueden parecer sólidos, nuestro conocimiento limitado de la naturaleza del universo y de los mecanismos del cerebro no permite descartar por completo la posibilidad contraria. Lo prudente será tomar en cuenta las recomendaciones de Geoffrey Hinton y dar prioridad a la transparencia y la seguridad en el desarrollo de la IA. Su reciente nombramiento como premio Nobel, dará sin duda, una mayor visibilidad a sus propuestas.

Manuel Ribes – Instituto Ciencias de la Vida – Observatorio de Bioética – Universidad Católica de Valencia

***

[1] Press release: The Nobel Prize in Physics 2024 – NobelPrize.org 8 octubre 2024

[2] M. Ribes La inteligencia artificial como problema Observatorio Bioética UCV 20 julio 2021

[3] Geoffrey Hinton – Interview – NobelPrize.org Octubre 2024

[4] Paolo Confino Nobel laureate Geoffrey Hinton is both AI pioneer and front man of alarm Fortune 10 octubre 2024

[5]  Meg Tirrell With AI warning, Nobel winner joins ranks of laureates who’ve cautioned about the risks of their own work CNN 13 octubre 2024

[6] Christina Pazzanese Great promise but potential for peril The Harvard Gazette 26 octubre 2020

[7] Katyanna Quach Top Google boffin Geoffrey Hinton quits, warns of AI danger The Register 1 mayo 2023

[8] Bobby Allyn ‘The godfather of AI’ sounds alarm about potential dangers of AI NPR 28 mayo 2023

[9]  Geoffrey Hinton – Two Paths to Intelligence (25 May 2023, Public Lecture, University of Cambridge)     https://blog.biocomm.ai/2023/06/06/cser-cambridge-geoffrey-hinton-two-paths-to-intelligence-06-june-2023/

[10] Yunzhe Wang A Synopsis of Geoffrey Hinton’s Warning of Humanity’s Existential Threat from AI   Medium   May 7, 2023

[11]  Joshua Rothman Why the Godfather of A.I. Fears What He’s Built The New Yorker  13 noviembre 2023

[12] Business Standard AI will amplify human intelligence, not replace it, says Meta’s Yann LeCu 23 octubre 2024

[13]  F. Gelgi Implications of Gödel’s Incompleteness Theorem on A.I. vs. Mind NeuroQuantology, Issue 3, 186-189, 2004

[14]  D. Heredia Penrose and his position against the possibility of the computability of the human mind and consciousness Dialnet Depósito de Investigación Universidad de Sevilla 4 julio 2024

[15] Athanassios S Fokas Can artificial intelligence reach human thought? PNAS Nexus, Volume 2, Issue 12, diciembre 2023, pgad409 https://doi.org/10.1093/pnasnexus/pgad409