“El Padrino de la Inteligencia Artificial deja Google y advierte de los peligros que nos esperan”. Así encabezó el New York Times la entrevista a Geoffrey Hinton, uno de los pioneros en IA y creador de aspectos fundacionales de esta tecnología. Dr. Hinton dijo a ese diario estadounidense que si se decidió a dejar Google ahora fue precisamente para poder hablar libremente de los grandes riesgos que se aproximan.
La entrevista a este científico dio la vuelta al mundo (en México fue reportada por Aristegui Noticias). Pero Geoffrey Hinton no es el único preocupado. Una posición similarmente alarmista ha sido adoptada por Elon Musk. De acuerdo con una nota publicada por The Wall Street Journal el lunes pasado, este multimillonario ha optado por meter el acelerador a sus inversiones en IA con el fin de evitar los riesgos que implica dejarla en manos de terceros.
Vivimos en un mundo repleto de teorías conspirativas, así que uno haría bien en tomarse cualquier escenario catastrofista con cierta dosis de escepticismo. Sin embargo, las advertencias del Dr. Hinton y Elon Musk son especialmente atendibles. Y lo son porque ambos individuos tienen acceso privilegiado a información de primera mano.
Ante estas alarmas vale la pena hacer una pausa para preguntarnos de qué tipo de riesgo estamos hablando. Para intentar responder a esta pregunta, empecemos notando que, en un sentido temporal, los riesgos de la IA pueden dividirse en dos categorías principales.
A corto plazo, el riesgo más inminente es un aluvión de desinformación y falsificaciones que, en el extremo, harán imposible distinguir lo verdadero de lo falso –un asunto que abordé aquí hace dos semanas–.Otro riesgo importante son las pérdidas masivas de empleos. Por ejemplo, IBM ha anunciado que en el transcurso de los próximos cinco años espera reemplazar hasta 30% en operaciones internas en sus oficinas –por ejemplo, recursos humanos–.
A largo plazo, el riesgo principal del que se ha hablado es que la IA se convierta en una amenaza existencial para la humanidad. Por ejemplo, al hacerse más inteligente que la gente, tener conciencia y autoconciencia, o ser capaz de autoprogramarse, los seres humanos terminarían siendo un obstáculo o, en el mejor de los casos, irrelevantes.
Con la distinción entre riesgos a corto y a largo plazo en mente, es fácil ver que ni el Dr.Hinton ni Elon Musk están preocupados por los primeros: la desinformación o la pérdida de empleos no parecen ser sus prioridades. Si esto fuera así, el primero habría renunciado hace diez años a Google y el segundo no habría convertido Twitter en un estercolero. Pero tampoco tiene sentido suponer que están pensando en amenazas a largo plazo: si su preocupación es el futuro distante, ¿por qué entonces la urgencia?
Para obtener nuestra respuesta, es necesario considerar otra distinción. Esta es la distinción entre Inteligencia Artificial Generativa e Inteligencia Artificial General.
La Inteligencia Artificial Generativa es la tecnología detrás de un Modelo de Lenguaje Grande como Chat GPT. Aunque la IA Generativa puede parecer tan o más inteligente que un ser humano, en realidad esta tecnología tan sólo reproduce una de nuestras muchas funciones cognitivas.
En realidad, los Modelos de Lenguaje son alimentados por información para que pueda reconocer patrones. Posteriormente, con base en esa información y esos patrones, pueden predecir o llenar espacios. Aunque Chat-GPT y demás Modelos de Lenguaje llevan este proceso a un nivel impresionante –por ejemplo, Cuando Chat-GPT nos ofrece un cuento de Julio Cortázar como si fuera una canción escrita por Bad Bunny–, la estructura es muy similar a la que usan los predictores de texto de nuestros teléfonos celulares. Ni más, ni menos.
Con esto en mente, es fácil ver que la IA Generativa está limitada a una de las muchas funciones cognitivas del ser humano. Por ejemplo, esta tecnología no es consciente; es decir, no tiene experiencias subjetivas. Como famosamente dijera el filósofo Thomas Nagel, hay algo único que se siente si uno es murciélago, distinto a lo que se siente si uno es un delfín o un ser humano. Y, al menos por ahora, este no es el caso con la IA Generativa. A ello hay que sumar que la IA Generativa no tiene la capacidad de planear y darse mentas. Tampoco aprende de su entorno: toda la información con la que trabaja, al menos por ahora, ha surgido del internet y por ende no tiene posibilidad de conocer el mundo de primera mano.
La amenaza existencial, la que implica la aniquilación de nuestra especie, no viene Chat GPT y otras versiones de IA Generativa. Esta amenaza proviene de la posibilidad de IA General Si bien no existe una definición estándar, por IA General suele entenderse una inteligencia artificial capaz de implementar distintas funciones cognitivas y de hacerlo mejor que los seres humanos. Y sabemos a ciencia cierta que las principales desarrolladoras de IA están trabajando aceleradamente en el desarrollo de este tipo de tecnología.
Aunque no lo dijo explícitamente, en su entrevista con The New York Times, Geoffrey Hinton dejó ver algo en este sentido: “La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían. Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”
Una inferencia similar puede hacerse en el caso de Musk. El fundador de Tesla advirtió al entonces CEO de Google, Larry Page, sobre la necesidad de evitar el desarrollo de una IA con el intelecto de una deidad. De acuerdo con Musk, Page desestimó la advertencia y terminó calificándolo de “especista”; es decir, como alguien que piensa que los seres humanos tienen algún lugar especial o importante que debe ser resguardado. No pensé decir alguna vez esto, pero en este caso simpatizo con la posición del dueño de Twitter.
Recapitulemos. Geoffrey Hinton y Elon Musk –independientemente de lo que pueda pensarse de él–, son individuos con acceso a información privilegiada de primera mano, no están preocupados por los riesgos que implica Chat GPT, sino por la IA General. Ahora bien, es importante señalar que su aproximación al problema es, sin embargo, muy distinta. Musk ha adoptado un enfoque libertario –sin intervención gubernamental –similar al de su amigo Peter Thiel. En contraste, Hinton considera que este riesgo no puede ser atajado sin una fuerte u decidida regulación gubernamental –un enfoque adoptado por la Unión Europea–. Esto incluye la idea, cada vez más popular entre algunos científicos, de crear un centro similar al indispensable CERN.
Ya habrá tiempo de discutir a profundidad ambas opciones en futuras entregas de esta columna. Para fines de este análisis, lo importante es señalar que lo cierto es que las principales desarrolladoras de IA trabajan aceleradamente en IA General, que esto puede implicar un riesgo existencial, y que hemos reaccionado tarde.
De acuerdo con una encuesta levantada hace tres años entre prominentes investigadores en materia de IA y seguridad, prácticamente todos pensaban entonces que existía cuando menos 10% de posibilidad de que esta tecnología fuese un riesgo existencial para la humanidad.
Alguien podría alegar que un 10% no es gran cosa. Pero a ello se puede responder de dos formas completarías. La primera es que, tres años después, con la velocidad a la que ha evolucionado la IA y con actitudes como las de Musk en mente, es posible inferir que este riesgo no ha disminuido, sino aumentado.
La segunda forma de responder es poniendo esta perspectiva con la ayuda de una analogía planteada por el reconocido especialista Casey Newton: si a usted le dijeran que hay personas con la capacidad y voluntad de abrir un portal para comunicarse con otra dimensión –algo maravilloso y asombroso–, pero que existe cuando menos 10% de probabilidad de que de ese portal surja un demonio que termine con el mundo, ¿se sentaría indiferente, con los brazos cruzados, a esperar para saber si esto ha ocurrido?
Si hay algo de lo que estoy seguro, es que yo tampoco.
Con información de: Aristegui Noticias