INTELIGENCIA ARTIFICIAL / IGNORANCIA NATURAL

Juan Pablo Delgado
Columnas
IA

La IA probablemente conducirá al fin del mundo, pero mientras tanto habrá grandes empresas.

Sam Altman

¡Vaya, vaya, vaya! No tardamos mucho para que la humanidad armara un reverendo congal. En este caso, el tiempo fue de aproximadamente cinco meses, periodo donde vimos a la Inteligencia Artificial (IA) pasar de ser una tecnología radiante de optimismo a convertirse en la peor pesadilla del planeta, con todo y sus augurios del apocalipsis y el fin de la civilización.

Consideren primero que fue apenas el 30 de noviembre del 2022 cuando la empresa OpenAI hizo público su programa ChatGPT3. En aquellas primeras semanas la discusión se centraba en el impacto que esta herramienta podría tener en el ámbito académico y educativo. Más que el fin del mundo, el mayor peligro que ofrecía esta nueva tecnología era el fin de los ensayos universitarios ¡Qué inocentes éramos!

De pronto la narrativa cambió. Apenas en marzo del 2023 (menos de cuatro meses después) apareció una actualización inmensamente más poderosa (ChatGPT4) que armó la de Dios es padre. Poco después de su estreno, toda clase de expertos pusieron el grito en el cielo, advirtiendo que tanto poder en las manos de unos simples homo sapiens podría causar toda clase de calamidades.

Geoffrey Hinton (el “padrino” de la IA) renunció a su trabajo en Google por considerar irresponsable el avance de esta tecnología. El mismo Sam Altman (citado al inicio del artículo) apareció frente al Congreso de Estados Unidos para exigir la regulación de todo lo relacionado con la IA, incluyendo límites a su propia empresa.

Peligro real

Para finales de mayo, el pánico ya se podía resumir en un solo renglón, el cual apareció en una carta abierta del Center for AI Safety: “Mitigar el riesgo de extinción causado por la IA debe ser una prioridad mundial, al igual que otros riesgos de escala social como las pandemias y la guerra nuclear”.

Entre los abajo firmantes se encontraban cientos de académicos (Oxford, UC Berkeley, Stanford, MIT), científicos y empresarios, incluido Bill Gates y —otra vez— el mismísimo Sam Altman.

Pero como dirían los poetas: “¡Calmado venado!” Lo primero que debemos considerar al hablar de estos peligros es que hoy esta tecnología se encuentra muy lejos de causar el apocalipsis civilizatorio que muchos temen y todos los escenarios donde se hable de una “rebelión de las máquinas asesinas” deben tomarse como especulativos y con una sana dosis de escepticismo.

¿Cuál es entonces el peligro real en el corto plazo? Pues como indica Anthony Aguirre, cosmólogo de la UC Santa Cruz y fundador de Future of Life Institute, el problema es uno de dependencia ciega y absoluta hacia una tecnología que difícilmente comprendemos y entendemos.

Es decir, no estamos frente a un problema de inteligencia artificial malvada, sino de la irremediable condición humana. Dicho de otra manera, el principal peligro es que gradualmente comencemos a delegar más y más actividades a la IA, que le demos más autonomía y poder para que controle nuestras vidas y nuestra infraestructura crítica, y que nos vuelva complacientes e ignorantes y que termine por “usurpar” el pensamiento y la toma de decisiones humanas en amplios sectores de la economía y la sociedad.

No es una idea descabellada. El apocalipsis no vendrá necesariamente de un escenario como el retratado en Terminator o The Matrix, sino de ponernos cómodamente a merced de una tecnología que nadie sabe cómo funciona o cómo toma decisiones.

Y como bien apunta Anthony Aguirre, “al final será claro que la gran máquina que está controlando a la sociedad no está realmente bajo control humano, y tampoco podrá ser apagada, al igual que no podemos apagar el S&P 500”.

Conociendo de manera superficial a los humanos, este escenario me parece el más plausible. Ese que apela a la flojera y a la pereza humana. Es el sueño que buscamos desde hace siglos: “¡Dejad que las máquinas trabajen por nosotros!” Pero al final, ¿quién será realmente el amo y quién el esclavo?