Témoris Grecko
05/04/2023 - 6:32 pm
¡Alto el pánico! La Inteligencia Artificial no nos extinguirá pronto
A partir de que el concepto de inteligencia artificial fue creado hace 60 años, el tema ha sido discutido desde todos los ángulos, de la filosofía a la ingeniería. ¿Por qué les parece que un semestre bastará para inventar y aplicar las salvaguardas indispensables y urgentes? Los autores no sintieron necesario aclararlo. Ni se sabe si les van a hacer caso.
El debate sobre las IA’s se está corriendo al rojo alarma: unos creen que 6 meses de pausa en su desarrollo bastan para establecer salvaguardas suficientes; en el Machine Intelligence Research Institute creen que sin alto total, “el resultado de una inteligencia sobrehumana es que todos moriremos”. Si la respuesta está en algún punto en el medio, en cualquier caso el problema es muy grave, incluso existencial para la especie.
Cuando las sociedades enfrentan peligros desconocidos, hay fiesta para los fanfarrones y los oportunistas. Lo vimos en la pandemia: los debates serios sobre cómo superar una emergencia de potencial y características incógnitas, quedaron confundidos entre mareas de estupideces y fabricaciones.
En lo que toca a las inteligencias artificiales (IA’s), sin embargo, hay una diferencia fundamental: no es algo ajeno que se le viene encima a la humanidad, como la pandemia; tampoco es la consecuencia imprevista de sus abusos, como el cambio climático; es algo que está creando ella misma, en principio para su propio disfrute y a un ritmo enfebrecido, como quien conduce una motocicleta a toda velocidad y se enferma de riesgo, acelerando ante la curva, y más a la siguiente curva.
¿Las IA’s son un peligro? Por principio, ningún gran ingenio tecnológico está exento. ¿Podemos controlarlas con eficacia y garantías? Ahí está el debate.
A fines de marzo, un centenar de expertos en IA pidió una moratoria de seis meses en el desarrollo de estos sistemas para “desarrollar e implementar mancomunadamente un conjunto de protocolos de seguridad compartidos”, ya que éstos “pueden plantear riesgos profundos para la sociedad y la humanidad”. El “cambio profundo en la historia de la vida en la Tierra” que sobreviene “debe planificarse y administrarse con el cuidado y los recursos correspondientes”. Todo esto genera cuestionamientos, que en una carta abierta los firmantes resumen en cuatro preguntas, de las que dos son las de mayor alcance: “¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.
A partir de que el concepto de inteligencia artificial fue creado hace 60 años, el tema ha sido discutido desde todos los ángulos, de la filosofía a la ingeniería. ¿Por qué les parece que un semestre bastará para inventar y aplicar las salvaguardas indispensables y urgentes? Los autores no sintieron necesario aclararlo. Ni se sabe si les van a hacer caso.
UNA IA QUE NI NOS QUIERA NI NOS ODIE
Hay planteamientos todavía más alarmantes, presentados por expertos que comparten la preocupación de los anteriores pero no la idea de que en 26 semanas podremos superar las curvas y darnos gusto apretando el pedal hasta el fondo.
Eliezer Yudkowsky, un renombrado teórico de la decisión y jefe de investigación del Machine Intelligence Research Institute, de Berkeley, California, sostiene en un artículo publicado en la revista Time algunos puntos que hay que atender porque no es ni un fanfarrón ajeno al tema, que busca sus 15 minutos de fama adelantando el Apocalipsis, ni uno de tantos oportunistas políticos tratando de promoverse, sino uno de los expertos que fueron invitados a signar ese documento y no lo hicieron porque les parece que la solución que propone es insuficiente: “Esta moratoria de 6 meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente pero yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”.
“Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como decir ‘tal vez exista alguna remota posibilidad’, sino afirmar que ‘es obviamente lo que va a pasar’”, como hubiera pasado “si el australophitecus tratara de pelear contra el homo sapiens“, o “un niño de 10 años jugara ajedrez contra (el sistema de IA) Stockfish 15”.
¿Cómo podría dar molestias una IA encerrada en una computadora, si en caso extremo siempre está a un tirón de cable de dejar de existir? Yudkowsky plantea un escenario que no es el de un escritor de fantasía, sino el de un científico especializado que elabora escenarios potencialmente factibles: “Para visualizar una AI superhumana hostil, no imaginen a un pensador listo, leído y aburrido de internet que está enviando emails con mala leche. Visualicen una civilización totalmente ajena, pensando a velocidades millones de veces superiores a la humana, inicialmente confinada a las computadoras en un mundo de criaturas que, desde su perspectiva, son muy estúpidas y lentas. Una IA suficientemente inteligente no se quedaría ahí por mucho tiempo. En el mundo de hoy, tú puedes enviar secuencias de ADN por email papra producir proteínas al gusto, permitiendo que una IA inicialmente confinada a internet construya formas artificiales de vida o salte directo a la manufactura molecular postbiológica”.
¿Por qué tendrían la IA’s que proteger el futuro de la humanidad, o al menos la vida? Yudkowsky señala que no han logrado introducir ese concepto en las IA’s. No es que sean incompatibles con tales ideas, pero si no esperamos a saber cómo lograr que las abracen, lo que tendremos será algo que “ni nos quiera ni nos odie”, pues “estamos hechos de átomos que puede utilizar para otra cosa”.
OpenAI (la dueña de ChatGPT y otros sistemas -mientras no se independicen) ha manifestado su “intención abierta”, dice Yudkowsky, de “esperar a que alguna IA futura haga nuestra tarea de alinear a la IA (referencia aquí). Sólo con oír que este es el plan bastaría para que cualquier persona sensata entrara en pánico. El otro laboratorio líder en IA, DeepMind, sencillamente no tiene ningún plan”.
¿PODRÁN APAGAR TODO?
El “alineamiento” (aligning) es el término empleado para describir que la IA trabaja como los seres humanos -o más bien sus creadores- queremos que lo haga. ¿Cómo asegurarnos de que la IA está alineada si la única forma de revisar los miles de millones de miles de millones de datos que está manejando es a través de la IA? Ningún ser humano ni organización de seres humanos, armados con instrumentos digitales previos a la IA, puede ingresar en esos universos de fracciones numéricas y darles sentido en menos tiempo que una IA que progresa minuto a minuto.
Continúa Yudkowsky: “no tenemos ni idea de cómo determinar si los sistemas de IA son autoconscientes —ya que no tenemos ni idea de cómo descodificar nada de lo que ocurre en sus gigantescas matrices inescrutables— y, por lo tanto, puede que en algún momento creemos inadvertidamente mentes digitales”.
En un contexto en el que no funciona el viejo y probadísimo método humano del ensayo y error, advierte el teórico: en cuanto a resolver el problema de la seguridad -“seguridad en el sentido de no matar literalmente a todo el mundo”-, el problema de “probar esto con una superinteligencia es que si te equivocas en el primer intento, ya no aprendes de eso porque estás muerto”.
La moratoria sobre nuevas IA’s complejas, dice el autor, no debe ser de seis meses, “sino indefinida y mundial, sin excepciones para gobiernos y ejércitos. Debemos apagar todos los grandes clusters de GPU, y rastrear y destruir todas las GPU ya vendidas”.
“Apaguen todo”, concluye, refiriéndose a detener el desarrollo de las IA’s. “No estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto todo el mundo morirá, incluidos los niños que no eligieron esto. Apaguen todo”.
El problema, sin embargo, es que la única forma de apagarlo todo sería crear una superpolicía global capaz de imponerse no sólo sobre las personas y los grupos pequeños, sino sobre los gobiernos de las potencias más grandes. Y que fuera incorrompible por los grandes poderes que querrán aprovechar la situación, bajo la doble ilusión de poder alinear una IA y de ser los únicos que lo lograrán.
Es el mismo dilema que hubo con las armas nucleares: ¿quién iba a confiar en que sus rivales no las iban a desarrollar si uno dejaba de hacerlo?
No obstante, en la actualidad es peor porque en los años 50, los únicos que podían hacer las inversiones inmensas de recursos que requería esa industria eran las grandes potencias.
Ahora, cada día es más fácil que organizaciones privadas desarrollen discretamente variantes de la IA. Y sus objetivos no tendrán que ser humanitarios ni responsables, como tampoco los de las potencias lo han sido.
El sistema de no proliferación nuclear ha tenido cierto éxito en retrasar la adopción masiva de armas atómicas porque, a final de cuentas, todo esto es manejado por seres humanos, que son vulnerables a presiones y responden a la disuasión, y el instinto de preservación de la especie prevalece hasta ahora.
¿Qué pasaría con una IA a la que le importa muy poco la humanidad? ¿Con una que la vea como un problema para las demás especies, para el planeta o para cualquier otra cosa, o a la que simplemente no le importe?
¿Y cómo sería una competencia entre distintas IA’s, con orígenes y propósitos diferentes? No tendría que ser una competencia, digamos, “consciente”, pero los objetivos impuestos por sus creadores las determinarían en un principio y quizás en alguna medida después también. Y no necesariamente la ruta de la superinteligencia debe hacerlas coincidir. O al revés, acaso eventualmente confluyan en algo que está más allá de nuestra capacidad de entendimiento.
Por eso, un obstáculo en este debate es que se siga hablando de la IA como si fuera una sola, y que las imaginarias salvaguardas podrían funcionar sobre una, cuando se avecina una abrumadora diversidad.
Lo más factible es que grupos, y muy pronto individuos, generen proyectos enormemente diversos, con fines igualmente amplios, tantos benéficos como destructivos, y todos improbablemente controlables. Y que aunque algunos decidieran acatar al menos la moratoria de seis meses, en el fondo todos saben que gobiernos, empresas e independientes seguirán trabajando en IA, siempre temiendo quedarse atrás en esta imparable carrera hacia las curvas.
AUTOAMPARO
Ojalá la moratoria de seis meses sea suficiente. Ojalá sean capaces de acordarla o imponerla. Ojalá los llamados de atención, las voces de alarma, conduzcan a medidas eficaces y duraderas y los peligros queden conjurados. Ojalá que nuestros temores sean infundados y en realidad, la IA no se autoemplee para nuestro mal ni sea mal empleada por quienes la controlen -si lo logran-, que sea bien alineada y sólo produzca avances benéficos para la humanidad, el planeta y nuestro entorno galáctico.
Aunque todo lo anterior es wishful thinking, una lista de bellos deseos, quizás Yudkowsky y los expertos que no firmaron porque piensan como él pertenecen a una de esas alas extremas a las que es necesario oír para balancear y afinar nuestro proceder, sin que eso signifique abrazar la totalidad de su argumento. Entonces, si los de la moratoria fueran el mainstream, el pensamiento más central, de todos modos urge actuar antes de cometer errores irreparables. A todos los males tradicionales de la humanidad, en este siglo hemos sumado el cambio climático como gran telón de fondo del desastre, y encima, ahora vemos los riesgos de esta sinuosa autopista de las IA’s. ¿Será que sí podríamos usarlas para resolver los problemas anteriores? Las dudas son angustiosas porque tienen un carácter existencial…
Sea lo que fuere, estamos en el umbral de atestiguar eventos de dimensiones todavía incalculables. La ciencia ficción materializada nos está engullendo en una historia tan fascinante y atrevida como impredecible, cuyo final no parece que será escrito por una mano humana.
Lo lamentable es que tal momento fantástico nos encuentra como una humanidad que no confía en sí misma ni para autopreservarse. Y en esa grave consecuencia de su eterna inmadurez radica su desarmante vulnerabilidad.
No puedo cerrar este artículo con un “que la IA nos ampare”. El dios de alguna religión, mucho menos. Las IA’s no son creyentes. Autoamparémonos nosotras y nosotros mismos mientras sea posible. O entreguémonos a los videojuegos hasta que las consecuencias nos alcancen.
Los contenidos, expresiones u opiniones vertidos en este espacio son responsabilidad única de los autores, por lo que SinEmbargo.mx no se hace responsable de los mismos.
más leídas
más leídas
opinión
opinión
22-11-2024
22-11-2024
21-11-2024
21-11-2024
21-11-2024
21-11-2024
20-11-2024
20-11-2024
destacadas
destacadas
Galileo
Galileo