Galileo

Advierten por riesgos

Expertos piden pausar desarrollo de la Inteligencia Artificial para acordar reglas

01/04/2023 - 7:00 pm

Musk y compañía llaman a que los laboratorios de Inteligencias Artificiales pausen inmediatamente por al menos seis meses el entrenamientos de los sistemas más poderosos que GPT-4, y proponen desarrollar en ese tiempo nuevas legislaciones y regulaciones para evitar que su desarrollo se salga de las manos.

Ciudad de México, 1 de abril (SinEmbargo).– En un gesto poco común en la comunidad tecnológica y académica, que va de Silicon Valley a las principales universidades estadounidenses, y que atraviesa a expertos, emprendedores y empresarios, un grupo de personas entre las que se encuentra Elon Musk, así como uno de los fundadores de Apple y otras eminencias científicas, llamaron a frenar los grandes proyectos de desarrollo de Inteligencia Artificial durante medio año, para conformar su regulación y entender los alcances de este adelanto tecnológico cada vez más palpable al advertir»profundos peligros«.

«Los sistemas de IAs con inteligencia humana-competitiva pueden plantear profundos riesgos para la sociedad y la humanidad», señala el documento, advirtiendo que estos sistemas contemporáneos «se están convirtiendo en humano-competitivos en tareas generales». «¿Deberíamos arriesgarnos a perder el control de nuestra civilización?», se preguntan.

Citando la reciente publicación de uno de esos «grandes proyectos» que deben ser pausados, el de OpenAI, cuya declaración señala que «en algún punto, sería importante tener una revisión independiente antes de empezar a entrenar sistemas en el futuro, y para los más avanzados esfuerzos acordar un límite en la tasa de crecimiento de la computación usada para crear nuevos modelos». «Ese momento», señalan los firmantes, «es ahora».

Captura de una computadora que muestra el texto de la página ChatGPT en el sitio web de OpenAI en febrero. Foto: Richard Drew, AP

Musk y compañía llaman a que los laboratorios de Inteligencias Artificiales (IAs) pausen inmediatamente por al menos seis meses el entrenamientos de los sistemas «más poderosos que GPT-4». La empresa que está detrás del ahora célebre chatbot ChatGPT lanzó el miércoles esa versión, el GPT-4, en lo que constituye el paso más reciente de una tecnología que ha llamado la atención del mundo.

El nuevo software puede calcular deducciones de impuestos y responder preguntas al estilo de un pirata de Shakespeare, por ejemplo, pero todavía “alucina” en cuanto a los hechos y comete errores de razonamiento.

Uno de los puntos más destacados del documento es que, incluso para un sector que suele repudiar la intervención gubernamental, llaman a que esta pausa propuesta sea «verificable y pública» y que incluya a todos los «actores clave» en el sector. «Si esa pausa no puede ser decretada rápidamente, los gobiernos deberán involucrarse e instituir una moratoria», recomendaron.

¿Para qué una pausa? El texto pide que estos laboratorios de IAs y expertos independientes la usen para «desarrollar en conjunto, así como implementar, una serie de protocolos compartidos para el diseño de IA avanzada» que sea «rigurosamente auditada y supervisada por expertos externos independientes». Los protocolos deben «asegurar que los sistemas sean seguros más allá de toda duda razonable».

Musk y otros expertos en el sector tecnológico firmaron la carta publicada la semana pasada. Foto: Susan Walsh, AP

Los expertos aclaran que esto no significa que la pausa se extienda a todo el desarrollo de IAs en general, sino «en dar un paso atrás en la peligrosa carrera que lleva a cada vez más grandes e impredecibles modelos con capacidades emergentes».

También pidieron que los desarrolladores y los legisladores de cada país «aceleren dramáticamente un sistema de gobernanza de la IA» que incluya al menos autoridades regulatorias nuevas y capaces; supervisión y seguimiento de sistemas altamente capaces y grandes herramientas de capacidad computacional; sistemas de procedencia y ‘marcas de agua’ que ayuden a distinguir fugas y a rastrear modelos; así como financiación y responsabilidad sobre los posibles daños causados por las IAs.

Por último, piden que se creen instituciones «bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA». El «verano de las inteligencias artificiales» puede traer grandes beneficios, aseguran, pero la sociedad debe tener oportunidad de adaptarse a ellas y «no apresurarse desprevenidos hacia su caída».

El pedido de los expertos recuerda que, en otros momentos igual de importantes del desarrollo científico y tecnológico, la sociedad ha tenido cortas y largas pausas, así como tiempo para adaptarse o rechazarlo definitivamente, por ejemplo con el desarrollo de la clonación humana, la modificación de la línea germinal humana y la eugenesia.

Una porción del sitio web de Bard de Google en Glenside, Pensilvania, el lunes 27 de marzo de 2023. Foto: Matt Rourke, AP

La petición se publicó esta semana en la página del organismo no lucrativo Future of Life Institute (Instituto Futuro de la Vida). Además del propietario de Twitter y Tesla, firmaron: Yoshua Bengio, ganador del Premio Turing; Steve Wozniak, cofundador de Apple; Yuval Noah Harari, el autor de los best-sellers Sapiens y Homo Deus; Andrew Yang, el empresario y candidato presidencial demócrata en 2020; el CEO del desarrollo Stability AI; y los cofundadores de Skype y Pinterest, entre cientos de otros, incluidos profesores de Princeton, científico del MIT e investigadores de diversas universidades.

Pero ellos no son los primeros en advertir de las posibles amenazas.

LAS ADVERTENCIAS DE STEPHEN HAWKING

En 2016, Stephen Hawking, uno de los mayores científicos de su generación, advirtió del avance de la IA y lo puso en términos pesimistas. «El éxito de crear una podría ser el evento más grande de nuestra civilización», dijo en un evento de la Universidad de Cambridge. «Pero también podría ser el último».

Esto, añadió, «a menos que podamos evadir sus riesgos». ¿Cuáles? La IA, ahondó, podría usarse como «poderosas armas autónomas, o para encontrar nuevas formas de oprimir a los más débiles», así como provocar «una gran disrupción en la economía». Hawking murió en marzo de 2018.

Un mensaje de ChatGPT se muestra en un teléfono cerca de una escuela pública en Brooklyn, Nueva York, el jueves 5 de enero de 2023. Foto: Peter Morgan, AP.

Pero el peor escenario que planteó Hawking entonces parece uno salido de la película Terminator. «En el futuro, la IA podría desarrollar su propia voluntad, una que entre en conflicto con las nuestras. El crecimiento de las poderosas IA serán la mejor o la peor cosa que nos sucedió como humanidad», dijo.

Ya en 2014 Hawking había afirmado a la BBC que «el desarrollo de una inteligencia artificial completa significaría en su caso el final de la raza humana», ya que «podría despegar por sí sola y rediseñarse a sí misma, a una tasa cada vez más grande». «Los humanos, que están limitados por una evolución biológica lenta, no podrían competir, serían reemplazados.

IMÁGENES ARTIFICIALES

Apenas esta semana, la imagen del Papa Francisco vestido con una chamarra de plumas de ganso de Balenciaga se hizo viral en redes sociales. Millones de usuarios pensaron que se trataba de una imagen real. Buzzfeed reveló unas horas más tarde que se trató de un trabajador de la construcción en Chicago de 31 años, quien, durante un viaje después de consumir hongos alucinógenos, generó con IA la imagen y la publicó en un grupo de Facebook, donde la imagen comenzó a compartirse de forma masiva.

A este tipo de casos se refiere Jaron Lanier, uno de los gurús tecnológicos más respetados en Estados Unidos. «Desde mi perspectiva, creo que el peligro no es que una nueva entidad ‘alien’ hable a través de nuestra tecnología y tome el control y nos destruya. Para mí el peligro es que usaremos esa tecnología para convertirnos mutuamente ininteligibles, o volvernos locos si se quiere», le dijo al diario The Guardian en una entrevista publicada la semana pasada.

En redes, algunos usuarios que descubrían que habían caído en la trampa de pensar que una imagen generada en IA era real –como el caso de la supuesta detención de Donald Trump que nunca ocurrió la semana pasada pero de la cual se generaron imágenes de distintas escenas y fotos en estos sistemas como si hubiera sucedido en la realidad– se cuestionaron: ¿cómo va a distinguir una persona en el futuro si lo que está viendo es una foto de algo que sucedió o no?

Este problema es apenas una de las vertientes más prácticas y evidentes que hay del uso y la evolución de la IA. Otras, como su uso para suplantar a periodistas, secretarias, desarrolladores de software y código, también se han debatido con la aparición de ChatGPT y sus consecuentes evoluciones, todas ellas apenas con unos meses de diferencia.

El apartado de Derechos Humanos del Consejo de Europa advirtió, por ejemplo, que en en Londres, la Policía Metropolitana ya experimenta con sistemas automatizados de reconocimiento facial que usan en eventos públicos como conciertos masivos, partidos de futbol y festivales para buscar a criminales buscados o denunciados. Sin embargo, el 98 por ciento de sus resultados fue falso, levantando suspicacias sobre la capacidad para prevenir crímenes de esa manera y, aún peor, para acusar a personas inocentes de algo que nunca hicieron solamente por asistir a un acto público.

BILL GATES Y LOS DEFENSORES DE LAS IA

El cofundador de Microsoft ha defendido el impulso a las IA. Foto: Ludovic Marin/Pool Photo vía AP

Las posturas más pesimistas no son necesariamente las más compartidas en la comunidad. Una encuesta de 2022 realizada por AI Impacts, una organización dedicada a la investigación del desarrollo de inteligencias artificiales y su impacto a nivel humano encontró que apenas el cinco por ciento de los 700 académicos e investigadores entrevistados creían que el efecto en el largo plazo de una IA avanzada sería «extremadamente mala (por ejemplo, su extinción)».

El 48 por ciento de los encuestados, por otra parte, le dio un 10 por ciento de probabilidades de que se presentara un resultado «extremadamente malo». El 25 por ciento, uno de cada cuatro, consideró que una consecuencia catastrófica tenía el cero por ciento de posibilidades de ocurrirle a la raza humana.

Uno de los principales promotores del impulso a las IA es Bill Gates. Apenas la semana pasada, el cofundador de Microsoft publicó un largo ensayo donde asegura que «la era de la Inteligencia Artificial ha comenzado». El multimillonario consideró dos eventos tecnológicos como «revolucionarios»: el uso de la interfaz gráfica del usuario, que trajo consigo la era de la computación tal y como la conocemos, alejada del código fuente, y la llegada de la IA.

«El desarrollo de la IA es tan fundamental como la creación del microprocesador, de la computadora personal, del Internet y del teléfono móvil. Cambiará la forma en que la gente trabaje, aprenda, viaje, reciba atención médica y se comunique entre sí. Industrias completas se reorientarán alrededor de ella. Los negocios se distinguirán por su uso», expresó.

Y, a diferencia de la postura de Hawking, Gates cree que su impulso reducirá las peores desigualdades en el mundo. En Estados Unidos, detalló, la mejor manera de usar la IA es para mejorar la educación y la enseñanza sobre todo de matemáticas. Sin embargo, su visión fue cuestionada por Musk.

«Recuerdo aquellas primeras reuniones [a las que se refiere] Gates», señaló Musk en Twitter sobre los dichos del otro magnate en cuestión. «Su entendimiento de las IA era limitado. Lo sigue siendo», sentenció.

Manuel Gonzalez
Ciudad de México | 1993. Estudió periodismo. Actualmente trabaja como Editor en la redacción de SinEmbargo MX. Antes, fue corresponsal para Infobae México, la Agencia Alemana de Prensa (dpa) y El País América. Tiene un blog (Apuntes en la ciudad), un newsletter (Apuntes subrayados) y un podcast (Al otro lado del sueño) personales.
en Sinembargo al Aire

Opinión

Opinión en video

más leídas

más leídas