Musk y compañía llaman a que los laboratorios de Inteligencias Artificiales pausen inmediatamente por al menos seis meses el entrenamientos de los sistemas más poderosos que GPT-4, y proponen desarrollar en ese tiempo nuevas legislaciones y regulaciones para evitar que su desarrollo se salga de las manos.
Ciudad de México, 1 de abril (SinEmbargo).– En un gesto poco común en la comunidad tecnológica y académica, que va de Silicon Valley a las principales universidades estadounidenses, y que atraviesa a expertos, emprendedores y empresarios, un grupo de personas entre las que se encuentra Elon Musk, así como uno de los fundadores de Apple y otras eminencias científicas, llamaron a frenar los grandes proyectos de desarrollo de Inteligencia Artificial durante medio año, para conformar su regulación y entender los alcances de este adelanto tecnológico cada vez más palpable al advertir”profundos peligros“.
“Los sistemas de IAs con inteligencia humana-competitiva pueden plantear profundos riesgos para la sociedad y la humanidad”, señala el documento, advirtiendo que estos sistemas contemporáneos “se están convirtiendo en humano-competitivos en tareas generales”. “¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”, se preguntan.
Citando la reciente publicación de uno de esos “grandes proyectos” que deben ser pausados, el de OpenAI, cuya declaración señala que “en algún punto, sería importante tener una revisión independiente antes de empezar a entrenar sistemas en el futuro, y para los más avanzados esfuerzos acordar un límite en la tasa de crecimiento de la computación usada para crear nuevos modelos”. “Ese momento”, señalan los firmantes, “es ahora”.
Musk y compañía llaman a que los laboratorios de Inteligencias Artificiales (IAs) pausen inmediatamente por al menos seis meses el entrenamientos de los sistemas “más poderosos que GPT-4”. La empresa que está detrás del ahora célebre chatbot ChatGPT lanzó el miércoles esa versión, el GPT-4, en lo que constituye el paso más reciente de una tecnología que ha llamado la atención del mundo.
El nuevo software puede calcular deducciones de impuestos y responder preguntas al estilo de un pirata de Shakespeare, por ejemplo, pero todavía “alucina” en cuanto a los hechos y comete errores de razonamiento.
Uno de los puntos más destacados del documento es que, incluso para un sector que suele repudiar la intervención gubernamental, llaman a que esta pausa propuesta sea “verificable y pública” y que incluya a todos los “actores clave” en el sector. “Si esa pausa no puede ser decretada rápidamente, los gobiernos deberán involucrarse e instituir una moratoria”, recomendaron.
¿Para qué una pausa? El texto pide que estos laboratorios de IAs y expertos independientes la usen para “desarrollar en conjunto, así como implementar, una serie de protocolos compartidos para el diseño de IA avanzada” que sea “rigurosamente auditada y supervisada por expertos externos independientes”. Los protocolos deben “asegurar que los sistemas sean seguros más allá de toda duda razonable”.
Los expertos aclaran que esto no significa que la pausa se extienda a todo el desarrollo de IAs en general, sino “en dar un paso atrás en la peligrosa carrera que lleva a cada vez más grandes e impredecibles modelos con capacidades emergentes”.
También pidieron que los desarrolladores y los legisladores de cada país “aceleren dramáticamente un sistema de gobernanza de la IA” que incluya al menos autoridades regulatorias nuevas y capaces; supervisión y seguimiento de sistemas altamente capaces y grandes herramientas de capacidad computacional; sistemas de procedencia y ‘marcas de agua’ que ayuden a distinguir fugas y a rastrear modelos; así como financiación y responsabilidad sobre los posibles daños causados por las IAs.
Por último, piden que se creen instituciones “bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA”. El “verano de las inteligencias artificiales” puede traer grandes beneficios, aseguran, pero la sociedad debe tener oportunidad de adaptarse a ellas y “no apresurarse desprevenidos hacia su caída”.
El pedido de los expertos recuerda que, en otros momentos igual de importantes del desarrollo científico y tecnológico, la sociedad ha tenido cortas y largas pausas, así como tiempo para adaptarse o rechazarlo definitivamente, por ejemplo con el desarrollo de la clonación humana, la modificación de la línea germinal humana y la eugenesia.
La petición se publicó esta semana en la página del organismo no lucrativo Future of Life Institute (Instituto Futuro de la Vida). Además del propietario de Twitter y Tesla, firmaron: Yoshua Bengio, ganador del Premio Turing; Steve Wozniak, cofundador de Apple; Yuval Noah Harari, el autor de los best-sellers Sapiens y Homo Deus; Andrew Yang, el empresario y candidato presidencial demócrata en 2020; el CEO del desarrollo Stability AI; y los cofundadores de Skype y Pinterest, entre cientos de otros, incluidos profesores de Princeton, científico del MIT e investigadores de diversas universidades.
Pero ellos no son los primeros en advertir de las posibles amenazas.
LAS ADVERTENCIAS DE STEPHEN HAWKING
En 2016, Stephen Hawking, uno de los mayores científicos de su generación, advirtió del avance de la IA y lo puso en términos pesimistas. “El éxito de crear una podría ser el evento más grande de nuestra civilización”, dijo en un evento de la Universidad de Cambridge. “Pero también podría ser el último”.
Esto, añadió, “a menos que podamos evadir sus riesgos”. ¿Cuáles? La IA, ahondó, podría usarse como “poderosas armas autónomas, o para encontrar nuevas formas de oprimir a los más débiles”, así como provocar “una gran disrupción en la economía”. Hawking murió en marzo de 2018.
Pero el peor escenario que planteó Hawking entonces parece uno salido de la película Terminator. “En el futuro, la IA podría desarrollar su propia voluntad, una que entre en conflicto con las nuestras. El crecimiento de las poderosas IA serán la mejor o la peor cosa que nos sucedió como humanidad”, dijo.
Ya en 2014 Hawking había afirmado a la BBC que “el desarrollo de una inteligencia artificial completa significaría en su caso el final de la raza humana”, ya que “podría despegar por sí sola y rediseñarse a sí misma, a una tasa cada vez más grande”. “Los humanos, que están limitados por una evolución biológica lenta, no podrían competir, serían reemplazados.
IMÁGENES ARTIFICIALES
Apenas esta semana, la imagen del Papa Francisco vestido con una chamarra de plumas de ganso de Balenciaga se hizo viral en redes sociales. Millones de usuarios pensaron que se trataba de una imagen real. Buzzfeed reveló unas horas más tarde que se trató de un trabajador de la construcción en Chicago de 31 años, quien, durante un viaje después de consumir hongos alucinógenos, generó con IA la imagen y la publicó en un grupo de Facebook, donde la imagen comenzó a compartirse de forma masiva.
A este tipo de casos se refiere Jaron Lanier, uno de los gurús tecnológicos más respetados en Estados Unidos. “Desde mi perspectiva, creo que el peligro no es que una nueva entidad ‘alien’ hable a través de nuestra tecnología y tome el control y nos destruya. Para mí el peligro es que usaremos esa tecnología para convertirnos mutuamente ininteligibles, o volvernos locos si se quiere”, le dijo al diario The Guardian en una entrevista publicada la semana pasada.
Stephan Hawking would have joined the list to pause AI developments.
In 2016 he warned the world and wished us good luck.
A clip from his talk at Cambridge University: pic.twitter.com/3Egi4zRVFI
— Lorenzo Green 〰️ (@mrgreen) March 29, 2023
En redes, algunos usuarios que descubrían que habían caído en la trampa de pensar que una imagen generada en IA era real –como el caso de la supuesta detención de Donald Trump que nunca ocurrió la semana pasada pero de la cual se generaron imágenes de distintas escenas y fotos en estos sistemas como si hubiera sucedido en la realidad– se cuestionaron: ¿cómo va a distinguir una persona en el futuro si lo que está viendo es una foto de algo que sucedió o no?
Este problema es apenas una de las vertientes más prácticas y evidentes que hay del uso y la evolución de la IA. Otras, como su uso para suplantar a periodistas, secretarias, desarrolladores de software y código, también se han debatido con la aparición de ChatGPT y sus consecuentes evoluciones, todas ellas apenas con unos meses de diferencia.
El apartado de Derechos Humanos del Consejo de Europa advirtió, por ejemplo, que en en Londres, la Policía Metropolitana ya experimenta con sistemas automatizados de reconocimiento facial que usan en eventos públicos como conciertos masivos, partidos de futbol y festivales para buscar a criminales buscados o denunciados. Sin embargo, el 98 por ciento de sus resultados fue falso, levantando suspicacias sobre la capacidad para prevenir crímenes de esa manera y, aún peor, para acusar a personas inocentes de algo que nunca hicieron solamente por asistir a un acto público.
BILL GATES Y LOS DEFENSORES DE LAS IA
Las posturas más pesimistas no son necesariamente las más compartidas en la comunidad. Una encuesta de 2022 realizada por AI Impacts, una organización dedicada a la investigación del desarrollo de inteligencias artificiales y su impacto a nivel humano encontró que apenas el cinco por ciento de los 700 académicos e investigadores entrevistados creían que el efecto en el largo plazo de una IA avanzada sería “extremadamente mala (por ejemplo, su extinción)”.
El 48 por ciento de los encuestados, por otra parte, le dio un 10 por ciento de probabilidades de que se presentara un resultado “extremadamente malo”. El 25 por ciento, uno de cada cuatro, consideró que una consecuencia catastrófica tenía el cero por ciento de posibilidades de ocurrirle a la raza humana.
Uno de los principales promotores del impulso a las IA es Bill Gates. Apenas la semana pasada, el cofundador de Microsoft publicó un largo ensayo donde asegura que “la era de la Inteligencia Artificial ha comenzado”. El multimillonario consideró dos eventos tecnológicos como “revolucionarios”: el uso de la interfaz gráfica del usuario, que trajo consigo la era de la computación tal y como la conocemos, alejada del código fuente, y la llegada de la IA.
I remember the early meetings with Gates. His understanding of AI was limited. Still is.
— Elon Musk (@elonmusk) March 27, 2023
“El desarrollo de la IA es tan fundamental como la creación del microprocesador, de la computadora personal, del Internet y del teléfono móvil. Cambiará la forma en que la gente trabaje, aprenda, viaje, reciba atención médica y se comunique entre sí. Industrias completas se reorientarán alrededor de ella. Los negocios se distinguirán por su uso”, expresó.
Y, a diferencia de la postura de Hawking, Gates cree que su impulso reducirá las peores desigualdades en el mundo. En Estados Unidos, detalló, la mejor manera de usar la IA es para mejorar la educación y la enseñanza sobre todo de matemáticas. Sin embargo, su visión fue cuestionada por Musk.
“Recuerdo aquellas primeras reuniones [a las que se refiere] Gates”, señaló Musk en Twitter sobre los dichos del otro magnate en cuestión. “Su entendimiento de las IA era limitado. Lo sigue siendo”, sentenció.