1 de noviembre de 2023
Líderes mundiales advirtieron sobre el riesgo "potencialmente catastrófico" de la IA
Representantes de Estados Unidos, Reino Unido, Unión Europea y China reconocieron los riesgos que represenyta la inteligencia artificial en la "Declaración de Bletchley", que propone un entendimiento compartido de las oportunidades y los desafíos de esa tecnología.
Líderes de Estados Unidos, Reino Unido, Unión Europea y China reconocieron este miércoles en una declaración conjunta que la inteligencia artificial (IA) representa un riesgo potencialmente "catastrófico" para la humanidad y alcanzaron un primer acuerdo mundial que establece un entendimiento compartido de las oportunidades y los desafíos de esa tecnología.
Las naciones llegaron a un acuerdo, el primero en el mundo, en la jornada inicial de una cumbre que se celebra en Bletchley Park, Buckinghamshire, Inglaterra, donde Alan Turing inventó la primera máquina para descifrar códigos encriptados por Alemania en la Segunda Guerra Mundial.
Un total de 28 países de todos los continentes firmaron la llamada "Declaración de Bletchley", lo que marca un hito en la cooperación internacional para abordar los riesgos emergentes relacionados con la IA sobre la base de un desarrollo seguro y responsable.
Los países acordaron que pueden surgir riesgos sustanciales debido al posible uso intencional indebido o problemas no intencionados de control de la IA, preocupados particularmente por los riesgos de ciberseguridad, biotecnología, desinformación, incluidos el sesgo y la privacidad.
Declaración de Bletchley:
Durante la cumbre en Bletchley Park 🇬🇧, las naciones líderes en IA han llegado al primer acuerdo en el mundo que establece un entendimiento compartido de las oportunidades y riesgos que plantea la IA de frontera.@ukinspain
https://t.co/UGbVO4oE5b
— Beatriz Herranz (@herranzb)November 1, 2023
La cumbre reúne a líderes políticos, gigantes tecnológicos y expertos en IA de todo el mundo para discutir los desafíos y oportunidades planteados por esta tecnología de rápido avance.
El primer día de la cumbre se centró en los posibles riesgos de la IA de vanguardia, incluyendo el polémico ChatGPT.
Entre los participantes se encuentran la presidenta de la Comisión Europea, Ursula von der Leyen; el secretario general de la ONU, António Guterres, y la vicepresidenta de Estados Unidos, Kamala Harris.
Elon Musk, de X (exTwitter); Sam Altman, de OpenAI, y otros líderes del sector también participan y discutirán sobre los riesgos de la IA en un evento posterior a la cumbre.
AI safety is vital to the future of civilization
https://t.co/aH8eO7HlyK
— Elon Musk (@elonmusk)November 1, 2023
"Este es un logro histórico que hace que las mayores potencias de IA del mundo coincidan en la urgencia de comprender los riesgos, ayudando a garantizar el futuro a largo plazo de nuestros hijos y nietos", afirmó el primer ministro británico, Rishi Sunak.
"Bajo el liderazgo del Reino Unido, más de 25 países en la Cumbre de Seguridad de la IA declararon una responsabilidad compartida para abordar sus riesgos y promover una colaboración internacional vital en la investigación y la seguridad de la IA", afirmó el anfitrión.
El Gobierno británico también se propone crear un grupo de analistas internacionales, inspirado en el modelo del Panel Intergubernamental sobre Cambio Climático (IPCC) de la ONU.
Advirtió sobre la "amenaza existencial" que representa la IA avanzada, que podría desestabilizar sociedades y escapar al control humano.
Michelle Donelan, ministra británica de Tecnología, enfatizó por su parte, la seriedad de los riesgos y la necesidad de abordarlos de manera colaborativa.
"Esta cumbre nos brinda la oportunidad de asegurarnos de que tenemos a las personas adecuadas con las habilidades adecuadas reunidas para debatir cómo podemos mitigar estos riesgos en el futuro", dijo.
El principal desafío radica en definir salvaguardias efectivas sin obstaculizar la innovación en los laboratorios de IA y las grandes empresas tecnológicas.
Tanto la Unión Europea como Estados Unidos han optado por la regulación como enfoque para abordar este tema.
El rol de las empresas
Mientras tanto, varias empresas, como OpenAI, Meta (Facebook) y DeepMind (Google), aceptaron hacer públicas algunas de sus reglas de seguridad sobre la IA, en respuesta a una solicitud del Reino Unido.A pesar de los avances en la cumbre, algunas voces críticas señalaron que la reunión se celebra "a puerta cerrada", dominada por gigantes tecnológicos y con un acceso limitado a la sociedad civil.
También que las empresas privadas no deben ser las únicas propietarias de los sistemas de IA que transforman nuestras vidas y formas de trabajo.
La declaración no contempla la creación de un centro de pruebas internacional en el Reino Unido, como esperaba el Gobierno británico, pero sienta las bases para la colaboración internacional futura, con próximas cumbres de seguridad programadas en Corea del Sur dentro de seis meses y en Francia dentro de un año.
Por otro lado, mientras se lleva a cabo la histórica cumbre, se ha advertido al primer ministro británico, Rishi Sunak, que no debe pasar por alto las amenazas "aquí y ahora" que plantea la IA.
En ese sentido, el TUC, el mayor sindicato de trabajadores del Reino Unido y otras organizaciones, acusaron al gobierno británico de "marginar" a aquellos que corren un mayor riesgo de ser afectados por la IA, como pequeñas empresas y creativos. Se siente que la influencia de las grandes empresas tecnológicas ha dejado a estos grupos "exprimidos" y "asfixiados".
Mary Towers, responsable de derechos laborales del TUC, advirtió, según la emisora británica Sky News, que "si bien es importante abordar los riesgos futuros hipotéticos, no se deben descuidar los daños existentes causados por la IA. La cumbre ha sido criticada por limitar el acceso a la sociedad civil y por favorecer a los gigantes tecnológicos".