GEOPOLÍTICA EN LA INTELIGENCIA ARTIFICIAL

Josep Grau repasa los peligros que supone la introducción de la IA en las sociedades, así como la manera en que los gobiernos, que han legislar sobre esta nueva herramienta, y las empresas, que la quieren desarrollar, ven la IA de manera antagónica

Por  Josep Grau

La inteligencia artificial es clave para la transformación digital, un cambio de paradigma en el que estamos todos inmersos, pero hay que saber si se trata de un cambio para los humanos, para la sociedad o para las empresas.

Desde el lanzamiento del ChatGPT, la plataforma ha conseguido un crecimiento sin precedentes, con 100 millones de usuarios al mes, ha servido para popularizar la inteligencia artificial, pero también ha propiciado un amplio debate sobre los usos, sus límites y la necesaria regulación. La IA ya es geopolítica, este año cuatro mil millones de personas se dirigirán a las urnas, la IA generativa será utilizada por actores nacionales y extranjeros para influir en las campañas electorales, con el fin de socavar la confianza en la democracia y sembrar caos político. Los votantes acceden cada vez más a la información por las redes sociales, que pueden ser vulnerables y manipulables por la IA.

La desinformación se utilizará para exaltar los actuales conflictos geopolíticos, como las guerras en Oriente Medio y Ucrania. Los propagandistas del Kremlin usaron la IA generativa para difundir en las redes sociales historias falsas sobre el presidente Zelenski, que luego utilizaron a los legisladores republicanos norteamericanos como argumentos para no dar más ayuda a Ucrania.

A finales del año pasado se extendió información errónea sobre Hamás e Israel. La tecnología IA está a punto de convertirse en un riesgo principal para dar forma a las decisiones políticas, cada vez más empleadas por los combatientes para influir en la opinión pública, desacreditar pruebas reales e inflamar aún más las tensiones geopolíticas en todo el mundo.

Hasta ahora, la IA ha estado dominada por Estados Unidos y China, pero en 2024 nuevos actores geopolíticos serán capaces de desarrollar y adquirir capacidades de inteligencia artificial avanzadas, modelos apoyados por el estado y aplicaciones avanzadas para el uso de la seguridad nacional. Es comprensible que despierte tanto interés como para desatar las luchas afianzadas, protagonizadas por todos los agentes involucrados: está en juego su dimensión ética y legal en la medida en que replantea la relación persona-máquina que ha vivido en los últimos años. Por desgracia, no todos los usos son buenos, y los ciberdelincuentes aprovechan las capacidades para cometer estafas y engaños.

Hace dos meses, Open AI, una empresa estable, generó uno de los seriales más intensos del sector tecnológico. Una carta a los empleados de OpenAI advertía, que el equipo de Altman estaba desarrollando una IA potencialmente peligrosa y que podía ser una amenaza para la sociedad.

Las compañías tecnológicas líderes mundiales están ganando la batalla; Microsoft, principal inversor en OpenAI, ve encumbrado su control sobre OpenAI. Uno de los tres miembros de la nueva Junta de la compañía, curiosamente, es Larry Summers, exjefe del Departamento del Tesoro, asesor de la Casa Banca y presidente de la Universidad Harvard.

Las organizaciones pueden tener la tentación de esperar ver qué regulaciones sobre la IA surgen, pero ahora es el momento de actuar. Las organizaciones pueden enfrentarse a grandes riesgos legales, reputacionales, organizativos y financieros si no actúan rápidamente.

Varios gobiernos, como Italia, han prohibido el uso del ChatGPT por los problemas de privacidad, por demandas por infracción de derechos de autor presentadas por diversas organizaciones e individuos, así como demandas por difamación. A medida que los posibles riesgos negativos de la IA son más evidentes, aumentan las preocupaciones y la desconfianza pública hacia las empresas que crean la IA.

El incentivo para avanzar rápidamente se ve aumentado por el hecho de que si los modelos de gobierno y organizativos adecuados para la IA no se construyen pronto, la solución puede ser necesaria más adelante debido a cambios normativos, violaciones de datos o incidentes de ciberseguridad. Es evidente que la inteligencia artificial ha dado un paso significativo después de pasar de algoritmos con reglas de funcionamiento predefinidas a modelos generativos avanzados. Estos algoritmos no tienen conciencia, ni sentido de trascendencia, ni intenciones, ni capacidad de toma de decisiones autónomas como las personas.

Otra muestra de geopolítica: la Oficina Judicial del Reino Unido ha tomado una decisión histórica, para que los jueces utilicen la IA para elaborar resoluciones legales. La Oficina Judicial de UK advierte de la posible adopción generalizada de herramientas impulsadas por la IA por parte del público a la hora de presentar casos legales, así como de la posibilidad de que se utilice tecnología deepfake para crear pruebas falsas, y sobre el posible mal uso de la tecnología en los procedimientos legales y la necesidad de salvaguardarlas, para evitar la creación o difusión de pruebas prefabricadas.

El aumento del uso de la IA en las resoluciones judiciales puede conllevar oportunidades, pero también abre la puerta a grandes riesgos cibernéticos. Los piratas informáticos han demostrado ser expertos en infiltrarse y explotar lagunas de seguridad para robar datos, y en este escenario también podrían conducir a una manipulación generalizada de pruebas.

«El aumento del uso de la IA en las resoluciones judiciales puede conllevar oportunidades, pero también abre la puerta a grandes riesgos cibernéticos.»

Por este motivo, muchos han alertado de sus peligros y han animado a su regulación. Europa se ha convertido en la primera región del mundo donde se regula esta tecnología. La UE quizá no es una potencia militar, ni política, pero sí es una potencia reguladora. La ley, que la Unión Europea, la Comisión, los estados miembros y el Parlamento han conseguido, permite regular la inteligencia artificial. La Eurocámara pedía una prohibición total. Los estados miembros han logrado incorporar a la Ley el tratamiento de casos de seguridad nacional para prever terrorismo. Sólo está permitido su uso en casos como la búsqueda de víctimas de secuestros o tráfico de seres humanos, para prevenir ataques terroristas o para identificar a personas sospechosas de haber cometido delitos de terrorismo, asesinatos, violaciones o tráfico sexual. Este sistema, además, sólo se podrá utilizar con autorización judicial previa.

La Ley mantiene un equilibrio entre los derechos fundamentales y no ser un obstáculo para el progreso de una tecnología de la que las propias instituciones europeas saben que Europa no puede quedar al margen. Esta ha sido una de las quejas de EEUU, donde se cree que el exceso regulador de la UE complica a las empresas tecnológicas, la mayoría norteamericanas, que puedan desarrollar la actividad con normalidad dentro del marco de la UE.

Una de las cuestiones que más me preocupaban era la regulación de la inteligencia artificial generativa, como el ChatGPT, y que la Eurocámara pidió incluir en la ley, que deberá cumplir unos requisitos de transparencia, como que los sistemas respeten los derechos de autor y que especifiquen si un contenido está generado por IA.

Para los estados miembros era importante regular y poner orden, por ejemplo, cómo se usan en la industria audiovisual, para evitar una avalancha de demandas o huelgas, como la recientemente en Hollywood (EE.UU.) por el uso de la inteligencia artificial y que afecta a los actores y a los guionistas. Se ha conseguido un pacto equilibrado entre los beneficios de la inteligencia artificial y el impacto económico, y no perder competitividad contra gigantes como China o Estados Unidos.Tanto Francia como Alemania, insistían en la importancia de que esta ley no limite la competitividad. La Unión tiene previsto crear una oficina europea de inteligencia artificial que coordine los países y estará asesorada por científicos y agentes de la sociedad civil.

El punto más caliente de la negociación ha sido que las fuerzas del orden público puedan hacer uso de las cámaras de identificación biométrica en espacios públicos. Por un lado, varios gobiernos como el francés justificaban que esta tecnología serviría para mejorar la seguridad nacional. Por otro, euro parlamentarios y activistas de los derechos digitales de la UE, han denunciado que el uso de esta tecnología podría violar los derechos humanos y ser abusada para recortar libertades en nombre de la seguridad.

En los últimos meses, ha sido uno de los grandes temas de debate en foros internacionales, donde el uso de la IA está presente en las guerras en Gaza y Ucrania, por el intento ruso de recuperar las fronteras de la Unión Soviética o en el peligro de que el conflicto del Oriente Medio se convierta en un conflicto de dimensiones globales, y también, en la perspectiva de que Donald Trump vuelva a ser presidente de Estados Unidos. El primer ministro británico, Rishi Sunak, convocó a Bletchley Park, políticos de una treintena de países, científicos y empresarios del sector de la alta tecnología, como el multimillonario Elon Musk, para debatir los pros y los contras del uso de la IA, y sobre todo los peligros de la IA, con el propósito de intentar sentar las bases de una jurisdicción y un marco regulador. En esta cumbre se confirmaron las grandes diferencias entre Estados Unidos, China, la Unión Europea, los filósofos, y los magnates de las redes sociales y los gigantes tecnológicos.

El primer ministro quiere que el Reino Unido haga de intermediario para establecer unas reglas del juego universalmente aceptadas antes de que empresas, como Google y OpenAI, pongan en marcha la nueva generación de IA. La cumbre expuso y debatió la necesidad de tomar medidas para que la IA no se utilice para manipular procesos electorales, desinformar y crear realidades paralelas mediante vídeos y audios.

El memorándum de la cumbre, indica que hay que desarrollar el potencial de la IA, pero de una forma responsable, donde las empresas del sector deben tener mecanismos para retirar del mercado productos potencialmente nocivos, y utilizar expertos en seguridad que detecten vulnerabilidades en sus sistemas y se aseguren de que no son atacados. La cuestión central son los posibles ataques cibernéticos y los peligros de la IA para la seguridad nacional.

El propio Papa Francisco ha manifestado recientemente su preocupación por los desarrollos de tecnologías vinculados a la inteligencia artificial y para que no aborden los riesgos éticos y sociales de su avance y la aplicación. Apunta a los posibles intereses vinculados a su desarrollo y cómo pueden aumentar las desigualdades y promover conflictos en lugar de mejorar la vida. El Papa indica que es necesario crear organismos que examinen las cuestiones éticas relacionadas con la IA, marquen líneas rojas respecto de las libertades de las personas, y trabajen para garantizar una aplicación responsable.

En general, hay preocupaciones sobre una posible falta de transparencia en el funcionamiento de los sistemas de IA, las posibles infracciones de propiedad intelectual, posibles violaciones de privacidad, así como preocupaciones de seguridad.

Los reguladores buscan establecer seguridad jurídica para las empresas dedicadas al desarrollo o el uso de la IA genética, mientras que los gobernantes quieren fomentar la innovación sin miedo a repercusiones desconocidas. El objetivo es establecer normas reguladoras internacionales armonizadas que estimulen el comercio y la transferencia de datos. Persiguiendo este objetivo, se ha llegado a un consenso donde la comunidad de desarrollo de IA ha estado a la vanguardia de defender un cierto control regulador sobre el desarrollo de la tecnología tan pronto como sea posible. Aunque ningún país ha aprobado hasta ahora una regulación integral de la IA o de la IA gen, los principales esfuerzos legislativos incluyen los de Brasil, China, la Unión Europea, Singapur, Corea del Sur y Estados Unidos. Los enfoques adoptados por los diferentes países varían desde una amplia regulación de la IA apoyada por las regulaciones existentes de protección de datos y ciberseguridad (la Unión Europea y Corea del Sur) hasta leyes sectoriales (los Estados Unidos) y principios más generales o enfoques basados en directrices (Brasil, Singapur y los Estados Unidos). Cada enfoque tiene sus propios beneficios e inconvenientes, y algunos mercados pasarán de directrices basadas en principios a una legislación estricta.

Los avances en la gobernanza de la IA se harán evidentes en 2024 a medida que los esfuerzos reguladores van fallando, las empresas tecnológicas continúan aprobándolas sin restricciones, y los modelos y herramientas de IA mucho más potentes van más allá del control de los gobiernos. Estados Unidos, China y la mayor parte del G20 suscribieron a la Declaración de Bletchley Park sobre la seguridad de la IA.

Por otra parte, las Naciones Unidas convocaron recientemente una cumbre con asesores de alto nivel. Los principales actores de la IA han decidido cooperar en la gobernanza de la IA, las mismas empresas tecnológicas se comprometen con estándares voluntarios y controles. Pero a medida que la tecnología avanza, crece el atractivo de la ventaja geopolítica y el interés comercial incentivará a los gobiernos y a las empresas a abandonar los acuerdos y regímenes no vinculantes a los que se han unido para maximizar sus ganancias.

Cuando la Asamblea General de las Naciones Unidas se organizó esta cumbre titulada «Gobernando la IA para la Humanidad», el secretario general, António Guterres, manifestó la necesidad de crear una nueva agencia de la ONU, con el fin de ayudar al mundo a cooperar en la gestión de la tecnología de la IA. Pero algunos Estados, le recordaron, que la Convención sobre Armas Convencionales, que buscaba obligar a los Gobiernos a prohibir el desarrollo de armas letales autónomas, no prosperó entre las superpotencias mundiales como Estados Unidos y Rusia.

La geopolítica en la IA sale de las fronteras de los países donde se desarrolla. En septiembre próximo, la ONU organizará la «Cumbre del Futuro», las conclusiones del Organismo estarán a disposición de los estados miembros para decidir si apoyan o no el establecimiento de una agencia de IA de la ONU. La propuesta es crear una agencia internacional similar a la Agencia Internacional de Energía Atómica (OIEA), que desarrolle los estándares para toda la industria y permita monitorear si se están cumpliendo, de forma segura, los requisitos de los sistemas de inteligencia artificial más sofisticados. En definitiva, ser una autoridad internacional que pueda inspeccionar, auditar y probar el cumplimiento de las normas de Seguridad, e incluso, imponer restricciones y niveles de Seguridad. Algunos expertos son pesimistas y manifiestan que será muy difícil el apoyo entre los responsables gubernamentales poder crear una agencia similar a la OIEA para la IA.

Que Estados Unidos, China y Rusia, en un esfuerzo por evitar altos riesgos que aún no se han producido, que permitan a los inspectores Internacionales el acceso total a los laboratorios de IA, la mayoría de empresas privadas. Es esencial que todos los países donde se están desarrollando sistemas de IA, como EE. UU y China, participen activamente en un acuerdo internacional como este, sin embargo, el representante en la ONU de la Federación Rusa, ya ha manifestado que Rusia se opone a establecer órganos supranacionales de supervisión para la IA.

Está claro que hoy la inteligencia artificial es geopolítica y también poder.

Por  Josep Grau

La inteligencia artificial es clave para la transformación digital, un cambio de paradigma en el que estamos todos inmersos, pero hay que saber si se trata de un cambio para los humanos, para la sociedad o para las empresas.

Desde el lanzamiento del ChatGPT, la plataforma ha conseguido un crecimiento sin precedentes, con 100 millones de usuarios al mes, ha servido para popularizar la inteligencia artificial, pero también ha propiciado un amplio debate sobre los usos, sus límites y la necesaria regulación. La IA ya es geopolítica, este año cuatro mil millones de personas se dirigirán a las urnas, la IA generativa será utilizada por actores nacionales y extranjeros para influir en las campañas electorales, con el fin de socavar la confianza en la democracia y sembrar caos político. Los votantes acceden cada vez más a la información por las redes sociales, que pueden ser vulnerables y manipulables por la IA.

La desinformación se utilizará para exaltar los actuales conflictos geopolíticos, como las guerras en Oriente Medio y Ucrania. Los propagandistas del Kremlin usaron la IA generativa para difundir en las redes sociales historias falsas sobre el presidente Zelenski, que luego utilizaron a los legisladores republicanos norteamericanos como argumentos para no dar más ayuda a Ucrania.

A finales del año pasado se extendió información errónea sobre Hamás e Israel. La tecnología IA está a punto de convertirse en un riesgo principal para dar forma a las decisiones políticas, cada vez más empleadas por los combatientes para influir en la opinión pública, desacreditar pruebas reales e inflamar aún más las tensiones geopolíticas en todo el mundo.

Hasta ahora, la IA ha estado dominada por Estados Unidos y China, pero en 2024 nuevos actores geopolíticos serán capaces de desarrollar y adquirir capacidades de inteligencia artificial avanzadas, modelos apoyados por el estado y aplicaciones avanzadas para el uso de la seguridad nacional. Es comprensible que despierte tanto interés como para desatar las luchas afianzadas, protagonizadas por todos los agentes involucrados: está en juego su dimensión ética y legal en la medida en que replantea la relación persona-máquina que ha vivido en los últimos años. Por desgracia, no todos los usos son buenos, y los ciberdelincuentes aprovechan las capacidades para cometer estafas y engaños.

Hace dos meses, Open AI, una empresa estable, generó uno de los seriales más intensos del sector tecnológico. Una carta a los empleados de OpenAI advertía, que el equipo de Altman estaba desarrollando una IA potencialmente peligrosa y que podía ser una amenaza para la sociedad.

Las compañías tecnológicas líderes mundiales están ganando la batalla; Microsoft, principal inversor en OpenAI, ve encumbrado su control sobre OpenAI. Uno de los tres miembros de la nueva Junta de la compañía, curiosamente, es Larry Summers, exjefe del Departamento del Tesoro, asesor de la Casa Banca y presidente de la Universidad Harvard.

Las organizaciones pueden tener la tentación de esperar ver qué regulaciones sobre la IA surgen, pero ahora es el momento de actuar. Las organizaciones pueden enfrentarse a grandes riesgos legales, reputacionales, organizativos y financieros si no actúan rápidamente.

Varios gobiernos, como Italia, han prohibido el uso del ChatGPT por los problemas de privacidad, por demandas por infracción de derechos de autor presentadas por diversas organizaciones e individuos, así como demandas por difamación. A medida que los posibles riesgos negativos de la IA son más evidentes, aumentan las preocupaciones y la desconfianza pública hacia las empresas que crean la IA.

El incentivo para avanzar rápidamente se ve aumentado por el hecho de que si los modelos de gobierno y organizativos adecuados para la IA no se construyen pronto, la solución puede ser necesaria más adelante debido a cambios normativos, violaciones de datos o incidentes de ciberseguridad. Es evidente que la inteligencia artificial ha dado un paso significativo después de pasar de algoritmos con reglas de funcionamiento predefinidas a modelos generativos avanzados. Estos algoritmos no tienen conciencia, ni sentido de trascendencia, ni intenciones, ni capacidad de toma de decisiones autónomas como las personas.

Otra muestra de geopolítica: la Oficina Judicial del Reino Unido ha tomado una decisión histórica, para que los jueces utilicen la IA para elaborar resoluciones legales. La Oficina Judicial de UK advierte de la posible adopción generalizada de herramientas impulsadas por la IA por parte del público a la hora de presentar casos legales, así como de la posibilidad de que se utilice tecnología deepfake para crear pruebas falsas, y sobre el posible mal uso de la tecnología en los procedimientos legales y la necesidad de salvaguardarlas, para evitar la creación o difusión de pruebas prefabricadas.

El aumento del uso de la IA en las resoluciones judiciales puede conllevar oportunidades, pero también abre la puerta a grandes riesgos cibernéticos. Los piratas informáticos han demostrado ser expertos en infiltrarse y explotar lagunas de seguridad para robar datos, y en este escenario también podrían conducir a una manipulación generalizada de pruebas.

«L’augment de l’ús de la IA en les resolucions judicials pot comportar oportunitats, però també obre lEl aumento del uso de la IA en las resoluciones judiciales puede conllevar oportunidades, pero también abre la puerta a grandes riesgos cibernéticos.»

 

 

 

Por este motivo, muchos han alertado de sus peligros y han animado a su regulación. Europa se ha convertido en la primera región del mundo donde se regula esta tecnología. La UE quizá no es una potencia militar, ni política, pero sí es una potencia reguladora. La ley, que la Unión Europea, la Comisión, los estados miembros y el Parlamento han conseguido, permite regular la inteligencia artificial. La Eurocámara pedía una prohibición total. Los estados miembros han logrado incorporar a la Ley el tratamiento de casos de seguridad nacional para prever terrorismo. Sólo está permitido su uso en casos como la búsqueda de víctimas de secuestros o tráfico de seres humanos, para prevenir ataques terroristas o para identificar a personas sospechosas de haber cometido delitos de terrorismo, asesinatos, violaciones o tráfico sexual. Este sistema, además, sólo se podrá utilizar con autorización judicial previa.

La Ley mantiene un equilibrio entre los derechos fundamentales y no ser un obstáculo para el progreso de una tecnología de la que las propias instituciones europeas saben que Europa no puede quedar al margen. Esta ha sido una de las quejas de EEUU, donde se cree que el exceso regulador de la UE complica a las empresas tecnológicas, la mayoría norteamericanas, que puedan desarrollar la actividad con normalidad dentro del marco de la UE.

Una de las cuestiones que más me preocupaban era la regulación de la inteligencia artificial generativa, como el ChatGPT, y que la Eurocámara pidió incluir en la ley, que deberá cumplir unos requisitos de transparencia, como que los sistemas respeten los derechos de autor y que especifiquen si un contenido está generado por IA.

Para los estados miembros era importante regular y poner orden, por ejemplo, cómo se usan en la industria audiovisual, para evitar una avalancha de demandas o huelgas, como la recientemente en Hollywood (EE.UU.) por el uso de la inteligencia artificial y que afecta a los actores y a los guionistas. Se ha conseguido un pacto equilibrado entre los beneficios de la inteligencia artificial y el impacto económico, y no perder competitividad contra gigantes como China o Estados Unidos.Tanto Francia como Alemania, insistían en la importancia de que esta ley no limite la competitividad. La Unión tiene previsto crear una oficina europea de inteligencia artificial que coordine los países y estará asesorada por científicos y agentes de la sociedad civil.

El punto más caliente de la negociación ha sido que las fuerzas del orden público puedan hacer uso de las cámaras de identificación biométrica en espacios públicos. Por un lado, varios gobiernos como el francés justificaban que esta tecnología serviría para mejorar la seguridad nacional. Por otro, euro parlamentarios y activistas de los derechos digitales de la UE, han denunciado que el uso de esta tecnología podría violar los derechos humanos y ser abusada para recortar libertades en nombre de la seguridad.

En los últimos meses, ha sido uno de los grandes temas de debate en foros internacionales, donde el uso de la IA está presente en las guerras en Gaza y Ucrania, por el intento ruso de recuperar las fronteras de la Unión Soviética o en el peligro de que el conflicto del Oriente Medio se convierta en un conflicto de dimensiones globales, y también, en la perspectiva de que Donald Trump vuelva a ser presidente de Estados Unidos. El primer ministro británico, Rishi Sunak, convocó a Bletchley Park, políticos de una treintena de países, científicos y empresarios del sector de la alta tecnología, como el multimillonario Elon Musk, para debatir los pros y los contras del uso de la IA, y sobre todo los peligros de la IA, con el propósito de intentar sentar las bases de una jurisdicción y un marco regulador. En esta cumbre se confirmaron las grandes diferencias entre Estados Unidos, China, la Unión Europea, los filósofos, y los magnates de las redes sociales y los gigantes tecnológicos.

El primer ministro quiere que el Reino Unido haga de intermediario para establecer unas reglas del juego universalmente aceptadas antes de que empresas, como Google y OpenAI, pongan en marcha la nueva generación de IA. La cumbre expuso y debatió la necesidad de tomar medidas para que la IA no se utilice para manipular procesos electorales, desinformar y crear realidades paralelas mediante vídeos y audios.

El memorándum de la cumbre, indica que hay que desarrollar el potencial de la IA, pero de una forma responsable, donde las empresas del sector deben tener mecanismos para retirar del mercado productos potencialmente nocivos, y utilizar expertos en seguridad que detecten vulnerabilidades en sus sistemas y se aseguren de que no son atacados. La cuestión central son los posibles ataques cibernéticos y los peligros de la IA para la seguridad nacional.

El propio Papa Francisco ha manifestado recientemente su preocupación por los desarrollos de tecnologías vinculados a la inteligencia artificial y para que no aborden los riesgos éticos y sociales de su avance y la aplicación. Apunta a los posibles intereses vinculados a su desarrollo y cómo pueden aumentar las desigualdades y promover conflictos en lugar de mejorar la vida. El Papa indica que es necesario crear organismos que examinen las cuestiones éticas relacionadas con la IA, marquen líneas rojas respecto de las libertades de las personas, y trabajen para garantizar una aplicación responsable.

En general, hay preocupaciones sobre una posible falta de transparencia en el funcionamiento de los sistemas de IA, las posibles infracciones de propiedad intelectual, posibles violaciones de privacidad, así como preocupaciones de seguridad.

Los reguladores buscan establecer seguridad jurídica para las empresas dedicadas al desarrollo o el uso de la IA genética, mientras que los gobernantes quieren fomentar la innovación sin miedo a repercusiones desconocidas. El objetivo es establecer normas reguladoras internacionales armonizadas que estimulen el comercio y la transferencia de datos. Persiguiendo este objetivo, se ha llegado a un consenso donde la comunidad de desarrollo de IA ha estado a la vanguardia de defender un cierto control regulador sobre el desarrollo de la tecnología tan pronto como sea posible. Aunque ningún país ha aprobado hasta ahora una regulación integral de la IA o de la IA gen, los principales esfuerzos legislativos incluyen los de Brasil, China, la Unión Europea, Singapur, Corea del Sur y Estados Unidos. Los enfoques adoptados por los diferentes países varían desde una amplia regulación de la IA apoyada por las regulaciones existentes de protección de datos y ciberseguridad (la Unión Europea y Corea del Sur) hasta leyes sectoriales (los Estados Unidos) y principios más generales o enfoques basados en directrices (Brasil, Singapur y los Estados Unidos). Cada enfoque tiene sus propios beneficios e inconvenientes, y algunos mercados pasarán de directrices basadas en principios a una legislación estricta.

Los avances en la gobernanza de la IA se harán evidentes en 2024 a medida que los esfuerzos reguladores van fallando, las empresas tecnológicas continúan aprobándolas sin restricciones, y los modelos y herramientas de IA mucho más potentes van más allá del control de los gobiernos. Estados Unidos, China y la mayor parte del G20 suscribieron a la Declaración de Bletchley Park sobre la seguridad de la IA.

Por otra parte, las Naciones Unidas convocaron recientemente una cumbre con asesores de alto nivel. Los principales actores de la IA han decidido cooperar en la gobernanza de la IA, las mismas empresas tecnológicas se comprometen con estándares voluntarios y controles. Pero a medida que la tecnología avanza, crece el atractivo de la ventaja geopolítica y el interés comercial incentivará a los gobiernos y a las empresas a abandonar los acuerdos y regímenes no vinculantes a los que se han unido para maximizar sus ganancias.

Cuando la Asamblea General de las Naciones Unidas se organizó esta cumbre titulada «Gobernando la IA para la Humanidad», el secretario general, António Guterres, manifestó la necesidad de crear una nueva agencia de la ONU, con el fin de ayudar al mundo a cooperar en la gestión de la tecnología de la IA. Pero algunos Estados, le recordaron, que la Convención sobre Armas Convencionales, que buscaba obligar a los Gobiernos a prohibir el desarrollo de armas letales autónomas, no prosperó entre las superpotencias mundiales como Estados Unidos y Rusia.

La geopolítica en la IA sale de las fronteras de los países donde se desarrolla. En septiembre próximo, la ONU organizará la «Cumbre del Futuro», las conclusiones del Organismo estarán a disposición de los estados miembros para decidir si apoyan o no el establecimiento de una agencia de IA de la ONU. La propuesta es crear una agencia internacional similar a la Agencia Internacional de Energía Atómica (OIEA), que desarrolle los estándares para toda la industria y permita monitorear si se están cumpliendo, de forma segura, los requisitos de los sistemas de inteligencia artificial más sofisticados. En definitiva, ser una autoridad internacional que pueda inspeccionar, auditar y probar el cumplimiento de las normas de Seguridad, e incluso, imponer restricciones y niveles de Seguridad. Algunos expertos son pesimistas y manifiestan que será muy difícil el apoyo entre los responsables gubernamentales poder crear una agencia similar a la OIEA para la IA.

Que Estados Unidos, China y Rusia, en un esfuerzo por evitar altos riesgos que aún no se han producido, que permitan a los inspectores Internacionales el acceso total a los laboratorios de IA, la mayoría de empresas privadas. Es esencial que todos los países donde se están desarrollando sistemas de IA, como EE. UU y China, participen activamente en un acuerdo internacional como este, sin embargo, el representante en la ONU de la Federación Rusa, ya ha manifestado que Rusia se opone a establecer órganos supranacionales de supervisión para la IA.

Está claro que hoy la inteligencia artificial es geopolítica y también poder.

share: