LA GEOPOLÍTICA EN LA INTEL·LIGÈNCIA ARTIFICIAL
Josep Grau analitza els reptes que suposa la introducció de la IA en les societats i la manera com els governs i les empreses veuen aquesta nova eina de manera antagònica
per Josep Grau, consultor en tecnologia
La intel·ligència artificial és clau per a la transformació digital, un canvi de paradigma en el qual estem tots immersos, però cal saber si es tracta d’un canvi per als humans, per a la societat o per a les empreses.
Des del llançament del ChatGPT, la plataforma ha aconseguit un creixement sense precedents, amb 100 milions d’usuaris al mes, ha servit per popularitzar la intel·ligència artificial, però també ha propiciat un ampli debat sobre els usos, els seus límits i la necessària regulació.
La IA ja és geopolítica, aquest any quatre mil milions de persones es dirigiran a les urnes, la IA generativa serà utilitzada per actors nacionals i estrangers per influir en les campanyes electorals, per tal de soscavar la confiança en la democràcia i sembrar caos polític. Els votants accedeixen cada vegada més a la informació per les xarxes socials, que poden ser vulnerables i manipulables per la IA.
La desinformació es farà servir per exaltar els actuals conflictes geopolítics, com les guerres a l’Orient Mitjà i Ucraïna. Els propagandistes del Kremlin van usar la IA generativa per difondre a les xarxes socials històries falses sobre el president Zelenski, que després van utilitzar els legisladors republicans nord-americans com a arguments per no donar més ajuda a Ucraïna.
A finals de l’any passat es va estendre informació errònia sobre Hamàs i Israel. La tecnologia IA està a punt de convertir-se en un risc principal per donar forma a les decisions polítiques, cada vegada més emprades pels combatents per influir en l’opinió pública, desacreditar proves reals i inflamar encara més les tensions geopolítiques a tot el món.
Fins ara, la IA ha estat dominada pels Estats Units i la Xina, però en 2024 nous actors geopolítics seran capaços de desenvolupar i adquirir capacitats d’intel·ligència artificial avançades, models recolzats per l’estat i aplicacions avançades per a l’ús de la seguretat nacional.
És comprensible que desperti tant d’interès com per desfermar les lluites aferrissades, protagonitzades per tots els agents involucrats: està en joc la seva dimensió ètica i legal en la mesura en què replanteja la relació persona-màquina que ha viscut als darrers anys. Per desgràcia, no tots els usos són bons, i els ciberdelinqüents aprofiten les capacitats per cometre estafes i enganys.
Fa dos mesos, Open AI, una empresa estable, va generar un dels serials més intensos del sector tecnològic. Una carta als empleats d’OpenAI advertia, que l’equip d’Altman estava desenvolupant una IA potencialment perillosa i que podia ser una amenaça per a la societat.
Les companyies tecnològiques líders mundials estan guanyant la batalla; Microsoft, principal inversor a OpenAI, veu encuirassat el seu control sobre OpenAI. Un dels tres membrés de la nova Junta de la companyia, curiosament, és en Larry Summers, excap del Departament del Tresor, assessor de la Casa Banca i president de la Universitat Harvard.
Les organitzacions poden tenir la temptació d’esperar veure quines regulacions vers la IA sorgeixen, però ara és el moment d’actuar. Les organitzacions poden enfrontar-se a grans riscos legals, reputacionals, organitzatius i financers si no actuen ràpidament.
Diversos governs, com ara Itàlia, han prohibit l’ús del ChatGPT pels problemes de privadesa, per demandes per infracció de drets d’autor presentades per diverses organitzacions i individus, així com demandes per difamació. A mesura que els possibles riscos negatius de la IA són més evidents, augmenten les preocupacions i la desconfiança pública cap a les empreses que creen la IA.
“L’augment de l’ús de la IA en les resolucions judicials pot comportar oportunitats, però també obre la porta a grans riscos cibernètics.” |
L’incentiu per avançar ràpidament es veu augmentat pel fet que si els models de govern i organitzatius adequats per a la IA no es construeixen aviat, la solució pot ser necessària més endavant a causa de canvis normatius, violacions de dades o incidents de ciberseguretat.
És evident que la intel·ligència artificial ha fet un pas significatiu després de passar d’algorismes amb regles de funcionament predefinides a models generatius avançats. Aquests algorismes no tenen consciència, ni sentit de transcendència, ni intencions, ni capacitat de presa de decisions autònomes com les persones.
Una altra mostra de geopolítica: l’Oficina Judicial del Regne Unit ha pres una decisió històrica, perquè els jutges utilitzin la IA per elaborar resolucions legals. L’Oficina Judicial de UK adverteix de la possible adopció generalitzada d’eines impulsades per la IA per part del públic a l’hora de presentar casos legals, així com de la possibilitat que es faci servir tecnologia deepfake per crear proves falses, i sobre el possible mal ús de la tecnologia en els procediments legals i la necessitat de salvaguardar-les, per evitar la creació o difusió de proves prefabricades.
L’augment de l’ús de la IA en les resolucions judicials pot comportar oportunitats, però també obre la porta a grans riscos cibernètics. Els pirates informàtics han demostrat ser experts a infiltrar-se i explotar llacunes de seguretat per robar dades, i en aquest escenari també podrien conduir a una manipulació generalitzada de proves.
Per aquest motiu, molts han alertat dels seus perills i han animat a la seva regulació.
Europa s’ha convertit en la primera regió del món on es regula aquesta tecnologia. La UE potser no és una potència militar, ni política, però sí que és una potència reguladora.
La llei, que la Unió Europea, la Comissió, els estats membres i el Parlament han aconseguit, permet regular la intel·ligència artificial. L’Eurocambra demanava una prohibició total. Els estats membres han assolit incorporar a la Llei el tractament de casos de seguretat nacional per preveure terrorisme. Només està permès el seu ús en casos com ara la recerca de víctimes de segrestos o tràfic d’éssers humans, per prevenir atacs terroristes o per identificar persones sospitoses d’haver comès delictes de terrorisme, assassinats, violacions o tràfic sexual. Aquest sistema, a més, només es podrà fer servir amb autorització judicial prèvia.
La Llei manté un equilibri entre els drets fonamentals i no ser un obstacle per al progrés d’una tecnologia de la qual les mateixes institucions europees saben que Europa no pot quedar al marge.
Aquesta ha estat una de les queixes dels EUA, on es creu que l’excés regulador de la UE complica a les empreses tecnològiques, la majoria nord-americanes, que puguin desenvolupar l’activitat amb normalitat dins del marc de la UE.
Una de les qüestions que més amoïnaven era la regulació de la intel·ligència artificial generativa, com el ChatGPT, i que l’Eurocambra va demanar d’incloure en la llei, que haurà de complir uns requisits de transparència, com ara que els sistemes respectin els drets d’autor i que especifiquin si un contingut està generat per IA.
Per als estats membres era important regular i posar ordre, per exemple, com es fan servir en la indústria audiovisual, per evitar una allau de demandes o vagues, com la recentment a Hollywood (EUA) per l’ús de la intel·ligència artificial i que afecta els actors i als guionistes.
S’ha aconseguit un pacte equilibrat entre els beneficis de la intel·ligència artificial i l’impacte econòmic, i no perdre competitivitat contra gegants com ara la Xina o els Estats Units.
Tant França com Alemanya, insistien en la importància que aquesta llei no limiti la competitivitat. La Unió té previst crear una oficina europea d’intel·ligència artificial que coordini els països i estarà assessorada per científics i agents de la societat civil.
El punt més calent de la negociació ha estat que les forces de l’ordre públic puguin fer ús de les càmeres d’identificació biomètrica en espais públics. Per una banda, diversos governs com el francès justificaven que aquesta tecnologia serviria per millorar la seguretat nacional. Per altra, euro parlamentaris i activistes dels drets digitals de la UE, han denunciat que l’ús d’aquesta tecnologia podria violar els drets humans i ser abusada per retallar llibertats en nom de la seguretat.
Els últims mesos, ha estat un dels grans temes de debat en fòrums internacionals, on l’ús de la IA està present en les guerres a Gaza i Ucraïna, per l’intent rus de recuperar les fronteres de la Unió Soviètica o en el perill que el conflicte de l’Orient Mitjà es converteixi en un conflicte de dimensions globals, i també, en la perspectiva que Donald Trump torni a ser president dels Estats Units.
El primer ministre britànic, Rishi Sunak, va convocar a Bletchley Park, polítics d’una trentena de països, científics i empresaris del sector de l’alta tecnologia, com el multimilionari Elon Musk, per debatre els pros i els contres de l’ús de la IA, i sobretot els perills de la IA, amb el propòsit d’intentar establir les bases d’una jurisdicció i un marc regulador. En aquesta cimera es van confirmar les grans diferències entre els Estats Units, la Xina, la Unió Europea, els filòsofs, i els magnats de les xarxes socials i els gegants tecnològics.
El primer ministre vol que el Regne Unit faci d’intermediari per establir unes regles del joc universalment acceptades abans que empreses, com ara Google i OpenAI, posin en marxa la nova generació d’IA. La cimera va exposar i debatre la necessitat de prendre mesures perquè la IA no es faci servir per manipular processos electorals, desinformar i crear realitats paral·leles mitjançant vídeos i àudios.
El memoràndum de la cimera, indica que cal desenvolupar el potencial de la IA, però d’una forma responsable, on les empreses del sector han de tenir mecanismes per retirar del mercat productes potencialment nocius, i fer servir experts en seguretat que detectin vulnerabilitats en els seus sistemes i s’assegurin que no són atacats. La qüestió central són els possibles atacs cibernètics i els perills de la IA per a la seguretat nacional.
El mateix Papa Francesc ha manifestat recentment la seva preocupació pels desenvolupaments de tecnologies vinculats a la intel·ligència artificial i perquè no abordin els riscos ètics i socials del seu avenç i l’aplicació. Apunta als possibles interessos vinculats al seu desenvolupament i com poden augmentar les desigualtats i promoure conflictes en comptes de millorar la vida. El Papa indica que cal crear organismes que examinin les qüestions ètiques relacionades amb la IA, marquin línies vermelles respecte de les llibertats de les persones, i treballin per garantir-ne una aplicació responsable.
En general, hi ha preocupacions sobre una possible manca de transparència en el funcionament dels sistemes d’IA, les possibles infraccions de propietat intel·lectual, possibles violacions de privadesa, així com preocupacions de seguretat.
Els reguladors busquen establir seguretat jurídica per a les empreses dedicades al desenvolupament o l’ús de la IA genètica, mentre que els governants volen fomentar la innovació sense por a repercussions desconegudes. L’objectiu és establir normes reguladores internacionals harmonitzades que estimulin el comerç i la transferència de dades. Perseguint aquest objectiu, s’ha arribat a un consens on la comunitat de desenvolupament d’IA ha estat a l’avantguarda de defensar un cert control regulador sobre el desenvolupament de la tecnologia tan aviat com sigui possible.
Tot i que cap país ha aprovat fins ara una regulació integral de la IA o de la IA gen, els principals esforços legislatius inclouen els del Brasil, la Xina, la Unió Europea, Singapur, Corea del Sud i els Estats Units. Els enfocaments adoptats pels diferents països varien des d’una àmplia regulació de la IA recolzada per les regulacions existents de protecció de dades i ciberseguretat (la Unió Europea i Corea del Sud) fins a lleis sectorials (els Estats Units) i principis més generals o enfocaments basats en directrius (Brasil, Singapur i els Estats Units). Cada enfocament té els seus propis beneficis i inconvenients, i alguns mercats passaran de directrius basades en principis a una legislació estricta.
Els avenços en la governança de la IA es faran evidents el 2024 a mesura que els esforços reguladors van fallant, les empreses tecnològiques continuen aplicant-les sense restriccions, i els models i eines d’IA molt més potents van més enllà del control dels governs. Els Estats Units, la Xina i la major part del G20 van subscriure a la Declaració de Bletchley Park sobre la seguretat de la IA.
Per altra part, les Nacions Unides van convocar recentment una cimera amb assessors d’alt nivell.
Els principals actors de la IA han decidit cooperar en la governança de la IA, es mateixes empreses tecnològiques es comprometen amb estàndards voluntaris i controls. Però a mesura que la tecnologia avança, creix l’atractiu de l’avantatge geopolític i l’interès comercial incentivarà els governs i les empreses a abandonar els acords i règims no vinculants als quals s’han unit per maximitzar els seus guanys.
Quan l’Assemblea General de les Nacions Unides es va organitzar aquesta cimera titulada “Governant la IA para a la Humanitat”, el secretari general, António Guterres, va manifestar la necessitat de crear una nova agència de l’ONU, per tal d’ajudar el món a cooperar en la gestió de la tecnologia de la IA. Però alguns Estats, li van recordar, que la Convenció sobre Armes Convencionals, que buscava obligar els Governs a prohibir el desenvolupament d’armes letals autònomes, no va prosperar entre les superpotències mundials com els Estats Units i Rússia.
La geopolítica en la IA surt de les fronteres dels països on es desenvolupa. El setembre vinent, l’ONU organitzarà la “Cumbre del Futuro”, les conclusions de l’Organisme estaran a disposició dels estats membres per decidir si donen suport o no a l’establiment d’una agència de IA de l’ONU. La proposta és crear una agència internacional similar a l’Agència Internacional d’Energia Atòmica (OIEA), que desenvolupi els estàndards per a tota la indústria i permeti monitorar si s’estan complint, de forma segura, els requisits dels sistemes d’intel·ligència artificial més sofisticats. En definitiva, ser una autoritat internacional que pugui inspeccionar, auditar i provar el compliment de les normes de Seguretat, i fins i tot, imposar restriccions i nivells de Seguretat. Alguns experts són pessimistes i manifesten que serà molt difícil el suport entre els responsables governamentals poder crear una agència similar a la OIEA para la IA.
Que els Estats Units, la Xina i Rússia, en un esforç per evitar alts riscos que encara no s’han produït, que permetin als inspectors Internacionals l’accés total als laboratoris de IA, la majoria d’empreses privades.
És essencial que tots els països on s’estan desenvolupant sistemes de IA, com EE.UU i la Xina, participin activament en un acord internacional com aquest, però, el representant a l’ONU de la Federació Russa, ja ha manifestat que Rússia s’oposa a establir òrgans supranacionals de supervisió per a la IA.
Està clar que avui la intel·ligència artificial és geopolítica i també poder.
per Josep Grau, consultor en tecnologia
La intel·ligència artificial és clau per a la transformació digital, un canvi de paradigma en el qual estem tots immersos, però cal saber si es tracta d’un canvi per als humans, per a la societat o per a les empreses.
Des del llançament del ChatGPT, la plataforma ha aconseguit un creixement sense precedents, amb 100 milions d’usuaris al mes, ha servit per popularitzar la intel·ligència artificial, però també ha propiciat un ampli debat sobre els usos, els seus límits i la necessària regulació.
La IA ja és geopolítica, aquest any quatre mil milions de persones es dirigiran a les urnes, la IA generativa serà utilitzada per actors nacionals i estrangers per influir en les campanyes electorals, per tal de soscavar la confiança en la democràcia i sembrar caos polític. Els votants accedeixen cada vegada més a la informació per les xarxes socials, que poden ser vulnerables i manipulables per la IA.
La desinformació es farà servir per exaltar els actuals conflictes geopolítics, com les guerres a l’Orient Mitjà i Ucraïna. Els propagandistes del Kremlin van usar la IA generativa per difondre a les xarxes socials històries falses sobre el president Zelenski, que després van utilitzar els legisladors republicans nord-americans com a arguments per no donar més ajuda a Ucraïna.
A finals de l’any passat es va estendre informació errònia sobre Hamàs i Israel. La tecnologia IA està a punt de convertir-se en un risc principal per donar forma a les decisions polítiques, cada vegada més emprades pels combatents per influir en l’opinió pública, desacreditar proves reals i inflamar encara més les tensions geopolítiques a tot el món.
Fins ara, la IA ha estat dominada pels Estats Units i la Xina, però en 2024 nous actors geopolítics seran capaços de desenvolupar i adquirir capacitats d’intel·ligència artificial avançades, models recolzats per l’estat i aplicacions avançades per a l’ús de la seguretat nacional.
És comprensible que desperti tant d’interès com per desfermar les lluites aferrissades, protagonitzades per tots els agents involucrats: està en joc la seva dimensió ètica i legal en la mesura en què replanteja la relació persona-màquina que ha viscut als darrers anys. Per desgràcia, no tots els usos són bons, i els ciberdelinqüents aprofiten les capacitats per cometre estafes i enganys.
Fa dos mesos, Open AI, una empresa estable, va generar un dels serials més intensos del sector tecnològic. Una carta als empleats d’OpenAI advertia, que l’equip d’Altman estava desenvolupant una IA potencialment perillosa i que podia ser una amenaça per a la societat.
“L’augment de l’ús de la IA en les resolucions judicials pot comportar oportunitats, però també obre la porta a grans riscos cibernètics.” |
Les companyies tecnològiques líders mundials estan guanyant la batalla; Microsoft, principal inversor a OpenAI, veu encuirassat el seu control sobre OpenAI. Un dels tres membrés de la nova Junta de la companyia, curiosament, és en Larry Summers, excap del Departament del Tresor, assessor de la Casa Banca i president de la Universitat Harvard.
Les organitzacions poden tenir la temptació d’esperar veure quines regulacions vers la IA sorgeixen, però ara és el moment d’actuar. Les organitzacions poden enfrontar-se a grans riscos legals, reputacionals, organitzatius i financers si no actuen ràpidament.
Diversos governs, com ara Itàlia, han prohibit l’ús del ChatGPT pels problemes de privadesa, per demandes per infracció de drets d’autor presentades per diverses organitzacions i individus, així com demandes per difamació. A mesura que els possibles riscos negatius de la IA són més evidents, augmenten les preocupacions i la desconfiança pública cap a les empreses que creen la IA.
L’incentiu per avançar ràpidament es veu augmentat pel fet que si els models de govern i organitzatius adequats per a la IA no es construeixen aviat, la solució pot ser necessària més endavant a causa de canvis normatius, violacions de dades o incidents de ciberseguretat.
És evident que la intel·ligència artificial ha fet un pas significatiu després de passar d’algorismes amb regles de funcionament predefinides a models generatius avançats. Aquests algorismes no tenen consciència, ni sentit de transcendència, ni intencions, ni capacitat de presa de decisions autònomes com les persones.
Una altra mostra de geopolítica: l’Oficina Judicial del Regne Unit ha pres una decisió històrica, perquè els jutges utilitzin la IA per elaborar resolucions legals. L’Oficina Judicial de UK adverteix de la possible adopció generalitzada d’eines impulsades per la IA per part del públic a l’hora de presentar casos legals, així com de la possibilitat que es faci servir tecnologia deepfake per crear proves falses, i sobre el possible mal ús de la tecnologia en els procediments legals i la necessitat de salvaguardar-les, per evitar la creació o difusió de proves prefabricades.
L’augment de l’ús de la IA en les resolucions judicials pot comportar oportunitats, però també obre la porta a grans riscos cibernètics. Els pirates informàtics han demostrat ser experts a infiltrar-se i explotar llacunes de seguretat per robar dades, i en aquest escenari també podrien conduir a una manipulació generalitzada de proves.
Per aquest motiu, molts han alertat dels seus perills i han animat a la seva regulació.
Europa s’ha convertit en la primera regió del món on es regula aquesta tecnologia. La UE potser no és una potència militar, ni política, però sí que és una potència reguladora.
La llei, que la Unió Europea, la Comissió, els estats membres i el Parlament han aconseguit, permet regular la intel·ligència artificial. L’Eurocambra demanava una prohibició total. Els estats membres han assolit incorporar a la Llei el tractament de casos de seguretat nacional per preveure terrorisme. Només està permès el seu ús en casos com ara la recerca de víctimes de segrestos o tràfic d’éssers humans, per prevenir atacs terroristes o per identificar persones sospitoses d’haver comès delictes de terrorisme, assassinats, violacions o tràfic sexual. Aquest sistema, a més, només es podrà fer servir amb autorització judicial prèvia.
La Llei manté un equilibri entre els drets fonamentals i no ser un obstacle per al progrés d’una tecnologia de la qual les mateixes institucions europees saben que Europa no pot quedar al marge.
Aquesta ha estat una de les queixes dels EUA, on es creu que l’excés regulador de la UE complica a les empreses tecnològiques, la majoria nord-americanes, que puguin desenvolupar l’activitat amb normalitat dins del marc de la UE.
Una de les qüestions que més amoïnaven era la regulació de la intel·ligència artificial generativa, com el ChatGPT, i que l’Eurocambra va demanar d’incloure en la llei, que haurà de complir uns requisits de transparència, com ara que els sistemes respectin els drets d’autor i que especifiquin si un contingut està generat per IA.
Per als estats membres era important regular i posar ordre, per exemple, com es fan servir en la indústria audiovisual, per evitar una allau de demandes o vagues, com la recentment a Hollywood (EUA) per l’ús de la intel·ligència artificial i que afecta els actors i als guionistes.
S’ha aconseguit un pacte equilibrat entre els beneficis de la intel·ligència artificial i l’impacte econòmic, i no perdre competitivitat contra gegants com ara la Xina o els Estats Units.
Tant França com Alemanya, insistien en la importància que aquesta llei no limiti la competitivitat. La Unió té previst crear una oficina europea d’intel·ligència artificial que coordini els països i estarà assessorada per científics i agents de la societat civil.
El punt més calent de la negociació ha estat que les forces de l’ordre públic puguin fer ús de les càmeres d’identificació biomètrica en espais públics. Per una banda, diversos governs com el francès justificaven que aquesta tecnologia serviria per millorar la seguretat nacional. Per altra, euro parlamentaris i activistes dels drets digitals de la UE, han denunciat que l’ús d’aquesta tecnologia podria violar els drets humans i ser abusada per retallar llibertats en nom de la seguretat.
Els últims mesos, ha estat un dels grans temes de debat en fòrums internacionals, on l’ús de la IA està present en les guerres a Gaza i Ucraïna, per l’intent rus de recuperar les fronteres de la Unió Soviètica o en el perill que el conflicte de l’Orient Mitjà es converteixi en un conflicte de dimensions globals, i també, en la perspectiva que Donald Trump torni a ser president dels Estats Units.
El primer ministre britànic, Rishi Sunak, va convocar a Bletchley Park, polítics d’una trentena de països, científics i empresaris del sector de l’alta tecnologia, com el multimilionari Elon Musk, per debatre els pros i els contres de l’ús de la IA, i sobretot els perills de la IA, amb el propòsit d’intentar establir les bases d’una jurisdicció i un marc regulador. En aquesta cimera es van confirmar les grans diferències entre els Estats Units, la Xina, la Unió Europea, els filòsofs, i els magnats de les xarxes socials i els gegants tecnològics.
El primer ministre vol que el Regne Unit faci d’intermediari per establir unes regles del joc universalment acceptades abans que empreses, com ara Google i OpenAI, posin en marxa la nova generació d’IA. La cimera va exposar i debatre la necessitat de prendre mesures perquè la IA no es faci servir per manipular processos electorals, desinformar i crear realitats paral·leles mitjançant vídeos i àudios.
El memoràndum de la cimera, indica que cal desenvolupar el potencial de la IA, però d’una forma responsable, on les empreses del sector han de tenir mecanismes per retirar del mercat productes potencialment nocius, i fer servir experts en seguretat que detectin vulnerabilitats en els seus sistemes i s’assegurin que no són atacats. La qüestió central són els possibles atacs cibernètics i els perills de la IA per a la seguretat nacional.
El mateix Papa Francesc ha manifestat recentment la seva preocupació pels desenvolupaments de tecnologies vinculats a la intel·ligència artificial i perquè no abordin els riscos ètics i socials del seu avenç i l’aplicació. Apunta als possibles interessos vinculats al seu desenvolupament i com poden augmentar les desigualtats i promoure conflictes en comptes de millorar la vida. El Papa indica que cal crear organismes que examinin les qüestions ètiques relacionades amb la IA, marquin línies vermelles respecte de les llibertats de les persones, i treballin per garantir-ne una aplicació responsable.
En general, hi ha preocupacions sobre una possible manca de transparència en el funcionament dels sistemes d’IA, les possibles infraccions de propietat intel·lectual, possibles violacions de privadesa, així com preocupacions de seguretat.
Els reguladors busquen establir seguretat jurídica per a les empreses dedicades al desenvolupament o l’ús de la IA genètica, mentre que els governants volen fomentar la innovació sense por a repercussions desconegudes. L’objectiu és establir normes reguladores internacionals harmonitzades que estimulin el comerç i la transferència de dades. Perseguint aquest objectiu, s’ha arribat a un consens on la comunitat de desenvolupament d’IA ha estat a l’avantguarda de defensar un cert control regulador sobre el desenvolupament de la tecnologia tan aviat com sigui possible.
Tot i que cap país ha aprovat fins ara una regulació integral de la IA o de la IA gen, els principals esforços legislatius inclouen els del Brasil, la Xina, la Unió Europea, Singapur, Corea del Sud i els Estats Units. Els enfocaments adoptats pels diferents països varien des d’una àmplia regulació de la IA recolzada per les regulacions existents de protecció de dades i ciberseguretat (la Unió Europea i Corea del Sud) fins a lleis sectorials (els Estats Units) i principis més generals o enfocaments basats en directrius (Brasil, Singapur i els Estats Units). Cada enfocament té els seus propis beneficis i inconvenients, i alguns mercats passaran de directrius basades en principis a una legislació estricta.
Els avenços en la governança de la IA es faran evidents el 2024 a mesura que els esforços reguladors van fallant, les empreses tecnològiques continuen aplicant-les sense restriccions, i els models i eines d’IA molt més potents van més enllà del control dels governs. Els Estats Units, la Xina i la major part del G20 van subscriure a la Declaració de Bletchley Park sobre la seguretat de la IA.
Per altra part, les Nacions Unides van convocar recentment una cimera amb assessors d’alt nivell.
Els principals actors de la IA han decidit cooperar en la governança de la IA, es mateixes empreses tecnològiques es comprometen amb estàndards voluntaris i controls. Però a mesura que la tecnologia avança, creix l’atractiu de l’avantatge geopolític i l’interès comercial incentivarà els governs i les empreses a abandonar els acords i règims no vinculants als quals s’han unit per maximitzar els seus guanys.
Quan l’Assemblea General de les Nacions Unides es va organitzar aquesta cimera titulada “Governant la IA para a la Humanitat”, el secretari general, António Guterres, va manifestar la necessitat de crear una nova agència de l’ONU, per tal d’ajudar el món a cooperar en la gestió de la tecnologia de la IA. Però alguns Estats, li van recordar, que la Convenció sobre Armes Convencionals, que buscava obligar els Governs a prohibir el desenvolupament d’armes letals autònomes, no va prosperar entre les superpotències mundials com els Estats Units i Rússia.
La geopolítica en la IA surt de les fronteres dels països on es desenvolupa. El setembre vinent, l’ONU organitzarà la “Cumbre del Futuro”, les conclusions de l’Organisme estaran a disposició dels estats membres per decidir si donen suport o no a l’establiment d’una agència de IA de l’ONU. La proposta és crear una agència internacional similar a l’Agència Internacional d’Energia Atòmica (OIEA), que desenvolupi els estàndards per a tota la indústria i permeti monitorar si s’estan complint, de forma segura, els requisits dels sistemes d’intel·ligència artificial més sofisticats. En definitiva, ser una autoritat internacional que pugui inspeccionar, auditar i provar el compliment de les normes de Seguretat, i fins i tot, imposar restriccions i nivells de Seguretat. Alguns experts són pessimistes i manifesten que serà molt difícil el suport entre els responsables governamentals poder crear una agència similar a la OIEA para la IA.
Que els Estats Units, la Xina i Rússia, en un esforç per evitar alts riscos que encara no s’han produït, que permetin als inspectors Internacionals l’accés total als laboratoris de IA, la majoria d’empreses privades.
És essencial que tots els països on s’estan desenvolupant sistemes de IA, com EE.UU i la Xina, participin activament en un acord internacional com aquest, però, el representant a l’ONU de la Federació Russa, ja ha manifestat que Rússia s’oposa a establir òrgans supranacionals de supervisió per a la IA.
Està clar que avui la intel·ligència artificial és geopolítica i també poder.
share: |