El dijous 27 d’abril, el Parlament Europeu va arribar per fi a un acord final sobre el Reglament d’intel·ligència artificial. És un pas important perquè l’ús de la intel·ligència artificial no està exempta de riscos.
Segons la proposta de regulació es poden establir diferents usos d’IA depenent dels riscos que comporta: usos prohibits, usos d’alt risc i aquells que no entren en cap de les dues categories anteriors.
Prohibit classificar l'honestedat
Els usos prohibits que contempla la regulació europea de la intel·ligència artificial tenen a veure amb:
- - IA que puguin alterar el comportament d’una persona causant-li dany físic o psíquic de manera subliminar. En aquest sentit, es prohibiran els sistemes basats en intel·ligència artificial que reconeguin emocions en els àmbits de l’educació, laboral, control de fronteres i aplicació de la llei.
- - Aquells usos que exploten les vulnerabilitats d’un grup específic d’individus, sigui per edat o discapacitat física o mental amb la finalitat de distorsionar el comportament d’una persona.
- - Els usos per autoritats públiques o en el seu nom per a la seva avaluació o classificació de l’honestedat de les persones mitjançant sistemes de puntuació que es basin en el seu comportament social o per les seves característiques personals. Dins d’aquestes suposicions es troba la prohibició de l’ús de sistemes predictius de criminalitat o de frau administratiu.
- - L’ús en temps real de sistemes d’identificació biomètrics en espais públics, excepte en els casos de recerca de víctimes concretes de crims, la prevenció d’una amenaça específica, imminent i substancial per a la vida o integritat física o una amenaça terrorista.
- - La detenció, localització o persecució de l’autor o sospitós d’un delicte. Únicament es faran excepcions per delictes greus, amb autorització judicial prèvia.
Ocupació, serveis públics i justícia
La nova regulació contempla també usos considerats d’alt risc. Entre ells:
- - Aquells sistemes que s’encarreguen de la seguretat d’un altre producte o de si mateixos.
- - Els destinats a la identificació biomètrica i categorització de les persones físiques, gestió i explotació d’infraestructures crítiques, ensenyament i formació professional.
- - Ocupació, gestió de treballadors i accés a l’autoocupació.
- - Accés i gaudi dels serveis privats essencials i dels serveis i prestacions públiques, així com els utilitzats per a l’acompliment de la llei per les forces i cossos de seguretat. S’inclouen també els relacionats amb la gestió de la migració, l’asil i el control de fronteres.
- - Administració de justícia i processos democràtics.
En l’últim debat parlamentari s’ha accedit a incloure els sistemes de recomanació de les grans plataformes online, els sistemes encarregats d’infraestructures clau quan hi hagi un risc d’impacte en el medi ambient i la intel·ligència artificial generativa, com ChatGPT o Dall-e.
En totes aquestes situacions existeixen usos que posen en risc els drets fonamentals dels ciutadans i s’exigiran mesures per evitar que es vulnerin. Això sí, seran mesures alineades amb les guies sobre intel·ligència artificial del grup d’alts experts de la Comissió Europea, que fa anys que li donen voltes a l’assumpte.
Avaluar els riscos de per vida
La regulació europea indica que l’avaluació de riscos ha d’establir-se, implantar-se, documentar-se i mantenir-se durant tota la vida del sistema intel·ligent. De manera repetitiva. S’han d’avaluar els riscos que poden sorgir del seu ús previst, però també de les possibles males aplicacions. I, per descomptat, implementar mesures per prevenir-los.
A més, s’exigeix que hi hagi un pla de gestió de dades, en compliment amb la normativa del Reglament General de Protecció de Dades. En tots els sistemes d’IA és important afavorir l'accés a la documentació tècnica, i han d’estar dissenyats perquè la transparència en el seu funcionament permeti als usuaris interpretar els seus resultats. Les instruccions han de ser també senzilles d’entendre.
D’altra banda, la regulació contempla que els sistemes basats en intel·ligència artificial es dissenyin per permetre la supervisió humana dels seus resultats, amb l’objectiu de prevenir i mitigar els riscos en la salut, seguretat o en els drets fonamentals dels ciutadans.
Les exigències no acaben aquí: també han de ser precisos (mitjançant sistemes de mètriques), robustos (que tinguin còpies de suport i plans en cas de fall) i cibersegurs (preparats per intents d’usos per terceres parts no autoritzades).
Tots aquests principis estaven ja recollits en les guies ètiques del grup d’alts experts. En el debat parlamentari europeu recent s’ha acordat introduir altres que faltaven, com el benestar social i ambiental, el respecte a la diversitat i no discriminació i el principi de justícia.
Cap a una intel·ligència artificial fiable
Que la regulació tingui com a base el respecte als drets fonamentals i els set principis de les guies del grup d’alts experts de la Comissió Europea permet tenir un estàndard europeu clar: la intel·ligència artificial fiable.
Aquests requisits seran controlats per les agències nacionals d’intel·ligència artificial i, per als casos en què s’utilitzin en més d’un país o tinguin un gran impacte transnacional, per la futura Junta Europea d’Intel·ligència Artificial.
Encara que ha portat algun temps preparar la legislació, és indiscutible que es tracta d’un text que donarà garanties a la ciutadania en prioritzar el respecte i protecció dels drets fonamentals, tenint com a eix central del seu disseny als humans.
Aquesta notícia és una traducció de l’article publicat originalment en castellà al portal TheConversation.com.