El dijous 27 d’abril, el Parlament Europeu va arribar per fi a un acord final sobre el Reglament d’intel·ligència artificial. És un pas important perquè l’ús de la intel·ligència artificial no està exempta de riscos.
Segons la proposta de regulació es poden establir diferents usos d’IA depenent dels riscos que comporta: usos prohibits, usos d’alt risc i aquells que no entren en cap de les dues categories anteriors.
Els usos prohibits que contempla la regulació europea de la intel·ligència artificial tenen a veure amb:
La nova regulació contempla també usos considerats d’alt risc. Entre ells:
En l’últim debat parlamentari s’ha accedit a incloure els sistemes de recomanació de les grans plataformes online, els sistemes encarregats d’infraestructures clau quan hi hagi un risc d’impacte en el medi ambient i la intel·ligència artificial generativa, com ChatGPT o Dall-e.
En totes aquestes situacions existeixen usos que posen en risc els drets fonamentals dels ciutadans i s’exigiran mesures per evitar que es vulnerin. Això sí, seran mesures alineades amb les guies sobre intel·ligència artificial del grup d’alts experts de la Comissió Europea, que fa anys que li donen voltes a l’assumpte.
La regulació europea indica que l’avaluació de riscos ha d’establir-se, implantar-se, documentar-se i mantenir-se durant tota la vida del sistema intel·ligent. De manera repetitiva. S’han d’avaluar els riscos que poden sorgir del seu ús previst, però també de les possibles males aplicacions. I, per descomptat, implementar mesures per prevenir-los.
A més, s’exigeix que hi hagi un pla de gestió de dades, en compliment amb la normativa del Reglament General de Protecció de Dades. En tots els sistemes d’IA és important afavorir l'accés a la documentació tècnica, i han d’estar dissenyats perquè la transparència en el seu funcionament permeti als usuaris interpretar els seus resultats. Les instruccions han de ser també senzilles d’entendre.
D’altra banda, la regulació contempla que els sistemes basats en intel·ligència artificial es dissenyin per permetre la supervisió humana dels seus resultats, amb l’objectiu de prevenir i mitigar els riscos en la salut, seguretat o en els drets fonamentals dels ciutadans.
Les exigències no acaben aquí: també han de ser precisos (mitjançant sistemes de mètriques), robustos (que tinguin còpies de suport i plans en cas de fall) i cibersegurs (preparats per intents d’usos per terceres parts no autoritzades).
Tots aquests principis estaven ja recollits en les guies ètiques del grup d’alts experts. En el debat parlamentari europeu recent s’ha acordat introduir altres que faltaven, com el benestar social i ambiental, el respecte a la diversitat i no discriminació i el principi de justícia.
Que la regulació tingui com a base el respecte als drets fonamentals i els set principis de les guies del grup d’alts experts de la Comissió Europea permet tenir un estàndard europeu clar: la intel·ligència artificial fiable.
Aquests requisits seran controlats per les agències nacionals d’intel·ligència artificial i, per als casos en què s’utilitzin en més d’un país o tinguin un gran impacte transnacional, per la futura Junta Europea d’Intel·ligència Artificial.
Encara que ha portat algun temps preparar la legislació, és indiscutible que es tracta d’un text que donarà garanties a la ciutadania en prioritzar el respecte i protecció dels drets fonamentals, tenint com a eix central del seu disseny als humans.
Aquesta notícia és una traducció de l’article publicat originalment en castellà al portal TheConversation.com.