Europako Batzordeak abenduan iragarritako EBko Adimen Artifizialaren Legea teknologia hori garatzeko eta erabiltzeko baldintzak arautuko ditu 27 herrialde kideentzat. Batzordeak proposatu du, lehen arau-esparru horretan, aplikazio desberdinetan erabil daitezkeen IA sistemak aztertzea eta sailkatzea, osasunerako, segurtasunerako eta erabiltzaileen oinarrizko eskubideetarako izan dezaketen arriskuaren arabera. Arrisku-mailek erregulazio handiagoa edo txikiagoa ekarriko dute.
Arrisku onartezineko IA sistemak pertsonentzat mehatxutzat jotzen direnak dira, eta debekatu egingo dira. (Honako hauek barne hartzen dituzte: pertsona edo talde kalteberen portaeraren manipulazio kognitiboa, pertsonen sailkapena portaeraren, estatus sozioekonomikoaren edo ezaugarri pertsonalen arabera, identifikazio biometrikoko sistemak, eta abar). Arrisku mugatuko IA sistemek, aldiz, gutxieneko gardentasun-baldintza batzuk baino ez dituzte beteko, erabiltzaileei erabakiak kausa-ezagutzarekin hartzea ahalbidetuko dietenak. Ez dira aurkeztu beharko erregulatzeko. Hezkuntzan gero eta gehiago erabiltzen ari den IA sortzaileak, ChatGPT bezala, gardentasun-baldintzak bete beharko lituzke.
Naturek argitaratu bezala, teknologiaren, zuzenbidearen eta etikaren elkargunea aztertzen duten ikertzaileak hutsuneak adierazten ari dira arau-esparru berri eta bakar honetan. Hutsune horietako bat arrisku handiko eta txikiko IA sistemen sailkapenari dagokio. Ada Lovelandas institutuak 2022an argitaratutako txostenaren arabera, ez dago arrisku baxuko eta altuko sailkapenerako irizpide berrikusgarririk, eta, gainera, ez dago ebidentziarik IAren gehiengoa arrisku txikikoa dela esateko. Kontuan hartu behar dira taldeengan eta gizarte osoan dituen ondorioak, bai eta pertsonentzako eta haien eskubideentzako arriskuak ere, eta arriskuak IAren bizi-ziklo osoan hartu behar dira kontuan, ez soilik merkatuan sartzean. Hala, arrisku handia zer den ebaluatzeko hasierako irizpideak garatzea iradokitzen dute.
Gainera, IAren erregulazio-garai bateko funtsezko puntu bat da erabiltzaileek inpaktuaren ebaluazioan parte hartzea, Legearen ahultasun zorigaiztokoa, IAren sistemek eragindako pertsonei sarbidea ematea diseinuan akatsak adierazteko, haien iritziak kontuan hartuta, IAren sistemak gainbegiratzeko etapa guztietan, merkaturatu aurreko etapatik.
Bigarren hutsune bat egiaztapen-sistemari dagokio. IAren garatzaileek, kasu askotan, arrisku handikotzat jotzen diren produktuei buruzko autoebaluazioa egin ahal izango dute, gardenak izan beharko dute, gaikuntza-datuak lortzeko erabilitako metodologiak eta teknikak azaldu beharko dituzte, datu horiek non eta nola eskuratu ziren eta datuak nola garbitu ziren barne, eta egile-eskubideen legeak betetzen dituztela baieztatu beharko dute. Hala ere. Egokiena litzateke arautzaileak hirugarrenen egiaztapen-sistema independente bat ezartzea, beharrezkoa denean datu gordinak ere egiaztatu ahal izateko.
Beste zientzialari batzuek ere, etorkizuneko bulegoari irekitako gutun batean, IAren hornitzaileen gardentasunaren eta independentzia arautzailearen beharra adierazi dute. Herritarrak kalteetatik babesteko eta pertsonen eskubideak urratzen ez direla bermatzeko arduradunek independenteak izan beharko lukete berrikuntza sustatzea xede duten eskubideekiko.
Zientzialariek aukera bat izan dezakete Ebaren planean dauden hutsuneak konpontzen, IA segurua, fidagarria, gardena eta ez-diskriminatzailea garatzeko eta ezartzeko. Europako Batzordeari atxikitako AI-ren bulego berriak arauak aplikatuko ditu, eskaerak gainbegiratuko ditu eta, Batzordearen arabera, bulegoak lotura handia izango du komunitate zientifikoarekin egitura arautzaileak formulatzeko. Lan handia eta premiazkoa beraz, legea bi urteko epean indarrean jartzea espero baita.
Egilea: Isabel Mendizabal