Det europæiske parlament er nu klar til at forhandle de første regler nogensinde for at skabe sikkerhed og en vis gennemsigtighed når det kommer til kunstig intelligens (AI).
Heriblandt har de foreslået:
- Et fuldt forbud mod anvendelse af AI til biometrisk overvågning, følelsesgenkendelse og prædiktiv politiarbejde
- Generelle AI-systemer som fx ChatGPT skal vise at indholdet er AI-genereret
- AI-systemer, der bruges til at påvirke vælgere ved valg, skal anses for at være højrisiko
Onsdag vedtog Europaparlamentet sin forhandlingsposition om loven om kunstig intelligens (AI) med 499 stemmer for, 28 imod og 93 hverken for eller imod forud for forhandlinger med EU-medlemslandene om den endelige udformning af loven. Reglerne vil sikre, at kunstig intelligens udviklet og brugt i Europa er fuldt ud i overensstemmelse med EU’s rettigheder og værdier, herunder menneskeligt tilsyn, sikkerhed, privatliv, gennemsigtighed, ikke-forskelsbehandling og social og miljømæssig velfærd.
Reglerne følger en risikobaseret tilgang og fastlægger forpligtelser for udbydere og dem, der implementerer AI-systemer afhængigt af det risikoniveau som AI kan generere. AI-systemer med et uacceptabelt risikoniveau for folks sikkerhed vil derfor være forbudt, såsom dem, der bruges til social scoring (klassificering af mennesker baseret på deres sociale adfærd eller personlige karakteristika). Europaparlamentet udvidede listen til at omfatte forbud mod påtrængende og diskriminerende brug af kunstig intelligens, såsom:
- “Real-time” biometriske fjernidentifikationssystemer i offentligt tilgængelige rum;
- “Post” fjerntliggende biometriske identifikationssystemer, med den eneste undtagelse af retshåndhævelse til retsforfølgning af alvorlige forbrydelser og kun efter retslig tilladelse;
- biometriske kategoriseringssystemer, der bruger følsomme karakteristika (f.eks. køn, race, etnicitet, statsborgerskabsstatus, religion, politisk orientering);
- prædiktive politisystemer (baseret på profilering, placering eller tidligere kriminel adfærd);
- følelsesgenkendelsessystemer i retshåndhævelse, grænseforvaltning, arbejdspladsen og uddannelsesinstitutioner;
- og umålrettet gennemgang af ansigtsbilleder fra internettet eller CCTV-optagelser for at skabe ansigtsgenkendelsesdatabaser (krænker menneskerettigheder og retten til privatliv).