Diepgaande analyse van de Europese AI-wet: Reguleringen, Implicaties en Toekomst van AI

June 19, 2023

De Europese Unie heeft vóór de European AI Act (EUAIA) gestemd. Hiermee is de EU het eerste grote overheidsorgaan dat richtlijnen geeft over AI. Dit is een monumentale stap voor de EU en zal significante gevolgen hebben voor de ontwikkeling en het gebruik van AI in de Europese Unie. Maar wat staat er eigenlijk in de EUAIA? En wat zijn de gevolgen voor de ontwikkeling en het gebruik van AI in de Europese Unie? Heeft de EUAIA tekortkomingen?

De inhoud

In essentie introduceert de EUAIA classificaties voor AI. Deze classificaties bepalen aan welke eisen een AI-applicatie of -tool moet voldoen.

De eerste classificatie is "unacceptable risk" (onaanvaardbaar risico). Dit zijn AI-applicaties zoals een Social Credit Scoring System zijn verboden. Dat geldt ook voor AI tools die niet in lijn zijn met de waarden van de EU.

De "unacceptable risk"-classificatie omvat:

1. Manipulerende systemen, bijvoorbeeld:

  • Het gebruik van onhoorbaar geluid op de werkvloer om ervoor te zorgen dat mensen harder werken of waardoor vrachtwagenchauffeurs langer doorrijden.
  • Een pop met een geïntegreerde spraakassistent die minderjarigen aanspoort tot progressief gevaarlijk gedrag of uitdagingen, vermomd als een leuk of cool spel.

2. Exploiterende systemen, bijvoorbeeld:

  • Een AI-tool die begrijpt dat het te maken heeft met een persoon met een gokverslaving en die persoon stimuleert om te gaan gokken.

3. General purpose social scoring

  • Social credit score zoals in China wordt gebruikt.
  • Een tool die kwetsbare kinderen identificeert op basis van onbeduidend of irrelevant sociaal 'wangedrag' van ouders, zoals het missen van een afspraak bij de dokter of een echtscheiding.          

4. Op afstand biometrisch identificeren ten behoeve van rechtshandhaving in openbare toegankelijke ruimtes. Hierbij zijn er enkele uitzonderingen, zoals in gevallen van terrorisme, het vinden van slachtoffers van geweld of een EU Arrest Warrant.

De volgende classificatie is "High Risk" (hoog risico). Dit zijn AI-systemen die impact kunnen hebben op de gezondheid, veiligheid, fundamentele rechten van de mens of het milieu. Hier zijn een aantal voorbeelden:

  • Kritieke infrastructuur zoals transport.
  • Onderwijs (het automatiseren van de beoordeling van tentamens bijvoorbeeld).
  • Veiligheidscomponenten van producten (bijvoorbeeld AI-toepassingen in robot ondersteunde chirurgie).
  • Handhaving van de wet die kan ingrijpen in de fundamentele rechten van mensen (zoals de beoordeling van de betrouwbaarheid van bewijsmateriaal).
  • Beheer van migratie, asiel en grenscontrole (verificatie van de echtheid van reisdocumenten).

AI-systemen zoals deze moeten allemaal worden beoordeeld voordat ze op de markt worden gebracht en worden actief gemonitord gedurende hun hele levenscyclus. Alle AI-systemen zullen een "CE-markering" krijgen, wat betekent dat een AI-systeem of -tool door een relevante instantie (zowel nationaal als op EU-niveau) upstream en downstream kan worden gemonitord.

High-risk systemen worden geregistreerd in een EU-database, moeten voldoen aan hoge normen voor kwaliteitsmanagement en technische documentatie, moeten samenwerken met toezichthoudende autoriteiten en er moet mogelijkheid zijn voor menselijk toezicht bij het gebruik van deze AI-systemen.


De volgende classificatie is "Other risk" ofwel "AI with specific transparency obligations" (AI met specifieke transparantieverplichtingen). Dit zijn AI-tools die content genereren, zoals ChatGPT, Midjourney, Leonardo AI en tools die deepfakes kunnen maken. Deze tools moeten voldoen aan aanvullende transparantievereisten, zoals het openbaar maken dat de inhoud is gegenereerd door AI en het ontwerp van het model om te voorkomen dat het illegale inhoud genereert.


De laatste classificatie is "minimal risk" (minimaal risico). Hieronder vallen toepassingen zoals AI-geactiveerde videospellen of spamfilters. Dit zijn AI-tools die vrijwel geen risico met zich meebrengen en geen risico vormen voor de rechten of veiligheid van burgers.

Is dit een stap in de juiste richting?

Kort antwoord: ja, zeker. Hoewel er ongetwijfeld tools of applicaties zullen worden ontwikkeld die aanvankelijk onder de classificatie "other risk" vallen, maar later blijken "high risk" te zijn, is dat het risico dat je neemt.

Belangrijk is dat er richtlijnen zijn voor een nieuwe technologie die de ontwikkeling ervan niet belemmeren, maar tegelijkertijd voorkomen dat de technologie voor ongewenste doeleinden wordt gebruikt. De exacte tekst in de Act is voor nu vrij breed, waardoor er ruimte is voor interpretatie en discussie. Dat is ook de bedoeling. AI-technologie is nog vrij jong en er moet ruimte zijn voor groei.

Wat is het gevolg van de EUAIA?

Ten eerste is er meer duidelijkheid. Op dit moment zijn bepaalde tools, zoals bijvoorbeeld Google Bard, niet beschikbaar in de EU. Met de komst van de EUAIA hebben grote bedrijven richtlijnen gekregen over de AI-services die ze kunnen verlenen aan bedrijven en burgers in de EU.

Ten tweede brengt het rust. Er is een zekere angst in de samenleving dat AI wordt gebruikt als controlemechanisme, vergelijkbaar met China. Dit wordt nu aangepakt (hopelijk).

Ten derde is dit het begin van een discussie over AI. Politiek en regelgeving draaien vaak om het op gang brengen van discussies over wat acceptabel is in de samenleving en wat niet. Een manier om deze discussie op gang te brengen, is door richtlijnen te geven en de samenleving binnen deze richtlijnen te laten opereren. Er zullen ongetwijfeld applicaties of services worden ontwikkeld die achteraf gezien onwenselijk zijn of neveneffecten hebben die we niet hebben kunnen voorzien, maar de EUAIA is een goed begin.

Last but not least, het biedt de mogelijkheid om te sturen en een kijkje achter de schermen te nemen. Aangezien de meest risicovolle applicaties en services zich eerst moeten melden bij de EU en nationale commissies, krijgen we inzicht in hoe AI-applicaties zijn ontwikkeld. Ze worden onder de loep genomen!

Dit is belangrijk omdat bijvoorbeeld de labeling van data (wat een goed antwoord is versus wat een slecht antwoord is) bij applicaties zoals ChatGPT niet bekend is. En aangezien veel mensen ChatGPT als absolute waarheid beschouwen en zich niet bewust zijn van eventuele vooringenomenheid of een bepaalde agenda, hopen we dat deze aspecten naar voren komen door de nieuwe EU-regelgeving.

Waar komt de EUAIA nog tekort?

We zien potentieel frictie ontstaan tussen nationale en supranationale entiteiten. Met andere woorden, elk land heeft een andere sociaal, politieke en religieuze achtergrond, ook binnen de EU. Dit kan ertoe leiden dat AI-applicaties in het ene land als schadelijk of gevaarlijk worden beschouwd (op basis van bijvoorbeeld religieuze overtuigingen), terwijl dat in een ander land niet het geval is.

Het effect hiervan is dat lidstaten en de EU het mogelijk niet eens zullen worden over de classificatie van AI-tools of -services. Dit is niet het einde van de wereld, maar het kan ertoe leiden dat AI-applicaties bijvoorbeeld in Amerika of Azië actief worden gebruikt en dat gebruikers/bedrijven daarvan profiteren, terwijl wij hier in Europa achterblijven. Google Bard is hier een actueel voorbeeld van.

Daarnaast hebben we sterke twijfels over het vermogen van de EU om de regelgeving afdoende te handhaven. Specifiek gezien de enorme hoeveelheid tools die dagelijks verschijnen. Het zal een uitdaging zijn voor de EU om deze allemaal na te lopen. Dit betekent dat er AI-tools zullen zijn die niet voldoen aan de EU-eisen, maar nog steeds ergens op internet te downloaden zijn of beschikbaar zijn met een VPN.

Last but not least, het bovenstaande ertoe leiden dat grote bedrijven terughoudend zullen zijn om producten in Europa te lanceren, terwijl decentraal ontwikkelde tools, die mogelijk van inferieure kwaliteit zijn, de mogelijkheid krijgen om massaal gebruikers te bereiken.

We raden de EU daarom aan om aanzienlijke middelen in te zetten. Technologie staat niet stil, dus zorg ervoor dat de overheidsorganen die moeten bepalen in welke classificaties AI-tools vallen, voldoende capaciteit hebben om duidelijkheid en veiligheid te waarborgen.


Meer lezen?

https://www.ceps.eu/wp-content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli-23.4.21.pdf

https://futurium.ec.europa.eu/sites/default/files/2021-10/Kop_EU%20Artificial%20Intelligence%20Act%20-%20The%20European%20Approach%20to%20AI_21092021_0.pdf

https://artificialintelligenceact.eu/

https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence#:~:text=The%20new%20law%20promotes%20regulatory,that%20significantly%20impact%20their%20rights.