AI-regelgeving: kunnen we de controle behouden?
Hoe pakt Europa dit probleem aan en hoe anders is dit in de VS en China?
In 2021, an AI experiment shocked the scientific community when the founder of Collaboration Pharmaceuticals, Sean Elkins, and the Swiss Spiez Laboratory used Al to help discover the least toxic molecules able to fight diseases, and the Al instead generated over 40.000 lethal molecules within the span of just a few hours.
This is only one demonstration of the potential dangers in the misuse of Al. Whereas the necessity for control and regulation is not contested and some AI companies have even signed a petition for regulation, the task of doing so without hindering progress is difficult - as we can see from the fact that every nation adopts its own approach.
How does Europe tackle the challenge and how do US and Chinese regulatory approaches differ?
Europa
In Europa wordt Kunstmatige intelligentie gereguleerd door twee hoofdsystemen:
De AI-wet van de Europese Unie is op 1 augustus 2024 in werking getreden. AI-systemen worden gecategoriseerd op basis van hun risico. Hoe riskanter het systeem, hoe strenger de regels zijn die ze moeten volgen.
AI-systemen met een laag risico, zoals e-mailspamfilters of videogamekarakters, zijn vrijwel niet gereguleerd, terwijl systemen met een hoog risico, zoals AI die wordt gebruikt bij wetshandhaving, veel strenger gereguleerd zijn. Zonder goede regelgeving kunnen deze systemen met een hoog risico aanzienlijke schade aanrichten.
Sommige AI-systemen worden door de AI-wet zelfs met "onaanvaardbaar risico" bestempeld. Systemen bedoeld voor cognitieve manipulatie of die grootschalige biometrische identificatie gebruiken, zijn in de EU ten strengste verboden, met slechts enkele uitzonderingen binnen wetshandhaving om extreme gevaren te voorkomen.
Naast de AI-wet heeft het Comité voor Kunstmatige Intelligentie (CAI) van de Raad van Europa onlangs een ontwerp goedgekeurd voor het kaderverdrag inzake kunstmatige intelligentie en mensenrechten, democratie en de rechtsstaat, dat een rechtsgrondslag biedt om ervoor te zorgen dat alle AI-systemen in overeenstemming zijn met de mensenrechten. Als een land besluit dit raamwerk te implementeren, moeten zijn AI-bedrijven een extra reeks wetten volgen die bedoeld zijn om de gebruiker te beschermen.
Veel mensen zijn bezorgd dat de strenge Europese AI-regelgeving een averechts effect kan hebben. Bedrijven die zich niet door deze raamwerken willen laten afremmen, zouden hun focus kunnen richten op andere, mildere markten zoals de VS. Zo heeft de CEO van OpenAI, Sam Altman, al verklaard dat OpenAI de EU zou kunnen verlaten als er strengere AI-regelgeving zou worden ingevoerd. Een dergelijke verschuiving van AI-bedrijven die de EU verlaten, zou een aanzienlijke economische klap voor de Unie kunnen betekenen.
Maar veel deskundigen denken daar anders over. Dr. Peter van der Putten, assistant professor at Universiteit Leiden, legt uit dat gebruikers van AI-systemen willen dat zij en hun gegevens veilig zijn en mogelijk ethische zorgen hebben over niet-gereguleerde systemen. Dit zou resulteren in zelfregulering van de sector doordat mensen zich wenden tot bedrijven die hun AI-systemen reguleren, waardoor andere bedrijven een economische klap zouden krijgen of het pad van de regelgeving zouden volgen. Uiteindelijk zou het resultaat hetzelfde zijn, maar gepaard gaan met veel financiële problemen en ontwikkelingen van onethische systemen. “Het zou een lange en pijnlijke periode zijn bloedbad” zegt Van der Putten.
Max Gindt, AI-beleidsexpert, draagt bij aan dit idee door te zeggen dat bedrijven zoeken naar gebieden met een overvloed aan expertise en kennis op het gebied van Research & Development. Europa beschikt over veel van dergelijke gebieden, zoals universiteiten en andere kenniscentra, die van cruciaal belang zijn voor deze bedrijven en hen helpen de EU-regio's te behouden.
Verenigde Staten van Amerika
De aanpak van de Verenigde Staten is meer marktgericht en probeert bedrijven meer vrijheid te geven om hun economie te stimuleren. De belangrijkste regelgevende maatregel die de VS heeft genomen is het Executive Order on the Safe, Secure and Trustworthy Development and Use of Artificial Intelligence van president Biden. Naast het uitvoeringsbesluit kunnen staten hun eigen individuele wetten hebben.
Door de marktgerichte aanpak in de VS kunnen bedrijven hun producten snel op de markt brengen. In 2023 stond San Francisco al zelfrijdende taxi’s toe. Het inherente risico van deze ‘eerst schieten, later vragen stellen’-aanpak is dat bedrijven enorme bedragen investeren in de lancering van prototypes die later als onveilig worden beschouwd en van de markt worden gehaald, waardoor ontwikkelaars terug naar de tekentafel worden gestuurd. Volgens Max Gindt kan de Europese aanpak om het op de lange termijn langzamer aan te doen en veiliger te zijn, gunstig zijn voor ondernemers.
Volgens dr. Van Mimran, universitair hoofddocent aan het Zefat Academisch College, is te veel vrijheid een gevaarlijke aanpak, gezien de potentiële impact die AI kan hebben op mensenrechten.
Peter van der Putten is echter van mening dat de VS niet zo ver zullen gaan als de EU en dat grootschalige regelgeving zoals de EU AI Act de komende jaren onwaarschijnlijk is, maar dat de huidige regelgeving al een stap in de goede richting is.
Met betrekking tot de door Donald Trump aangekondigde programma’s en maatregelen kan men redelijkerwijs verwachten dat de VS de regelgeving verder zullen willen versoepelen en de Biden Act deels terug zou worden gedraaid om de economie te stimuleren.
China
Het eerste doel van de Chinese AI-regelgeving is om de nationale staat ten goede te komen. Bedrijven zijn deels staatseigendom en de regelgeving zorgt ervoor dat de staat het maximale uit de beschikbare gegevens kan halen. Bepaalde technologieën die in China bestaan, zouden vanuit ethisch perspectief in Europa ondenkbaar zijn. Systemen zoals grootschalige gezichtsherkenning die worden gebruikt voor sociale scores vallen in de onaanvaardbare risicocategorie van de Europese AI-wet en zijn daarom illegaal in Europa.
Dit systeem geeft aanleiding tot de misvatting dat China weinig tot geen AI-regelgeving heeft. Dit is echter onjuist. Volgens Tal Mimran “loopt China lichtjaren voor op de EU en de VS”. China heeft zeer specifieke wetten voor elk AI-gebruiksscenario. Het probleem is niet het gebrek aan regulering, maar eerder het in morele waarden tussen verschillende culturen.
Dit gebrek aan compatibiliteit is voor velen een reden tot zorg, aangezien China goed op weg is om de VS in te halen en de volgende technologische wereldleider te worden. Met de opkomst van een AI die is getraind op enorme hoeveelheden data, door de enorme omvang van de Chinese bevolking en het gebruik van AI-regulering in het belang van de staat, verkrijgt China een onbetwistbare voorsprong in deze technologierace. Tal Mimran gelooft dat het geen kwestie is of maar wanneer China de VS zal inhalen.
Volgens Max Gindt hoeft Europa zich echter nergens voor te schamen. Europese landen gebruiken hun kunstmatige-intelligentietechnologie op verschillende manieren en de regelgeving zorgt ervoor dat deze op ethisch vlak vooruitgang boekt. De verboden systemen met een hoog risico van de EU vormen slechts de top van de piramide en het enige vermogen om dergelijke systemen te gebruiken zal China niet voldoende concurrentievoordeel opleveren, zeggen zowel Peter van der Putten als Max Gindt.
Militair
Veel mensen zijn bezorgd dat te veel regelgeving kan resulteren in zwakkere AI en daarmee een aanzienlijk militair nadeel, maar de regelgeving die in dit artikel wordt gepresenteerd heeft geen invloed op de militaire ontwikkelingen.
De CAI omvat bijvoorbeeld specifiek vrijstellingen voor defensief gebruik. Zowel verschillende regio’s als de VN hebben gespecialiseerde commissies die onderzoek doen naar regelgevende oplossingen voor AI in oorlogsvoering.
Gezien de enorme mogelijkheden ervan lijkt het gebruik van AI in het leger onvermijdelijk. De meeste regelgeving is bedoeld voor civiel gebruik en zal defensieve vooruitgang niet belemmeren, terwijl gespecialiseerde groepen in verschillende regio's op zoek zijn naar militair-specifieke regels.
Conclusie
Kunstmatige intelligentie is een krachtig instrument dat gemakkelijk kan worden misbruikt. Regelgeving is dus noodzakelijk, maar het is essentieel om het onderzoek en de vooruitgang van dergelijke technologieën niet te belemmeren. De tijd zal het leren welke aanpak effectiever zal zijn bij het reguleren van AI: de strikte, op risico gebaseerde Europese aanpak, of de meer liberale, marktgerichte Amerikaanse filosofie, of misschien zelfs de Chineze regulatie, waar het wordt gebruikt om de belangen van de staat te versterken, maar nog steeds sterk gereguleerd is.
Bronnen
Interviews
Dr Peter van der Putten, Director of AI Lab at Pegasystems and Assistant Professor at Leiden University, Netherlands
Dr Tal Mimran, Associate Professor at the Zefat Academic College, Adjunct Lecturer at the Hebrew University of Jerusalem, Head of Program at Tachlith Institute, Israel
Mr. Max Gindt, Attache at the Ministry of State – Department of Media, Connectivity and Digital Policy, Luxembourg
EU AI Act: first regulation on artificial intelligence | Topics | European Parliament
The Framework Convention on Artificial Intelligence - Artificial Intelligence
Here is what's illegal under California's 18 (and counting) new AI laws | TechCrunch
Explained: China Social Credit System, Punishments, Rewards - Business Insider
0 Reacties
Geef een reactie