De laatste jaren maakt AI een exponentiële groei door in talloze sectoren, en we horen er dan ook steeds vaker over. Zo weten we bijvoorbeeld dat AI zakelijke processen kan automatiseren, sepsis vroegtijdig kan spotten bij te vroeg geboren baby’s, of ChatGPT teksten kan laten genereren. Hoewel de vooruitgang op AI-gebied veelbelovend is, brengt deze noviteit ook uitdagingen en zorgen met zich mee. Met name op het gebied van ethiek, veiligheid en verantwoordelijkheid. Om deze aspecten te reguleren en controleren, zal de Europese Commissie begin 2024 een nieuwe wet aannemen: de AI Act.
Waarom is de AI Act belangrijk?
De AI Act heeft als doel om de inzet van AI in Europa te sturen, en heeft als het goed is echt impact op ons allemaal. Deze nieuwe wet wordt niet alleen in het leven geroepen om innovatie aan te moedigen, maar ook om ervoor te zorgen dat onze rechten en waarden worden beschermd. Zo omvat ze bijvoorbeeld regels om onze privacy en veiligheid te waarborgen en bepalingen op het gebied van non-discriminatie en transparantie.
Wat interessant is aan de nieuwe wet is dat ze gebaseerd is op risicobeoordeling. Dit betekent dat de verplichtingen die AI-systemen moeten naleven, afhangen van hoe riskant ze zijn. Of geacht worden te zijn. Hoe dit wordt beoordeeld, hangt af van hoe en waar de technologie wordt gebruikt.
Er zijn vier risiconiveaus geïdentificeerd binnen deze aanpak:
- Minimaal risico: denk hierbij aan AI-systemen zoals chatbots of eenvoudige aanbevelingssystemen. Daarvoor gelden minimale verplichtingen en basisregels.
- Beperkt risico: hierbij gaat het om AI-systemen, zoals medische software of wervingstoepassingen, die aan strengere eisen moeten voldoen, waaronder documentatie en transparantie.
- Aanzienlijk risico: hier gaat het om nog geavanceerdere AI-systemen zoals zelfrijdende auto’s of medische hulpmiddelen. Deze worden onderworpen aan uitgebreide regelgeving en onafhankelijke evaluatie en certificering.
- Onaanvaardbaar risico: dit zijn AI-systemen die als onaanvaardbaar worden beschouwd vanwege hun potentieel ernstige impact, zoals gezichtsherkenning met realtime tracking, dat het risico met zich meebrengt dat het discriminatie bevordert. Deze systemen worden verboden of sterk gereguleerd.
Wat betekent de AI Act voor het communicatievakgebied?
De laatste tijd zien we ook vaak de term ‘generatieve AI’ voorbijkomen in het nieuws. Generatieve AI is een subset van AI die specifiek gericht is op het genereren van content; van beeldende kunst tot muziek en van filmscripts tot deepfakes. Veel mensen uit het communicatievak maken zich zorgen over generatieve AI aangezien het een bedreiging zou kunnen vormen voor ons vakgebied. Zeker omdat het steeds lastiger wordt te bepalen of content gemaakt is door een mens of door AI naarmate AI zich verder ontwikkelt. Neem bijvoorbeeld deze blog; is deze wel echt door mij geschreven of is hij gegenereerd door ChatGPT? En is wat hier staat wel echt waar of is het ‘fake news’?
En dat brengt ons bij een ander punt van zorg over generatieve AI: desinformatie. Voor zover dit nog niet het geval is, kan deze trend in de toekomst grote problemen veroorzaken. Denk aan AI-tekstproducties die lijken op nieuwsartikelen maar die misleiding tot doel hebben, aan de deepfake videos en audio van Mark Rutte of aan de audio scams die nu opduiken. Alsof dit nog niet verontrustend genoeg is, blijkt dat de huidige AI Act deze generatieve AI-tools beschouwt als minimaal risico. Dit betekent dat deze tools dus alleen onderworpen worden aan de basisregels. En die gaan de risico’s en gevaren niet tegen…
De Europese Commissie moet wat mij betreft dus opnieuw goed gaan kijken naar de impact van generatieve AI en serieuze eisen gaan stellen aan de tools die content produceren. Zo zou op zijn minst duidelijk aangegeven moeten worden dat content gegenereerd is door AI. Daarnaast zouden tools moeten voldoen aan bepaalde eisen om illegale contentcreatie en het verspreiden van desinformatie tegen te gaan. De Digital Services Act (DSA) en Digital Markets Act (DMA), die dit jaar van kracht zijn geworden, zouden hiervoor als voorbeeld kunnen dienen. Deze wetgevingen eisen namelijk al van platforms dat zij de verspreiding van illegale content en desinformatie tegengaan en dat melding gemaakt wordt van gesponsorde content.
Een kwestie van de juiste passages kopiëren, lijkt mij, daar is geen generatieve AI voor nodig. Alleen gezond verstand.