Het Europees Parlement debatteert vandaag in Straatsburg over de Artificial Intelligence Act. Die moet zorgen voor meer veilige en transparante kunstmatige intelligentie door een aantal verplichtingen op te leggen aan ontwikkelaars van AI-toepassingen. "Hiermee willen we wereldwijd een standaard zetten voor hoe we met AI moeten omgaan", zegt Europarlementslid Tom Vandenkendelaere (CD&V).
Van chatrobots tot slimme huishoudtoestellen en zelfrijdende auto's. Toepassingen op basis van artificiële intelligentie (AI) treden in sneltempo binnen in ons dagelijkse leven. Maar even snel groeien de bezorgdheden over de veiligheid en transparantie van die toepassingen. Vandaag bespreekt het Europees Parlement een nieuwe Europese wet die daarop een antwoord moet bieden.
Met de Artificial Intelligence Act wil de EU innovatie bevorderen, maar ook ethisch verantwoorde regels opleggen, zegt Europarlementslid Tom Vandenkendelaere (CD&V) in "De ochtend" op Radio 1. "De bedoeling is om een balans te vinden tussen een duidelijk kader waarbinnen ontwikkelaars van AI-toepassingen kunnen werken, maar tegelijk ook een soort van AI te ontwikkelen die de burger beschermt."
BELUISTER - Europarlementslid Tom Vandenkendelaere (CD&V) volgt het dossier in het Europees Parlement, herbeluister hier het gesprek in "De ochtend" op Radio 1:
"Europese wet rond Artificiële Intelligentie moet Europeanen beschermen"
Risico's controleren
Artificiële intelligentie is een bijzonder omvattende term. Het is vandaag al terug te vinden in een breed scala aan toepassingen. "Met de wet willen we die toepassingen voortaan opdelen in een aantal categorieën met daaraan verbonden een bepaald risico. Wanneer de risico's van een toepassing groter zijn, worden ook de verplichtingen voor de fabrikant groter", legt Vandenkendelaere uit.
Wanneer de risico's van een toepassing groter zijn, worden voortaan ook de verplichtingen voor de fabrikant groter
"Denk bijvoorbeeld aan AI in robotchirurgie. Dat is een toepassing met een hoog risico, dus de ontwikkelaar daarvan zal ook meer grendels moeten inbouwen om de burger te beschermen, zoals risicoanalyses of menselijk toezicht op die toepassing."
"Daartegenover staan bijvoorbeeld de eenvoudige chatbots op websites van banken of vliegtuigmaatschappijen. Bij die toepassingen zijn er weinig risico's. Daar moet eigenlijk enkel meegedeeld worden dat de burger in contact staat met een computer, zodat die een geïnformeerde keuze kan maken."
De Artificial Intelligence Act onderscheidt vier risicocategorieën:
- minimaal risico AI (bv. spamfilters, AI video games): wordt vrij toegestaan
- beperkt risico AI (bv. chatbots op websites van banken of vliegtuigmaatschappijen): moet voldoen aan transparantieverplichtingen
- hoog risico AI (bv. zelfrijdende wagens, robotchirurgie): wordt onderworpen aan strenge verplichtingen ter controle
- onaanvaardbare AI (bv. voor social scoring): wordt verboden
ChatGPT
AI-toepassingen die de voorbije maanden veel aandacht genereerden, waren de zogenoemde chatbots, zoals ChatGPT, My AI van het sociale medium Snapchat of de chatfunctie van zoekmachine Bing. Daarmee kan je hele conversaties voeren of de spreekbeurt van je kinderen (laten) maken. De bots hebben veel voordelen, maar er zijn ook gevaren. Zo zouden ze soms ook foute informatie of zelfs gevaarlijke adviezen geven.
"De chatbots zijn een speciaal geval, want toen de Europese Commissie in 2021 het wetsvoorstel uitwerkte, was daar nog geen sprake van", zegt Vandenkendelaere. "We willen in de wetgeving nu nog een extra categorie inbouwen die ervoor moet zorgen dat ook die generatieve AI-toepassingen een pakket aan voorwaarden opgelegd krijgen, waardoor we beter inzicht krijgen in hoe die precies functioneren."
"Er komt ook daar dus een screening welke mogelijke risico's er zijn, en dat op basis van transparantie over hoe die toepassingen in elkaar zitten. Als we dan vaststellen dat er een groot risico aan verbonden is voor mensen, vallen ze natuurlijk in de hoogrisicocategorie. Als we merken dat er geen risico is, belanden ze in een lagere categorie", aldus Vandenkendelaere.
Geen moratorium
De vraag is wel of de wetgeving niet te laat komt. Topmensen uit de sector zelf, bijvoorbeeld bij Apple en Google, lieten zich de voorbije maanden al negatief en angstig uit over AI. Ze voorspellen een explosie van nepnieuws en oplichting en vrezen dat hun uitvindingen zullen leiden tot het einde van de mensheid.
"Ik denk niet dat een moratorium, een tijdelijke stop op de ontwikkeling van AI-toepassingen, een oplossing is", zegt Vandenkendelaere. "We moeten vandaag vooral duidelijke regels vastleggen, zoals we die ook voor heel wat andere producten in Europa hebben, denk bijvoorbeeld aan auto's of wasmachines. Door de regels zullen we beter leren omgaan met wat nieuw is en kunnen we het risico controleren."
Bovendien loopt Europa achter op internationaal niveau. Vandaag zijn de leidende landen in de AI-ontwikkeling vooral de Verenigde Staten, waar techreuzen zoals Google en Microsoft gevestigd zijn, en China. "Als we niet hopeloos achterop willen geraken, moeten we in Europa vandaag echt wel een stap vooruit zetten op vlak van wetgeving", zegt Vandenkendelaere.
Manier van denken
Critici vrezen evenwel dat de nieuwe regelgeving ondernemers net zal afremmen om in Europa in AI-toepassingen te investeren. "Het klopt dat de wet enkel zal gelden voor Europese bedrijven", erkent Vandenkendelaere. "Maar de bedoeling van deze wet is om net als met de GDPR-wetgeving indertijd een soort van evolutie op gang te brengen over hoe we moeten omgaan met AI."
"De Verenigde Staten hebben gekozen voor innovatie. De Chinezen kiezen ervoor om met AI mensen te controleren. Wij proberen met deze wetgeving een stap te zetten naar een soort standaard wereldwijd", aldus Vandenkendelaere. "We staan vandaag aan de vooravond van de doorbraak van AI, net zoals we in de jaren 90 aan de vooravond stonden van de doorbraak van het internet of in de jaren 2000 van de grote digitale platformen. Dus het is het moment om dit te doen."
De bedoeling van deze wetgeving is om net als met GDPR indertijd een soort evolutie op gang te brengen wat betreft het nadenken over hoe we om moeten gaan met AI
De wet wordt vandaag besproken in het Europees Parlement, morgen moet dan een stemming volgen. Nadien volgen de eindonderhandelingen met de Raad van de Europese Unie, waarin de regeringen van alle lidstaten vertegenwoordigd zijn. "Maar zij hebben hun positie vorig jaar al vastgelegd. De hoop is dat het dossier landt nog voor de verkiezingen van volgend jaar, wellicht onder Belgisch voorzitterschap", is Vandenkendelaere hoopvol. De nieuwe regels zouden dan in voege gaan vanaf 2025.
0 件のコメント:
コメントを投稿