De ontwikkeling van de technologie en kunstmatige intelligentie is in de afgelopen tijd in sneltreinvaart gegaan. Volgens sommigen staan we zelfs aan de vooravond van een ongekende technologische revolutie. De afgelopen tijd hebben we bijvoorbeeld kennis mogen maken met revolutionaire modellen van onder meer OpenAI’s ChatGPT; de slimme chatbot die razendsnel teksten kan genereren en zo’n beetje alle denkbare vragen kan beantwoorden, zal weinigen zijn ontgaan. De resultaten zijn verbluffend, en de mogelijkheden eindeloos. Soms zijn de resultaten zo verbluffend dat er incidenten plaatsvinden, zoals crashende zelfrijdende auto’s met fatale consequenties[1] of chatbots die zo worden aangewend dat er sprake is van racistische uitlatingen[2].
Het voorgaande doet de vraag rijzen hoe het recht een rol kan spelen bij kunstmatige intelligentie. Moet het recht ervoor zorgen dat AI gereguleerd en gesurveilleerd wordt? En waar moet je op letten als je gebruikmaakt van ChatGPT voor je essay of scriptie? De recent bekendgemaakte voorstellen voor een AI-verordening[3] en de hernieuwde productaansprakelijkheidsverordening[4] geven antwoorden op enkele van deze vragen. In dit artikel zullen daartoe twee aandachtspunten uit het voorstel van de Europese wetgever worden belicht, namelijk transparantie en aansprakelijkheid.
Inhoud AI-verordening
Met het voorstel voor de AI-verordening beoogt de Europese wetgever de innovatie te stimuleren en tegelijkertijd risico’s te beperken.[5] Op grond van de verordening is sprake van AI (of: kunstmatige intelligentie) indien software wordt ontwikkeld aan de hand van technieken en benaderingen waarmee voor bepaalde doelstellingen, opgesteld door mensen, output kan worden gegenereerd.[6] De verordening heeft een ruim toepassingsbereik. Deze is namelijk niet alleen van toepassing op aanbieders die AI-systemen in de Europese Unie op de markt brengen of in gebruik stellen, maar ook op gebruikers van AI-systemen die zich in de EU bevinden. Daarnaast is de AI-verordening van toepassing indien gebruikers en aanbieders zich buiten de EU bevinden, maar waarbij de output van het systeem wel in de EU wordt gebruikt.
Verordening toegepast op OpenAI en ChatGPT: transparantieverplichtingen
Op grond van de AI-verordening dient een natuurlijke persoon altijd duidelijk te zijn indien deze gebruikmaakt van een AI-systeem.[7] Dit geldt ook voor het generen van afbeeldingen of videomateriaal. Hier staat tegenover dat deze transparantie-eisen niet gelden indien evident uit de context blijkt dat je met kunstmatige intelligentie te maken hebt. De vraag die hierbij rijst, is wanneer je dat weet of behoort te weten. Daarnaast is het niet waarschijnlijk dat iemand met kwade intenties zich aan deze regels zal houden. Een voorbeeld hiervan is het gebruik van ‘deep fakes’: daarbij moet de disclaimer worden geplaatst dat gebruik is gemaakt van gemanipuleerde beelden, tenzij het systeem gebruikt wordt voor legitieme doelen, zoals rechtshandhaving en vrijheid van meningsuiting.[8] De gedachte achter deze transparantieverplichtingen is dat men de mogelijkheid behoort te krijgen weloverwogen keuzes te maken of zelfs afstand te nemen van bepaalde AI-systemen.
De transparantieverplichting geldt voor AI-systemen die (1) interageren met mensen, (2) worden gebruikt om emoties te detecteren of mensen indelen in categorieën op basis van biometrische gegevens, of (3) inhoud generen of manipuleren. ChatGPT valt derhalve onder het toepassingsbereik van deze verplichting, nu de chatbot interageert met mensen en inhoud kan generen.
Productaansprakelijkheid en AI
Onder het voorstel voor een nieuwe productaansprakelijkheidsrichtlijn[9] kwalificeren ook niet-tastbare producten zoals software of AI onder het begrip ‘product’. Als gevolg hiervan kan een producent ook voor schade van software of kunstmatige intelligentie op grond van deze richtlijn aansprakelijk gesteld worden.
Bovendien wordt het begrip ‘gebrekkigheid’ ruimer. Op grond van de richtlijn dient namelijk ook het ‘zelflerend vermogen’ van een product in de beoordeling van de gebrekkigheid te worden meegenomen. Dit heeft tot gevolg dat producten ook nadat ze op de markt zijn gebracht, gebrekkig kunnen worden – indien ze dus niet meer in handen zijn van de fabrikant dus.
Intermezzo: ChatGPT gebruiken voor je essay?
Het werkt simpel en ontzettend snel: je typt je verzoek in, en de chatbot schrijft binnen elke seconden een antwoord voor je uit. Indien je nog niet helemaal tevreden bent de uitkomst, kun je de chatbot zelfs nog een extra opdracht geven om het antwoord te verbeteren of specificeren. Het feit dat de chatbot zo snel en eenvoudig teksten genereert, maakt hem tot een walhalla voor studenten; velen hebben deze mogelijkheid al aangegrepen voor essays of zelfs een scriptie. Maar hoe kijken universiteiten hier tegenaan?
Fraude?
Hoewel er theoretisch gezien geen sprake is van plagiaat, omdat hiervoor vereist is dat de stukken of gedachten van een ander worden overgenomen voor eigen werk en de chatbot geen echt persoon is, gaat het gebruik van ChatGPT voor schoolopdrachten gepaard met risico’s. Verschillende universiteiten hebben namelijk al bekendgemaakt het gebruik van AI-bots voor toetsen en essays uit te bannen. Zo wil het bestuur van de Universiteit Utrecht dit vastleggen in het examenreglement[10], en hebben ook de Universiteit van Amsterdam[11] en de Radboud Universiteit Nijmegen[12] aangekondigd dat het gebruik van AI-bots voor een tentamen onder fraude valt.
Kanttekeningen
Daar komt bij dat ChatGPT vaak de mist ingaat [JT1] indien taal wat ingewikkelder wordt, zoals bij essays en scripties. De chatbot verzint bijvoorbeeld referenties in voetnoten, of presenteert soms zelfs onwaarheden als feiten. Er is dus voorzichtigheid geboden met het gebruik van de chatbot bij ingewikkeldere teksten en men doet er verstandig aan om de teksten dubbel te checken. ChatGPT is tenslotte, in de bewoordingen van informatiejurist en advocaat Axel Arnbak, ‘niets meer dan een geweldige wiskundige trukendoos die onze taalstructuren imiteert met behulp van statistiek’.[13]
Conclusie
De discussie over ChatGPT is voorlopig nog niet geluwd en de kunstmatige intelligentie zal zich ongetwijfeld met hoge snelheid blijven ontwikkelen. Digitale technologie zal een steeds centralere plek innemen in alle aspecten van ons dagelijks leven. De Europese wetgever heeft er om die reden goed aan gedaan om het voortouw te nemen voor wetgeving en regulering, om zodoende betrouwbare en veilige ontwikkeling van kunstmatige intelligentie in Europa mogelijk te maken.
De verwachting is dat de voorstellen voor een AI-verordening en een hernieuwde productaansprakelijkheidsverordening – behoudens wijzingen – de eindstreep zal halen. Men doet er derhalve verstandig aan in het achterhoofd te houden dat het gebruik van kunstmatige intelligentie niet zonder risico’s is en zich bij het gebruik ervan aan de verplichtingen uit de verordening te houden.
[1] ‘Uber’s self-driving operator charged over fatal crash’, BBC News 16 september 2020.
[2] ‘Microsoft zegt sorry voor racistische chatbot’, RTL Nieuws 25 maart 2016.
[3] Voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (Wet op de Artificiële Intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie, COM(2021) 206 final (AI-verordening).
[4] Voorstel voor een richtlijn van het Europees Parlement en de Raad inzake aansprakelijkheid voor producten met gebreken, COM(2022) 495 final.
[5] Preambule van de AI-verordening.
[6] Artikel 3 lid 1 van de AI-verordening: “Software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen die zijn opgenomen in de lijst van Bijlage I en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd.”
[7] Artikel 15 van de AI-verordening.
[8] Art. 52 lid 2 van de AI-verordening.
[9] Voorstel voor een richtlijn van het Europees Parlement en de Raad inzake aansprakelijkheid voor producten met gebreken, COM(2022) 495 final.
[10] ‘Universiteit scherpt plagiaatregels aan om ChatGPT’, https://dub.uu.nl/nl/achtergrond/universiteit-scherpt-plagiaatregels-aan-om-chatgpt.
[11] ‘Onze mensen over … ChatGPT’, https://www.uva.nl/shared-content/faculteiten/nl/faculteit-der-rechtsgeleerdheid/nieuws/2023/01/onze-mensen-over-…-chatgpt.html?origin=FObmO%2Bj6TwGZuLzn7SifJA
[12] ‘ChatGPT’, https://www.ru.nl/over-ons/nieuws-en-agenda/chatgpt.
[13] Axel Arnbak, ‘Beteugel AI met constructief wantrouwen’, Financieel Dagblad 2 januari 2023, https://fd.nl/opinie/1463513/beteugel-ai-met-constructief-wantrouwen-lcd3calU7L6R.
The post <strong>ChatGPT in het licht van het Europese voorstel voor een AI-verordening</strong> appeared first on Bulletineke Justitia.