Als je AI gaat gebruiken is het belangrijk dat je je bewust bent waar je voor kiest en wat je ermee doet. Op deze pagina vind je informatie over waar je aan moet denken voor je een AI tool gaat gebruiken.
AI kan je helpen je academische vaardigheden te verbeteren en kan je bij goed gebruik veel tijd besparen. Toch zitten er ook haken en ogen aan het gebruik van AI voor je studie. Is het geoorloofd volgens de regels van de UU? Hoe houd je rekening met vooringenomen resultaten? Welk auteursrecht zit er op generatieve AI en hoe ga je om met de bronvermelding? En last but not least: welke impact heeft het gebruik van AI op het klimaat en op onze samenleving?
Vragen over AI kun je ook stellen op de website ikhebeenvraagoverai.nl. Utrechtse onderzoekers staan daar klaar om antwoorden te geven.
Op de volgende pagina’s wordt dieper op deze vragen ingegaan, zodat je een bewuste keuze kunt maken over hoe en wanneer je AI wilt inzetten.
In de video hieronder vind je alvast een samenvatting van belangrijke thema’s.
De Universiteit Utrecht hanteert richtlijnen voor gebruik van generatieve AI voor studenten en docenten.
Het is als student nooit toegestaan om werk dat volledig door generatieve AI is gemaakt in te leveren als eigen werk.
Vraag altijd aan de docent wat per opdracht is toegestaan met betrekking tot gebruik van en referenties naar generatieve AI.
AI heeft het vermogen om grote hoeveelheden data razendsnel te doorzoeken, te verwerken en daaruit conclusies te trekken. Die conclusies zijn echter niet altijd juist. Een beroemd voorbeeld is het – inmiddels aangepaste – wervingsproces van het bedrijf Amazon uit 2014, dat AI inzette om de CV’s van sollicitanten voor IT-banen te beoordelen. Hoewel zowel vrouwen als mannen solliciteerden, koos AI opvallend vaak mannelijke sollicitanten als de meest geschikte kandidaten. Dit had echter niets te maken met de kwaliteit van vrouwelijke sollicitanten, maar met de data waarop de AI getraind was: succesvolle sollicitaties bij Amazon uit het verleden. Omdat toen overwegend mannen solliciteerden en aangenomen werden, zag AI de eigenschap ‘man’ als een goede indicator voor een succesvolle kandidaat.
Dit is een klassiek voorbeeld van bias: (on)bewuste aannames en vooroordelen over de wereld om ons heen die onze beslissingen en uitlatingen beïnvloeden. Bias is een fenomeen dat zowel bij mensen als bij AI voorkomt. In tegenstelling tot de mens kan AI niet zelfstandig kritisch denken in een poging bias te voorkomen. Een programma als ChatGPT reflecteert de eigen output niet, het weerspiegelt op basis van algoritmes alleen de informatie die het ingevoerd heeft gekregen. Om de legitimiteit van de output te beoordelen is het van belang om te weten hoe bias in AI kan ontstaan.
Bias kan op verschillende manieren en plekken ontstaan.
Bias in algoritmes – veroorzaakt door zowel programmeerders als door trainingsinput van eindgebruikers – is een thema waar veel onderzoek naar wordt gedaan, omdat de manier waarop algoritmes werken lang niet altijd duidelijk is. Hierdoor kan het lastig zijn om de oorzaak van de bias te ontdekken.
Gebrekkige trainingsdata en/of gebrekkige modellering kunnen er zelfs toe leiden dat een AI feitelijk foute informatie geeft, omdat algoritmes proberen verbindingen te leggen die niet bestaan.
Je kunt bias in AI niet helemaal voorkomen, maar je kunt je er wel rekenschap van geven.
Het is op dit moment nog onduidelijk of AI gegenereerde content in aanmerking komt voor auteursrechtelijke bescherming. Daarvoor moet sprake zijn van 'een ‘eigen oorspronkelijk karakter’, een ‘persoonlijk stempel van de maker’ of van een ‘eigen intellectuele schepping’. Ook moet sprake zijn van ‘menselijke creativiteit’. Een AI-tool kan dus zelf geen auteursrechtelijk materiaal maken, omdat het zelf geen creatieve keuzes kan maken, en kan derhalve zelf geen auteursrechthebbende zijn.
De vraag is of iemand die gebruik maakt van een AI-tool, om bijvoorbeeld een tekst of afbeelding te genereren, wel een beroep kan doen op het auteursrecht. In dat geval moet er sprake zijn van voldoende menselijke creativiteit in bijvoorbeeld het promptontwerp, of in de bewerking van het product na afloop. Er bestaan op dit moment (2024) nog geen eenduidige afspraken om dit te bepalen.
Het kan wel zo zijn dat de maker van een prompt gezien kan worden als de auteur van die prompt en dat, in potentie, een prompt gezien kan worden als een auteursrechtelijk werk. Ook hier zijn, voor zover bekend, nog geen uitspraken over gedaan.
Binnen de Europese Unie wordt het trainen van GenAI modellen op basis van data gezien als een vorm van text- and datamining (TDM) en is derhalve toegestaan. Buiten de EU kunnen de regels anders zijn.
Als de TDM (of AI-training) bedoeld is voor wetenschappelijk onderzoek, kun je hier niet onderuit. Maar voor andere doeleinden, zoals het trainen van commerciele generatieve modellen, bestaat een opt-out mogelijkheid. Zorg er dan wel voor dat je dit zichtbaar en op een 'machine-readable' manier in je publicatie vermeld. Vooralsnog is echter onduidelijk hoe dit in de praktijk opgevolgd wordt.
Voorbeeld:
© 2024 [naam auteur of auteursrechthebbende onderneming] Auteursrecht ten aanzien van Tekst & Data en Machine Learning nadrukkelijk voorbehouden.
Het is raadzaam om zelf voorzichtig en terughoudend te zijn met het delen van auteursrechtelijk materiaal in een AI-tool/GenAI-tool. Wees ook voorzichtig met het delen van eigen materiaal waar je eventueel nog copyright op wilt claimen. Je ideëen kunnen gebruikt worden om het AI- systeem te trainen en vervolgens terugkeren in uitkomsten zonder dat de herkomst nog te traceren is.
Met GenAI gegenereerd materiaal is in meerdere opzichten anders dan materiaal dat je uit door anderen geschreven werk haalt, zoals artikelen of boeken. In veel gevallen kan de AI-gegenereerde output niet direct teruggevonden of gereproduceerd worden. Toch moet je wel naar door AI-gegenereerde content (zoals tekst, afbeeldingen, code etc.) verwijzen op het moment dat je dit materiaal in je eigen werk citeert, parafraseert of opneemt (denk bij dit laatste bijvoorbeeld aan afbeeldingen of video).
Niet alle bekende citatiestijlen hebben al officiële richtlijnen voor het refereren naar AI materiaal, maar de meeste geven wel suggesties in blogs of via andere kanalen. Voor een overzicht hiervan zie de LibGuide Citeren:
GenAI kan je ook suggesties geven voor bronnen en referenties die je kunt gebruiken. Controleer en verifieer die altijd! De kans bestaat dat deze bronnen niet bestaan of dat de bronvermeldingen fouten bevatten.
Docenten kunnen extra informatie van je vragen bij het gebruik van chatbots, denk hierbij aan het gebruik van een AI-tool om je spelling te laten nakijken of om je onderzoekszoekvraag te verbeteren. Ze kunnen vragen om een uitleg van wat je hebt gedaan, waarom je het hebt gebruikt, of vragen je specifieke prompts mee te sturen. Check de cursushandleiding of informeer van tevoren bij je docent of, wat, hoe en waar je die informatie moet vermelden.
Deel nooit privacy gevoelige informatie van anderen in AI-tools en pas op met het delen van (privacy)gevoelige informatie van jezelf. Wees je er ook van bewust dat naast de gegevens die je zelf deelt, een AI-systeem ook veel gegevens zal verzamelen zonder dat je dat direct in de gaten hebt.
Check altijd van tevoren de gebruiksvoorwaarden en het privacybeleid van de AI-tool die je wilt gebruiken en bedenk van tevoren of je je persoonlijke data wel wilt delen met de Big-Tech bedrijven achter die AI-tools.
Uit bijvoorbeeld de Privacy Policy van OpenAI (ChatGPT) kan je, onder andere, de volgende informatie halen:
Zie voor meer informatie over persoonlijke data de video What are personal data uit het Data Privacy Handbook van de Universiteit Utrecht.
AI heeft het in zich om de wereld te verbeteren. AI-toepassingen kunnen bijvoorbeeld gebruikt worden om ziektes op te sporen, weersvoorspellingen te doen of energieverbruik te optimaliseren. Het gebruik van AI heeft echter ook een impact op het milieu en de samenleving. Voordat programma’s als ChatGPT een antwoord op je vraag kunnen geven, worden er veel natuurlijke grondstoffen verbruikt. Weeg daarom altijd eerst af of je generatieve AI daadwerkelijk voor je project wilt inzetten.
Het opwekken en gebruik van energie voor AI zorgt voor stikstofuitstoot. Hoe hoog deze uitstoot – en daarmee de ‘carbon footprint' van AI – is, hangt o.a. af van de manier van opwekking van de energie (bijv. groen, gas, steenkool of kernenergie), de hardware die in datacentra wordt gebruikt en van de hoeveelheid parameters die er in het LLM zitten waarop de AI gebaseerd is. LLMs hebben een grote hoeveelheid inputdata en training nodig om zinvolle output te genereren, dus er is veel rekenkracht nodig.
Er is veel over de ecologische voetafdruk van de trainingsfase geschreven (zie bijvoorbeeld het Artificial Intelligence Index Rapport 2023), maar ook in de gebruiksfase (‘inference phase’) van AI wordt veel energie gebruikt (De Vries, 2023 en Goldman Sachs Research, 2024). Volgens die laatste kost een vraag aan ChatGPT momenteel 10 keer zoveel energie als een simpele zoekopdracht bij Google search.
Om te voorkomen dat datacentra oververhit raken, wordt zoetwater in koeltorens ingezet. Ook wordt water bij de fabricatie van hardware voor AI ingezet en in sommige gevallen om energie op te wekken. Door de toename in het gebruik van AI is hiervoor steeds meer water nodig. Onderzoekers van UC Riverside schatten dat voor twee weken training van ChatGPT-3 in datacentra van Microsoft in de V.S. ongeveer 700.000 liter water gebruikt werd (Li et al., 2023). Daar komt het gebruik van ChatGPT nog bij: dezelfde studie geeft aan dat 20-50 vragen aan ChatGPT ongeveer een halve liter water verbruiken. De Riverside-onderzoekers verwachten dat in 2027 4,2 tot 6,6 miljard kubieke liter water gebruikt gaat worden voor AI.
Het hoge verbruik van energie en vooral van zoetwater heeft gevolgen voor de mens, aangezien drinkwater door klimaatverandering steeds schaarser wordt. Ook de workflow van AI zelf heeft impact op onze samenleving. AI kan niet zelfstandig trainen: er zijn mensen nodig die de toepassing richting passende conclusies sturen en fouten corrigeren. Data moet stukje bij beetje opgeschoond en geclassificeerd worden. Dit ‘microwork’ wordt ook wel ‘ghost work’ genoemd, omdat dit werk lastig te controleren en reguleren is. Werknemers worden per taak betaald, zijn vaak arbeidsrechtelijk niet beschermd en hebben geen contact met hun leidinggevenden. Hoewel er volgens onderzoek van de Erasmus Universiteit Rotterdam (Morgan et al, 2023) ook veel ghost work in welvarende landen wordt uitgevoerd, wordt een groot deel van de ghost workers voor lage lonen gerekruteerd in de Global South, dat hier vervolgens zelf niet van profiteert (Chan et al., 2021).
Hoewel verschillende modellen tegen 2030 een sterke stijging van het energieverbruik van datacenters voorspellen, worden er gelijktijdig stappen ondernomen om de CO2-voetafdruk van AI te verkleinen.Nieuwe hyperscale datacenters gebruiken energie veel efficiënter. Er worden technieken ontwikkeld om de precisie van algoritmen te optimaliseren. Nieuwe koelsystemen worden ontwikkeld om zoveel mogelijk water te besparen. Een project van de Erasmus Universiteit Rotterdam ghost work in kaart om het werk en de arbeidsomstandigheden zichtbaar te maken. Groene AI is in opkomst, maar er moet nog veel gebeuren. Als consument bepaal jij ook de impact die AI heeft op het milieu en de samenleving. Het is daarom belangrijk om te begrijpen hoe je AI-tools zo efficiënt mogelijk kunt gebruiken door snelle engineering en het selecteren van de juiste tool voor specifieke taken.