Basisregels AI in het onderwijs
De mogelijkheden van Artificiële Intelligentie (AI)-tools bieden voor studenten en docenten mooie kansen om sneller en anders te werken. Het leidt ook tot vragen over wanneer we wel en wanneer we niet AI-tools kunnen gebruiken. De RUG heeft daarom een set van 10 basisregels opgesteld om verantwoord en competent gebruik van AI, en specifieker Generatieve AI (GenAI), te integreren in het onderwijs en aan te sluiten bij academische werkwijzen en academische kernprincipes.
De impact van AI verschilt sterk per discipline. Daarom kunnen op het niveau van jouw faculteit, opleiding en vak aanvullende regels gelden.
GenAI
De basisregels gaan vooral over Generatieve AI (GenAI). Met GenAI wordt bedoeld: AI-modellen die in staat zijn om nieuwe en unieke content te genereren zoals tekst, beelden, geluid of andere vormen van output. Tools met GenAI-functionaliteiten zijn bijvoorbeeld ChatGPT, Google Bard en DALL-E. Uitgebreide informatie over types AI-tools, tips over gebruik, en de mogelijke impact op onderwijs vind je op RUG EDU Support.
Tien RUG-basisregels voor gebruik van AI in onderwijs
Let op: op het niveau van faculteiten, opleidingen en vakken kunnen aanvullende regels gelden.
- Gebruik van AI-tools mag als hulpmiddel voor algemene functionaliteiten (studietool/assistent/input voor eigen werk). Onder algemene functionaliteiten vallen bijvoorbeeld brainstormen, inspiratie opdoen, samenvatten van algemene informatie, verfijnen van eigen werk (taalcorrectie, taalassistent), vertalen, en zelfstudie/sparring partner (proeftentamenvragen en -antwoorden genereren). Let op: AI-tools zijn geen betrouwbare wetenschappelijke bronnen en de output moet altijd kritisch volgens academische werkwijzen worden verwerkt. Studenten zijn altijd zelf verantwoordelijk voor het ingeleverde werk.
-
Bij gebruik van GenAI-functionaliteiten (creatie van nieuwe content, vervanging van eigen werk), dan altijd benoemen/verwijzen. Het belangrijke onderscheid met de functionaliteiten zoals genoemd onder regel 1 is als met GenAI het eigen werk en leerproces deels wordt vervangen of uitbesteed. Als een student GenAI gebruikt op een andere manier dan omschreven onder regel 1, dan moet dit expliciet worden benoemd. Op deze manier kan de docent ook gerichter feedback geven over het aanleren van academische werkwijzen en verantwoord gebruik van tools. Een benoeming/verwijzing moet onder een herkenbare naam, zoals onder methodiek/bronnen/referenties. In de benoeming/verwijzing staat tenminste:
- naam en versie van de tool
- doel en wijze van gebruik
- Als er naast regels 1 en 2 aanvullende regels zijn over het gebruik van GenAI- functionaliteiten dan wordt dit voor aanvang van het vak gecommuniceerd. Bij twijfel, vraag de docent. Gebruik van tools voor andere functionaliteiten dan genoemd onder regel 1 kan wel, helemaal niet, of deels zijn toegestaan. Dat kan verschillen per opleiding en vak, want is afhankelijk van de leeruitkomsten. Studenten worden hierover tijdig (voorafgaand aan het vak) geïnformeerd via i.i.g. de syllabus/Brightspace.
-
Gebruik van AI-tools geldt als fraude als:
- het ingeleverde werk zodanig niet meer van de student zelf is dat kennis, inzicht en vaardigheden zoals omschreven in de leeruitkomsten niet kan worden beoordeeld en getoetst. Het in een dergelijke mate uitbesteden van werk aan tools (of aan iemand anders) is niet toegestaan, want het raakt de kern van academische werkwijzen. De student moet altijd zelf verantwoordelijkheid kunnen nemen voor het verifiëren en analyseren van informatie en voor de eigen wetenschappelijke onderbouwing. Docenten begeleiden studenten in het onderwijs om deze koppeling te begrijpen.
Of
- door de student geen correcte benoeming/verwijzing over het gebruik is opgenomen. Nooit toegestaan is een letterlijke kopie van GenAI-output (of welke andere output dan ook) dat wordt ingeleverd als eigen werk. Hierbij gelden de definities van fraude/plagiaat zoals omschreven in de Onderwijs- en examenregelingen (OER) van de opleiding. De Examencommissie van de opleiding moet altijd per geval vaststellen of sprake is van fraude.
- het ingeleverde werk zodanig niet meer van de student zelf is dat kennis, inzicht en vaardigheden zoals omschreven in de leeruitkomsten niet kan worden beoordeeld en getoetst. Het in een dergelijke mate uitbesteden van werk aan tools (of aan iemand anders) is niet toegestaan, want het raakt de kern van academische werkwijzen. De student moet altijd zelf verantwoordelijkheid kunnen nemen voor het verifiëren en analyseren van informatie en voor de eigen wetenschappelijke onderbouwing. Docenten begeleiden studenten in het onderwijs om deze koppeling te begrijpen.
- Maak gebruik van de positieve functionaliteiten van AI-tools, maar wees bewust en kritisch. AI-tools bieden veel mooie kansen. Bij gebruik van tools bestaan ook risico’s omtrent betrouwbaarheid van output (feitelijke onjuistheden, biases, onbestaande verwijzingen) en verwerking van data (schending auteursrechten en privacy, beveiliging en opslag van persoons-, bedrijfs- en onderzoeksdata). Voer daarom geen gevoelige gegevens of data in. Volg de AVG. Het valt onder de eigen verantwoordelijkheid om AI-tools bewust, kritisch en verantwoord te gebruiken.
- Bij verplicht gebruik van tools in het onderwijs zijn verwerkers- overeenkomsten/RUG-licenties een voorwaarde. Als er geen verwerkersovereenkomst is tussen de RUG en de eigenaar van de tool en/of er is geen RUG-licentie, dan mogen studenten niet verplicht worden om zelf een persoonlijk account aan te maken of om een tool (of versie met meer functionaliteiten) aan te schaffen. Er moet dan een kosteloos en vergelijkbaar alternatief worden geboden. Dit geldt ook voor open source tools. De verwerking en opslag van persoonsgegevens en data moet goed geregeld bij zijn bij verplicht gebruik in het onderwijs en studenten moeten over gelijke hulpmiddelen beschikken.
- Scores van AI-detectietools gelden niet als bewijs voor fraude. Fraudescores gegenereerd door AI-detectietools mogen vanwege onbetrouwbaarheid (hoog risico op foutieve scores en ontbrekende transparantie over de werking van de tools) niet gebruikt worden als bewijs voor fraude door een student. Examinatoren zijn verantwoordelijk voor het nagaan van authenticiteit van ingeleverd werk, de beoordeling, en het melden van een vermoeden van fraude/plagiaat aan de Examencommissie van de opleiding. Examencommissies stellen fraude/plagiaat vast en moeten een student die verdacht wordt van fraude/plagiaat in de gelegenheid stellen te worden gehoord.
- Docenten zijn eindverantwoordelijk voor de beoordelingen van studenten en de inhoud van het onderwijs. Docenten worden aangemoedigd om hulpmiddelen te gebruiken bij onderwijs en toetsing, zoals geautomatiseerd nakijken van Multiple Choice tentamens volgens vooraf opgestelde antwoorden. Niet toegestaan is echter geautomatiseerde besluitvorming/becijfering op basis van een GenAI-model, zonder een menselijke controle op het beoordelingsproces. De Examinator is wettelijk de eindverantwoordelijke voor het afnemen van tentamens en het vaststellen van de uitslag.
- Wijziging van toetsvormen omwille van validiteit van toetsing wordt tijdig gecommuniceerd. Een extra mondelinge check door de docent is mogelijk bij een vermoeden van fraude. Om de validiteit van toetsing te bewaken, kan het nodig zijn om toetsvormen aan te passen. Bijvoorbeeld een wijziging van een schriftelijke naar mondelinge toetsvorm. Dit mag alleen als de leeruitkomsten nog steeds vastgesteld kunnen worden. Studenten moeten hierover tijdig geïnformeerd worden (via Ocasys) en wijzigingen van toetsvormen tijdens een studiejaar zijn in beginsel niet toegestaan, behoudens situaties van overmacht. Bij een vermoeden van fraude mag ook een extra onderzoek worden gedaan via een mondelinge check. Dit is geen extra toetsmoment. Wel dienen studenten vooraf gewezen te worden op deze mogelijkheid.
- Bij scripties/eindwerken vindt tussentijdse controle plaats. De scriptie, of het eindwerk, is een belangrijk onderdeel van de opleiding waarin veel van de leeruitkomsten worden getoetst. Daarom is er altijd tussentijdse controle (bijvoorbeeld via een gesprek of tussenproduct) op de authenticiteit van het werk en het totstandkomingsproces. In veel gevallen vindt deze controle al plaats. Tussentijdse controle hoeft niet bij te dragen aan de eindbeoordeling, maar dit mag wel.
RUG-beleid AI in Onderwijs
De basisregels zijn onderdeel van breder RUG-beleid over AI in onderwijs. Dit beleid is tijdelijk, gezien de snelle ontwikkelingen rond AI. Als nodig, dient het beleid weer geüpdatet te worden. De RUG wil dat studenten binnen de context van hun studie worden opgeleid tot competente en verantwoorde gebruikers van AI-tools, aansluitend bij academische werkwijzen, attitudes en kernprincipes. De RUG hanteert daarom basisregels en heeft actielijnen uitgezet om studenten en docenten te ondersteunen.
Opleidingen zullen hun onderwijs, toetsing en leeruitkomsten moeten doornemen en bepalen in hoeverre deze door AI-tools worden beïnvloed. Een one-size-fits-all benadering hiervoor bestaat niet, omdat de impact verschilt per opleiding en discipline. Faculteiten kunnen het instellingsbeleid daarom aanvullen met eigen regels en activiteiten, naargelang hun eigen context. Zo kunnen we, binnen gezamenlijke kaders, samen de veelbelovende mogelijkheden van AI-tools verkennen. Vind hier het volledige RUG-beleid AI in Onderwijs [PDF].
Laatst gewijzigd: | 28 oktober 2024 14:07 |