‘We lopen iets vooruit op wat er universitair gebeurt’, vertelde FGGA-decaan Koen Caminada tijdens de faculteitraadsvergadering. ‘Voor de zomer hebben we een document gemaakt gericht op medewerkers rondom het gebruik van AI. Binnen de universiteit was er nog niet echt iets, maar ons document is inmiddels goed ontvangen.’
Volgens Caminada hebben studenten ‘al een vertaling gezien’ van dat document en staat er bij ieder vak – waarop het van toepassing is – in Brightspace een tool waarin beschreven staat wat er wel en wat er niet gedaan mag worden met AI.
‘Onze visie is dat we AI op zichzelf omarmen’, vervolgt Caminada. ‘Het is er gewoon en we kunnen het niet negeren. Ik denk dat het ook positief gebruikt wordt, maar tegelijkertijd hoort daar ook de kanttekening bij dat we niet naïef moeten zijn en ook moeten kijken naar de negatieve effecten. Dan heb ik het niet alleen over het plegen van plagiaat, maar ook over hoeveel energie het kost.’
Medewerkers krijgen trainingen en een ‘AI Green Light’-checklist, en er komt ruimte voor pilots en experimenten. Maar de faculteit benadrukt ook dat er grenzen zijn. Zo is het gebruik van AI verboden bij gevoelige data, automatische beslissingen of gedragsbeïnvloeding. Wel kan de technologie helpen bij praktische taken als samenvatten en herschrijven. Tegelijk waarschuwt FGGA voor bredere risico’s, zoals milieubelasting, afhankelijkheid van techbedrijven en verschraling van kritisch denken.
‘Het is een document dat zich constant, net als AI, blijft ontwikkelen’, aldus de decaan. ‘Dat moet ieder jaar herzien worden.’ Vice-decaan Maarja Beerkens benadrukt dat de faculteit ook nog de eigen visie op AI in het onderwijs op papier zal zetten. ‘Maar we moeten ook accepteren dat we sterk moeten blijven ontwikkelen, dus die ruimte moeten we ook meenemen in dat statement.’
‘Heb je op dit moment ook goede tools om te controleren wat AI is en hoe betrouwbaar zijn die tools’, vroeg faculteitsraadslid Niklas Spilker. ‘We hebben een lijst met de tools waarvan wij zeggen: die mag je wel gebruiken en die mag je niet gebruiken’, antwoordde Caminada. ‘Dat staat allemaal met de kleuren groen en rood aangegeven. Er zijn namelijk ook tools, daar mag je echt niet mee aan de gang.’ Beerkens: ‘Op dit moment zijn dat soort tools niet betrouwbaar. Daarom kunnen we het wel verbieden of beperken, maar kijken we liever naar andere manieren om hiermee om te gaan.’
‘We hebben zoiets van: gebruik het nu, want we moeten leren hoe we ermee om moeten gaan’, aldus de decaan na afloop van de vergadering. Medewerkers moeten het vertrouwen krijgen om met AI te werken, de mogelijkheden te ontdekken en te experimenteren, maar daarover wel volledig transparant zijn. ‘Wees niet naïef en gebruik geen namen of vertrouwelijke informatie. Let ook op welke tools je gebruikt, want je weet niet altijd waar die informatie opgeslagen wordt. Zo gebruiken we geen tools waarbij de informatie in Amerika of China opgeslagen wordt.’
Caminada: ‘Het is een beetje andersom dan hoe er binnen de universiteit wordt gereageerd. Daar wordt eerst gewaarschuwd voor AI en dan gaan we het pas gebruiken. Wij vinden het juist wel leuk als mensen ermee experimenteren. De hele wereld is ermee bezig, dus dan kun je maar beter meebewegen.’