AI i utbildning – kan man lita på en undervisningsrobot?

Forskarna i projektet vill förbättra kunskapen om hur AI kan användas på ett ansvarsfullt sätt inom undervisning.

Framtidens utbildning står inför stora förändringar när språkmodeller, som ChatGPT, börjat användas av såväl lärare som elever för att söka, presentera och testa faktakunskaper.

Människoliknande robotar används också i ökande grad inom undervisning, eftersom interaktionen liknar den med en mänsklig lärare och de därför kan ha större positiv effekt på elevers inlärning än andra undervisningsmedia. När dessa robotar nu börjat använda språkmodeller för att konversera med elever förbättras också förutsättningarna för naturliga samtal.

Samtidigt är det välkänt att språkmodellerna ibland hallucinerar, d.v.s. att de presenterar felaktiga fakta med stor övertygelse. Detta leder till två fundamentala frågor när språkmodeller styr sociala robotar som interagerar med elever: Kan eleverna lita på de fakta som roboten presenterar? Kan en robot hjälpa elever att korrekt bedöma påståenden från språkmodeller, genom att med ord, röst och ansiktsuttryck signalera hur säker den är på att den har korrekt fakta?

Frågorna är mer komplexa än vad de först kan verka, inte minst eftersom olika grupper av elever är mer eller mindre benägna att tro på de fakta som robotar presenterar. Det är därför viktigt att lärare kan identifiera elever som riskerar att bli vilseledda och att elever tränas i kritiskt tänkande för att kunna bedöma påståenden från en robot eller språkmodell. 

Forskarna i projektet kommer att undersöka hur olika egenskaper hos elever (exempelvis kön, attityd till och erfarenhet av AI-teknik, utbildningsnivå) påverkar om de kan avgöra om påstående från en robot är sanna eller falska. De kommer också att pröva om elevers kritiska tänkande i samtal med AI kan stärkas av övning.

När man ska bedöma om man ska tro på en annan persons påståenden är orden som valts, hur de sägs och ansiktsuttrycket när de sägs av mycket stor betydelse. Dagens språkmodeller framför däremot såväl sanna som falska fakta med precis samma övertygelse och det kan därför vara svårt att avgöra när man kan lita på dem. Människoliknande robotar skulle däremot kunna använda rösten och ansiktet för att uttrycka hur säkra de är på sina påståenden för att på så sätt underlätta för elever att avgöra om påståendena är korrekta. 

Forskargruppen kommer att undersöka hur elevernas kritiska tänkande påverkas av om roboten verkar säker eller tveksam på rösten och i sitt ansiktsuttryck. Målet är att förbättra kunskapen om hur AI kan användas på ett ansvarsfullt sätt inom utbildning med olika grupper av elever.

Projekt:
”Att lära sig interaktioner med hallucinerande robotar”

Huvudsökande:
Professor Olov Engwall

Medsökande:
KTH
Olga Viberg
Uppsala universitet
Katie Winkle

Lärosäte:
KTH

Beviljat anslag:
3,9 miljoner kronor