3,7 miljoner till AI-forskning som ger robotar en djupare förståelse av ordens innebörd
Amy Loutfi, professor i informationsteknologi vid Örebro universitet, har fått ett VR-anslag för hennes forskning som ska lära robotar om föremåls funktioner.
Ord har betydelse. När vi människor tänker på ett ord som ”äpple” får vi många associationer. Vi tänker på äpplets utseende, ljudet när vi biter i äpplet, konsistensen och smaken. Vi förstår också att ett äpple kan skivas, men fortfarande ätas. Detta är i dag omöjligt för en AI att förstå, vilket professor Amy Loutfi vill ändra på.
– Målet är att bidra till den grundforskning och de byggstenar inom AI som behövs för att bygga framtidens intelligenta maskiner som fungerar tillsammans med människor, säger Amy Loutfi.
Att se, uppfatta och tolka sin omgivning är en utmaning för ett artificiellt system. De senaste åren har forskningen inom artificiell intelligens lyckats utveckla sätt att använda AI för att exempelvis lägga texter till bilder, svara på frågor om bilder och även generera bilder utifrån en textbeskrivning.
Däremot har dagens robotar och intelligenta maskiner inte en djupare förståelse av hur ett objekt kan förändras och användas.
– Det är oerhört viktigt att framtidens robotar förstår vad vi menar med ord och kan skilja mellan en möjlig och omöjlig instruktion, till exempel: ”Häll kaffe i koppen” jämfört med ”Häll koppen i kaffe”, säger Amy Loutfi.
Detta är precis vad det nya forskningsprojektet, som Amy Loutfi leder och som finansieras med 3,7 miljoner kronor av Vetenskapsrådet, ska försöka uppnå.
Syftet är att lösa utmaningen med så kallad symbolförankring, det vill säga förmågan att kunna koppla språk till upplevelser av den yttre världen. Forskarna vill göra det möjligt för artificiella system att lära sig vilka funktioner objekt har, men också att kunna resonera om funktionerna. Detta ska ske genom att forskarna utvecklar nya AI-modeller som kombinerar maskininlärning med logiskt resonemang för att på så vis ge en djupare förståelse av ordens innebörd.
– Inom detta projekt vill vi också förstå hur vi på bästa sätt hjälper en robot att förankra språket till perception. Hur viktigt är det att roboten själv får interagera med sin omvärld? Kan det räcka med att låta roboten observera andra som interagerar eller att bara simulera en interaktion?
– Detta projekt ger oss möjligheter att utveckla grundteorier kring artificiell intelligens, samtidigt som forskningen kan ha bäring på hur nästa generations robotar utvecklas inom exempelvis industrin, säger Amy Loutfi.
Text: Jesper Eriksson
Foto: Linda Harradine