På väg mot att robotar fattar vanligt språk
Amy Loutfi, professor i informationsteknologi vid Örebro universitet, har fått 3,7 miljoner kronor från Vetenskapsrådet för att utveckla en metod för hur en robot ska klara av att förstå när en människa talar till den.
– Vår vision är att vi en dag ska kunna instruera en robot med vanligt språk. Du ska kunna packa upp din nya robot hemma och tala om för den vad den ska göra utan att programmera den i detalj, säger Amy Loutfi, som är knuten till Centrum för tillämpade autonoma sensorsystem, AASS, vid Örebro universitet.
Forskarnas mål med detta projekt är att koppla ord som människor använder för att beskriva handlingar och föremål, till sensordata som roboten samlar in om sin omgivning, detta med en teknik inom robotik som kallas för perceptuell förankring.
Denna koppling mellan sensordata och ord öppnar för nya användningar av robotar. Det utmärkande med detta projekt är att forskarna ska utveckla algoritmer som hittar särdrag i robotarnas sensordata. Algoritmer är komplexa och bygger på samma struktur som den mänskliga hjärnan och kallas för djup maskininlärning. På så sätt blir artificiell intelligens bryggan mellan robot och människa.
– Vi vill att roboten själv ska lära sig hur människor utför vardagliga sysslor genom att observera hur vi beter oss hemma. I ett kök skulle en robot till exempel kunna lära sig att koppar är till för att innehålla vätska och för att dricka ur, medan skedar användas till att röra om med, säger Amy Loutfi.
– För att uppnå vår vision måste vi skapa ett bättre samspel mellan människor och robotar. Det kan också leda till att vi kanske kan få en bättre förståelse av hur den mänsklig hjärna fungerar genom att återskapa samma förmågor i en maskin, säger Amy Loutfi.