Google's DeepMind leert liplezen door tv te kijken

Google heeft zijn kunstmatige intelligentie DeepMind voor een nieuwe uitdaging gezet. Het leert liplezen door televisieprogramma's te bekijken.

Google werkte daarvoor samen met de University of Oxford, dat al langer werkt aan liplezende software. Daar werd LipNet reeds gebouwd, een programma dat een woord juist kan raden in 93,4 procent van de gevallen. Veel accurater dan mensen kunnen liplezen, die hadden tijdens eerdere tests 52,3 procent van de woorden goed.   

Waar het LipNet-onderzoek werkte met een set standaard zinnen die overduidelijk werden uitgesproken, heeft DeepMind het een stuk lastiger. Google's AI analyseerde 5000 uur aan televisieprogramma's, waarbij de mensen op de beelden dus lang niet altijd duidelijk articuleren.

Beter dan mensen

Desondanks haalde DeepMind een score van 46,8 procent, waar 'professionele liplezers' (dus mensen) een score haalden van 12,4 procent.Google zou deze functie van de AI kunnen gebruiken om meer toegankelijkheidsopties in Android te bouwen, of om apps te ontwikkelen voor doven en slechthorenden.

Maar zoals The Verge meldt, kan dergelijke technologie ook hele andere doeleinden dienen. Wat te denken van eventueel toekomstige camera's met DeepMind ingebouwd? Het zouden perfecte spionnen zijn...

Deel dit artikel
Voeg toe aan favorieten