Tekniken för att imitera och animera ansiktsuttryck har förbättrats avsevärt de senaste åren. Sensorer som fångar upp de små rörelserna i ansiktet har vuxit i popularitet i takt med att intresset för spel och filmer i vr ökat, eller kanske är det förbättringarna som lett till ett ökat intresse. Oavsett vilket så har forskare nu gjort det möjligt att köra applikationer som uppfattar och spårar rörelserna med vanliga webbkameror.

Målet för forskarna är att i realtid animera ansiktsuttrycken så verkligt som möjligt, skriver de i en rapport. Till hjälp har de tagit en skådespelare, vars rörelser förs över till den ursprungliga videon. Det som skiljer metoden från tidigare är att forskarna enbart använt RGB-video, eller komponentvideo, för att föra över videosignalerna.

Läs också: Här krockar Googles självkörande bil med en buss

Bakom algoritmen står tre forskare från universiteten vid Stanford och Erlangen-Nuremberg samt Max-Planck-Institute of informatics. Första steget var att lösa problemet med ansiktsigenkänning via monokulära kameror.

Personen som ska animeras fångas upp i ett neutralt läge och det ansiktsuttrycket sparas. Därefter läggs skådespelarens uttryck till och synkroniseras och det hela ser ut som att det faktiskt är presidenten, eller den animerade personen, som talar.