Förra månaden släppte Google beta-versionen av sin artificiella intelligens som de tagit fram för att klassificera videomaterial, men tråkigt nog för Google tog det knappt en månad innan ett gäng forskare vid University of Washington satt AI:n ur spel. Det rapporterar The Register.
Helt utan insyn i hur systemet fungerade lyckades forskarna nämligen lura AI:n att Googles exempelvideo, som visar en tiger, egentligen föreställer en bil av märket Audi. Det enda som behövdes var att de periodvis förde in en bild på en bil i videon, i hastigheten av en bildruta varannan sekund.
Läs också: FBI:s system för ansiktsigenkänning – en enda röra

”Notera att vi kunde lura Googles Cloud Video Intelligence API utan att veta något om inlärningsalgoritmerna eller molnarkitekturen som användes av API:n. Vi tog fram metoden för att lura API:n genom att ifrågasätta systemet med olika inputs”, skriver forskarna i sin rapport.

Att forskarna så enkelt lyckades skjuta ned Googles teknik kan ses som lustigt, men enligt forskarna själva är resultatet betydligt allvarligare än man kan tro. Då de anser att maskininlärningssytem ofta curlas av sina utvecklare vilket kan få stora konsekvenser, till exempel om ett bristfälligt videoklassificeringssystem skulle användas för att analysera videomaterial från en brottsplats.
Läs också: Fejkade upplopp och artificiell intelligens ska lära oss förstå människors känslor
”Maskininlärningssystem är oftast designade och framtagna med det underförstådda antagandet att det ska placeras i gynnsamma miljöer. Men, som många pekat ut är de svaga i motsägande miljöer”, skriver forskarna.