Zespół badaczy z japońskiego Uniwersytetu Kyushu opublikował właśnie wyniki swojej pracy oceniającej skuteczność działania systemów rozpoznawania obrazów opartych na sztucznej inteligencji. Naukowcy próbowali znaleźć sposób na oszukanie najpopularniejszych systemów wykorzystujących głębokie sieci neuronowe.

Zazwyczaj proces przygotowania takich systemów do działania polega na uczeniu ich poprzez przedstawienie dużej ilości przykładowych zdjęć, dzięki którym AI może uzyskać wiedzę o wyglądzie przedmiotów, zwierząt czy innych obiektów.

Wyniki badań pokazują, że w 74% przypadków wystarczyło zmienić jeden piksel na zdjęciu testowym aby wprowadzić AI w błąd.

Sztuczna inteligencja czasami myliła się tylko odrobinę identyfikując psa jako kota, a czasami trochę bardziej – biorąc widoczny na zdjęciu bombowiec typu stealth za najlepszego przyjaciela człowieka.

Metoda podmiany pojedynczego piksela pozwoliła na oszukanie wszystkich poddanych próbom systemów rozpoznawania obrazu. Jak powiedział kierownik zespołu naukowców – Pan Su Jiawei – nie istnieje zestaw danych lub sieć odporna na tego rodzaju ataki bardziej niż inne.

„As far as we know, there is no data-set or network that is much more robust than others,”

Komentując wyniki badań naukowców z Kraju Kwitnącej Wiśni – Pan Anish Athalye z Massachusetts Institute of Technology (MIT) powiedział, że wiele zespołów z całego świata pracuje obecnie nad tym zagadnieniem. Jako przykład dziwnego błędu systemu zgłębianego przez MIT podał przypadek wydrukowanego w 3D żółwia, który przez sztuczną inteligencję jest niezmiennie mylony z karabinem.

Ponadto zauważył, że z uwagi na fakt, iż coraz więcej systemów funkcjonujących w realnym świecie wykorzystuje sieci neuronowe – problem możliwego wprowadzenia ich w błąd z wykorzystaniem przykładów kontradyktoryjnych staje się poważnym powodem do niepokoju.

„More and more real-world systems are starting to incorporate neural networks, and it’s a big concern that these systems may be possible to subvert or attack using adversarial examples,”

Dodał, że choć jak na razie brakuje przykładów oszukiwania takich systemów w realnym życiu to jednak łatwość z jaką można tego dokonać jest poruszająca. Firmy takie jak Facebook, Google czy Amazon wiedzą o problemie i pracują nad własnym zabezpieczeniem przed tego rodzaju atakiem.

Stwierdził też, że społeczność badaczy zajmujących się uczeniem maszynowym nie rozumie w pełni powodu występowania problemów z przykładami kontradyktoryjnymi.

„The machine learning community doesn’t fully understand what’s going on with adversarial examples or why they exist,”

Pan Su Jiawei uważa, że przyczyną powstawania tych anomalii może być sposób w jaki uczą się sieci neuronowe. Niestety nie widzi łatwego sposobu usunięcia tego problemu i wskazuje, że jak dotąd wszystkie opracowane rozwiązania okazały się nieskuteczne.

Mając na uwadze, że obecnie na świecie coraz szerzej stosuje się systemy rozpoznawania obrazu bazujące na sztucznej inteligencji – możliwość ich łatwego oszukiwania jest istotnym problemem. Ciekawe czy podobne trudności mieli autorzy systemów służących do rozpoznawania twarzy? Jeśli tak to być może szersze ich wdrożenie np. w smartfonach nie okaże się taką rewolucją jak zapowiadano.

Źródła: bbc.com, źródła grafiki: własne



Tagi: ai, Massachusetts Institute of Technology, przykłady kontradyktoryjne, sieci neuronowe, systemy rozpoznawania obrazu, Sztuczna inteligencja, Uniwersytet Kyushu w Fukuoka,

Dodaj komentarz

Bądź pierwszy!

Powiadom o
avatar
wpDiscuz