Uczciwi nie mają się czego bać, to wszystko dla naszej wygody, i dla naszego dobra. Za każdym razem, gdy rząd czy korporacja mówi, że coś jest dla naszego dobra, trzeba te dobra należycie zabezpieczyć. A potem zacząć rozglądać się nieufnie i sprawdzać, co takiego znowu nam niedobrego szykują.
Technologia rozpoznawania twarzy miała mieć wyłącznie dobre zastosowania. Po pierwsze i chyba najważniejsze, miała służyć naszemu bezpieczeństwu. Ktoś nas okradł, ale mamy jakiegoś anonima na zdjęciu z kamery. Cyk, jakieś magiczne linie przesuwają się po niewyraźnej twarzy złoczyńcy, minuta osiem i już wiemy, że z naszym rowerem w siną dal udał się Jan Nowak, zamieszkały aktualnie przy ulicy Przestępczej 10. Pana Jana nad ranem policja zakuwa w kajdan i spotyka go zasłużona kara. My odzyskujemy rower, którego nie zdążył sprzedać. Zwycięża sprawiedliwość.
Albo lepiej. Muhammad Ata czy Marwan al-Shehhi nigdy nie weszliby na pokład lotów 11 i 175, bo lotniskowe systemy rozpoznawania twarzy wyłapałyby obu panów i ich wspólników na tyle wcześnie, że zaalarmowane służby miałyby szansę i czas na skojarzenie faktu, że jak pięciu podejrzanych typów wsiada na pokład jednego samolotu, to być może nie lecą nim przypadkowo a ich zamiary nie są czyste.
Jeżeli argument bezpieczeństwa nas nie przekonuje, to może wygoda? Wyobraźcie sobie, że idziecie po galerii handlowej, kamery w mijanych sklepach rozpoznają w was regularnych klientów, odpowiednie oprogramowanie wysyła do aplikacji tej galerii powiadomienia, że dzisiaj jest promocja. I już nie musicie się zastanawiać, czy warto wchodzić. Jasne, nie ma to zastosowania do tych osób, które po prostu lubią po sklepach spacerować, ale dla mnie, który idzie tam wyłącznie po zakupy, to rozwiązanie byłoby idealne.
Albo na przykład dajemy dyspozycję na naszej stałej stacji benzynowej, że jak system rozpozna naszą twarz, to maszyna ma nam zawsze lać do pełna, ściągać pieniądze z konta, a fakturę wysyłać na maila. Regularnie kupujemy ten sam zestaw w fast-foodzie? Proszę pokazać twarz, zamówienie numer 78, to co zwykle, czeka na opłacenie. Przelew czy płatność na twarz już się dzieją. Wkrótce niczego już nie będziemy robić, tylko pokazywać nasze oblicze do komórki, a centrala zadba o resztę. Nie wszystkim jednak się ten stan rzeczy podoba. No bo wiecie. Nasza prywatność i jej permanentne naruszanie przez firmy, które na niej zarabiają, ale się z nami nie dzielą.
W kontekście rozpoznawania twarzy, czy jak wolą niektórzy facial recognition, największą chyba do tej pory bezczelnością, wykazał się startup Clearview AI. Żeby nauczyć swoją sztuczną inteligencję skutecznego rozpoznawania twarzy, trzeba było karmić algorytm wieloma zdjęciami prawdziwych ludzi. A potem, jak już się nauczy te twarze rozpoznawać, musi je mieć z czym porównać, bo co z tego, że program powie "znam gościa", jak nie wiadomo co to za gość. Skąd zatem brać zdjęcia do takiej bazy danych? Tak jest! Należy je pobrać z serwisów social mediowych. Clearview AI ukradło takich zdjęć ponad 3 miliardy, ściągając je z Facebooka, Twittera i YouTube, z pogwałceniem jakikolwiek warunków korzystania z tych serwisów. O pytaniu właścicieli o zgodę na wykorzystanie tych zdjęć, mowy nie było w ogóle.
Część osób poczuła się zagrożona, i w tych stanach, w których prawo daje takie możliwości, założyli Clearview AI sprawy, które obecnie toczą się w Illinois, Kaliforni, Nowym Jorku i Vermont. Firma zmieniła warunki korzystania ze swojego serwisu i przestała go oferować podmiotom prywatnym. Okazało się bowiem, że jej system rozpoznawania twarzy wykorzystywały takie firmy, jak Best Buy, Macy's, Walmart, Madison Square Garden, kasyna w Las Vegas czy NBA. Oczywiście głównymi klientami pozostają agendy rządowe oraz lokalne i stanowe wydziały policji, ale udostępnianie kradzionej bazy zdjęć Walmartowi, to dla przyzwoitego człowieka jest już chyba za dużo.
Nic więc dziwnego, że obywatele, których prywatność jest gwałcona na każdym kroku, w wyjątkowo bezczelny sposób, chcą się bronić. Na przykład uczestnicy pokojowych protestów, nie chcą być później szykanowani tylko dlatego, że jakiś system ich rozpoznał, stojących metr obok kogoś, kto właśnie wybija szybę wystawową. Policja może nie wnikać, czy byliśmy wspólnikiem zajścia, czy niekoniecznie, tylko po pozytywnej weryfikacji, że my to my, zawinie nas profilaktycznie, żeby sprawdzić, co się działo. A po co uczciwemu człowiekowi, który protestuje w granicach prawa, takie kłopoty?
Dlatego dekadę temu, student Adam Harvey wymyślił metodę, którą nazwał CV Dazzle aka Computer Vision Dazzle. Co znaczy computer vision wszyscy wiemy, ale zrobię przerwę na objaśnienie niepozornego członu Dazzle (oślepiać, olśnić). Była to metoda kamuflażu, stosowana podczas pierwszej wojny światowej, do malowania okrętów wojennych i statków handlowych idących w konwojach. Miała na celu dezorientowanie obserwatorów z niemieckich U-bootów.
Kamuflaż typu dazzle
I gdy patrzy się teraz na ten kompletnie sprzeczny z intuicją, rzucający się w oczy, kubistyczny kamuflaż, to faktycznie – okręt czy statek widać jak na dłoni. Ale gdy obserwator ogląda go przez peryskop, może mieć problem z oceną nie tylko prędkości czy typu jednostki, ale i kierunku, w jakim ta płynie. Podczas drugiej wojny światowej, takim kamuflażem przyozdabiano również pokłady jednostek, w celu zdezorientowania wrogich pilotów. Jednak wraz z rozwojem namiarów elektronicznych, optyczny kamuflaż stracił na znaczeniu.
CV Dazzle to makijaż, który ma zdezorientować systemy rozpoznawania twarzy. Adam Harvey 10 lat temu, metodą inżynierii odwrotnej przeanalizował algorytm służące temu zadaniu, i jednym z jego odkryć był wzór makijażu, oszukujący system. Należy jednak pamiętać, że przez ostatnią dekadę, technologia poczyniła gigantyczny skok i coś, co działało wtedy, teraz, w starciu ze sztucznymi inteligencjami, nie ma najmniejszych szans. W tej chwili odpowiednio nałożonym makijażem, możemy co najwyżej oszukać system identyfikacji twarzy w naszym telefonie komórkowym. Dlatego gdy idziemy na protest i nie jesteśmy pewni, czy będzie on do końca pokojowy, najlepsza metodą pozostaje niezawodna kominiarka, ewentualnie pełna maska na twarz.
Przykładowy makijaż, mający oszukać systemy rozpoznawania twarzy
Warto też wspomnieć o próbach zabezpieczania naszych zdjęć przed wrzucaniem ich do bazy danych, z której potem systemy rozpoznawania twarzy będą je wyławiać. Badacze z Uniwersytetu Chicago opracowali narzędzie, które maskuje nasze zdjęcie w sposób, który ogłupia te systemy. Odbywa się to przez odpowiednią zmianę pikseli na zdjęciach. Na tyle subtelną, że nie zniekształca zbytnio naszych ulubionych selfie, ale na tyle znaczącą, że pozwala to oszukać wspomniane systemy. A te, które się z takich zdjęć dopiero uczą, karmi błędnymi danymi. Testy w Facebooku pokazują, że ich wewnętrzne systemy rozpoznawania twarzy, w starciu z tym programem poległy.
Narzędzie nazywa się Fawkes, na cześć Guya Fawkesa, a konkretnie jego maski, upowszechnionej przez komiks i film V for Vendetta, i będącej znakiem rozpoznawczym protestujących we wszystkich zakątkach świata.
Remember, remember the fifth of November. Gunpowder treason and plot
Algorytm maskowania Fawkes ma jednak sens wyłącznie w sytuacji, w której będzie powszechnie stosowany. Nie ma możliwości, żeby zadziałał w wyniku jakiejś oddolnej akcji internautów, bo wszyscy wiemy, jak takie zrywy wyglądają – zapał wygasa po godzinie. Natomiast gdyby takiego narzędzia użył Facebook, to wtedy jest zupełnie inna rozmowa. Facebook, któremu od zawsze nasza prywatność leży na sercu, nie wyklucza wprowadzenia takiego rozwiązania. A wtedy może miałoby to jakiś sens.
A na razie zalecamy ostrożność we wrzucaniu zdjęć do sieci na lewo i prawo oraz zakrywanie całej twarzy na protestach. Niczego lepszego na razie nie wymyślimy.
Photo by Tarik Haiga on Unsplash