Podczas przesłuchania w Kongresie, na większośc pytań o to, w jaki sposób Facebook rozwiąże problemy pojawiających się w serwisie treści nawołujących do nienawiści, Mark Zuckerberg odpowiadał: rozwiąże to sztuczna inteligencja (AI – artificial intelligence). Za każdym razem gdy padało “AI” przewracałam oczami i szłam po herbatę. Patrząc na to, jak wyglądają rynkowe wdrożenia sztucznej inteligencji, naprawdę trzeba być człowiekiem wielkiej wiary (albo głupoty), żeby myśleć, że na dniach będziemy mogli pozwolić algorytmom podejmować takie decyzje.

Po każdej niemal rozmowie z szefem firmy, której rozwiązanie jest oparte o “sztuczną inteligencję”, zbieram szczękę z podłogi. Widzę świat oczami przyszłości, w której boty zastępują call center, wirtualni tłumacze przekładają z chińskiego na nasze w czasie rzeczywistym (nauka języków obcych staje się fanaberią), a procesy w firmie są tak zautomatyzowane, że jako ludzie kontakt z klientem mamy wyłącznie wtedy, gdy zasila nasze firmowe konto.

Im dalej w las, tym z reguły ciemniej. W odsłonie drugiej rozmawiam z klientami lub ludźmi od technologii w tej samej firmie i okazuje się, że tak tak, to będzie działało “tylko jeszcze”, “ale” i “tutaj będzie”. Wszystkie te “tylko” i “ale” składają się na wizję przyszłości, która jest fajna, ale na teraz to zwyczajnie nie działa.

Technologiczna rzeczywistość części firm wygląda tak, że za interfejsem rozwiązania opartego o sztuczną inteligencję stoi szef firmy, który kręci korbką. Tak, w miejsce korbki będą kiedyś zaawansowane algorytmy; tak, tutaj będzie się to rozwijało jak tylko pozyskamy wystarczająco dużo danych. Rozumiem, że uczenie się maszyn, które jest jedną z podstawowych technik analizy danych leżącą u podstaw sztucznej inteligencji, odbywa się na danych. Kłopot w tym, że wiele firm nie ma pomysłu skąd te dane pozyskać lub chce je pozyskiwać od własnych klientów. Czy ci klienci to wytrzymają? Ja wymiękam.

Mieliście okazję prowadzić kiedyś komunikację z chatbotem (automatycznym konsultantem) jakiejś firmy? “Nazywam się Ania. Jestem automatyczną konsultantką banku XY. Chciałabym zadać ci kilka pytań. Nie jestem człowiekiem, więc nie wszystko zrozumiem…” – usłyszałam ostatnio w słuchawce. Chwila, czy nie miało być tak, że sztuczna inteligencja to taka, która potrafi przejść Test Turinga? Test przechodzi taka maszyna, która potrafi komunikować się z człowiekiem w taki sposób, że nie odróżniamy tej rozmowy od pogawędki z człowiekiem. Ania z banku XY spaliła swoją szansę już na starcie, a mnie szkoda czasu na takie pogawędki.

Komunikacja to nie są warcaby
Jęk zawodu ludzkości rozległ się po raz pierwszy, gdy w szachy z maszyną przegrał arcymistrz Kasparov. Długo przed ofensywą maszyn broniła się popularna w Azji gra Go, która wymaga sporej porcji intuicji i kreatywności – bastion padł w 2016 roku, gdy stworzony przez Google’a Alpha Go pokonał mistrza Lee Sedola. Maszyna nie tylko analizowała miliony możliwych pozycji i ruchów, ale też powiązała moc obliczeniową z elementami sztucznej inteligencji, które wprowadziły  elementy procesu decyzyjnego podobnego do ludzkiego.

Nieco dłużej broniły się warcaby, ale i one zostały mistrzowsko rozegrane przez maszyny. Jednak są takie gry, w które “maszyny nie umią”. Chodzi o te, w których nie wszystkie informacje są podane na tacy oraz istnieje w nich element tak mglisty i niezerojedynkowy jak komunikacja międzyludzka. Dlatego maszyna jak dotąd nie wygrała z człowiekiem w brydża?

W brydżu bariery dla sztucznej inteligencji są dwie – po pierwsze karty są zakryte i znane tylko osobie, która trzyma je w ręku. Nie wszystkie dane są więc podane na tacy tak jak w grach planszowych, a podejmowanie decyzji przy niepełnych danych (bardzo ludzkie doświadczenie!) czy blefowanie (w innym ujęciu: działanie na przypał) to dla algorytmów poważny kłopot.. Druga sprawa – w brydżu partnerzy wysyłają sobie przy stole sygnały tak, żeby ich komunikaty nie zostały odczytane przez innych graczy. Taki poziom komunikacyjnej subtelności jest na teraz poza zasięgiem maszyn, nawet tych superinteligentnych.

Z twarzy podobny całkiem do nikogo
Facebook (a także inni technologiczni giganci) intensywnie pracują teraz nad jeszcze innym aspektem, który ma przybliżyć maszyny do ludzi: chodzi o umiejętność rozpoznawania twarzy i obrazów w ogóle. Maszyny umieją już mniej więcej rozpoznawać pismo i mowę (coraz lepsze, choć wciąż niedoskonałe Siri, Alexa czy Google Assistant). Naszedł czas na obrazy. Przyznaję, że zdobycze technologii rozpoznawania obrazów i twarzy są równie imponujące, co przerażające pod względem kalibru popełnianych przez nie błędów.

Imponująco wyglądają przeanalizowane przez oprogramowanie zdjęcia tłumu, na których system sam jest w stanie wskazać, która osoba jest poszukiwanym przestępcą, która znanym VIP-em, co na obrazie jest pozostawionym bagażem, a który obiekt reprezentuje staruszkę wymagającą pomocy.

Problemy pojawiają się wtedy, gdy trzeba zinterpretować obraz w dość nieoczywistym kontekście. Algorytmy działają tak, że dzielą każdy obraz na małe kwadraciki, analizują co na nich jest i wypluwają interpretację. Popełniane przez nie błędy trochę przypominają różne cuda, gdy ludzie w pniu drzewa lub zacieku na oknie widzą twarze świętych. I tak algorytm jest w stanie uznać ludzkie kolano lub goły brzuch za twarz – rzeczywiście czasem fałdki tak jakoś się układają… Miewa też problem z perspektywą i określeniem wielkości obiektów, gdy na zdjęciu nie ma punktu odniesienia:  uznaje, że człowiek na tle góry to są dwa obiekty o tych samych rozmiarach lub że ptak jest samolotem. Trochę słabo.

Okazuje się, że sztuczna inteligencja nie tylko popełnia krytyczne błędy, których my nigdy byśmy nie popełnili. Raz po raz rozwiewa też marzenia o tym, że będzie bardziej  od nas sprawiedliwa, bezstronna, pozbawiona uprzedzeń. Algorytmy dyskryminują: okazuje się, że nie rozpoznają na zdjęciach twarzy innych niż białe. Sprawę nagłośniła absolwentka MIT Joy Buolamwini, gdy okazało się, że jako Afroamerykanka  jest rozpoznawana przez oprogramowanie na zdjęciach tylko wtedy, gdy założy białą maskę. Pominięcie osób o innym niż biały kolorze skóry wynika z tego, że algorytmom dano do tej pory analizować głównie twarze o jasnym kolorze skóry. Decyzję o tym podjął człowiek i trudno przenieść odpowiedzialność za to na maszynę.

Problem jest szerszy, dlatego Joy Buolamwini walczy dziś z dyskryminacją i uprzedzeniami w świecie algorytmów w organizacji Algorythmic Justice League.

Połowa ekspertów od sztucznej inteligencji twierdzi, że technologia zastąpi ludzi do 2040 roku. Druga połowa, że jeszcze wcześniej. Ja natomiast uważam, że wiele jeszcze wody upłynie zanim będziemy w stanie zaufać algorytmom w  podejmowaniu naprawdę ważnych decyzji w najistotniejszych społecznie sprawach. A decyzja o tym, czy ktoś w naszym serwisie jest dyskryminowany, nawołuje do nienawiści na tle rasowym czy religijnym do takich właśnie należy. Czekanie aż AI rozwiąże palące problemy społeczne, które dzieją się tu i teraz,  jest naprawdę nieodpowiedzialne, panie Zuckerberg.