"Przyszłości sztucznej inteligencji nie da się przewidzieć". Tomasz Rożek o tym, czy grozi nam bunt maszyn

Michał Jośko
Zapraszamy do rozmowy z Tomaszem Rożkiem, fizykiem, dziennikarzem naukowym oraz popularyzatorem nauki, którego zapewne znasz z programu "Sonda 2" bądź kanału "Nauka. To lubię". Dziś ramach cyklu "Huawei Rozmowy o Przyszłości 2019" nie tylko wyjaśnia mnóstwo kwestii dotyczących sztucznej inteligencji, lecz i uświadamia, na jak wiele pytań... po prostu nie ma odpowiedzi.
Tomasz Rożek przewiduje (częściowo) przyszłość Fot. archiwum własne
Poprzewidujemy nieco przyszłość?

Możemy ją ekstrapolować i przyjrzeć się dzisiejszym trendom technologicznym, aby na tej podstawie wyciągać jakieś wnioski. To bardzo nieprecyzyjna, choć niestety jedyna, metoda. Przyszłości po prostu nie da się przewidzieć.

Cofnijny się na moment do wieku XIX, gdy rozgorzała wielka dysputa dotycząca coraz większej ilości koni w miastach. Rozmaici specjaliści dokonywali wówczas szczegółowych obliczeń, po czym bili w dzwony, alarmując: za parę lat końskie łajno na ulicach dosięgnie pierwszego piętra! Tyle tylko, że za owe kilka lat pojawiły się już samochody i wszystkie przewidywania okazały się całkowicie błędne.

Wróćmy do teraźniejszości – z czego wynika główny problem ze zrozumieniem, czym tak naprawdę jest sztuczna inteligencja?

Z tego, że mamy generalny problem z definicją inteligencji ludzkiej. Gdy ktoś mówi, że technologia AI to coś, do niej podobnego, pytam: czyli jakiego?

Bo pojęcia, przy pomocy których intuicyjnie staramy się zdefiniować nasz sposób myślenia, są bardzo trudno mierzalne i definiowalne. Można np. stwierdzić, że człowiek inteligentny to ktoś, kto dużo wie. Naprawdę? Przecież można być inteligentnym nawet bez wykształcenia.

W ogóle jakiekolwiek próby precyzyjnego zdefiniowania inteligencji – czy to ludzkiej, czy sztucznej – już na samym początku skazane są na niepowodzenie. W przypadku pierwszym chodzi o to, że mamy do czynienia z czymś, do czego podchodzimy intuicyjnie.

Rozmawiając z kimś, jesteśmy stwierdzić, czy jest inteligentny. Lecz gdy mielibyśmy w pięciu punktach wyjaśnić, dlaczego tak uważamy, zaczniemy się gubić. Dziś mamy do czynienia z sytuacją, gdy w nasze życie wkroczyła jakaś technologia, obwieszczając: hej, ja też to mam! A ja nie wiem, czy wierzyć jej na słowo.

Jak duży problem sprawia tutaj pewna bezosobowość AI?

Naukowcy od lat starają się nadać maszynom pewne cechy charakteru, czyli coś, co jest kolejnym z trudno definiowalnych pojęć. Przecież już w latach 40. ub. w. powstały dwa żółwie-roboty o imionach Elmer i Elsi; proste konstrukcje w kształcie żółwi.

Wyekwipowano je w czujniki, dzięki którym roboty – gdy kończyła się im energia elektryczna – mogły szukać źródła światła, umieszczonego obok stacji ładowania. Elmera zaprojektowano tak, że w owych poszukiwaniach był bardzo gwałtowny. Z kolei Elsi robiła to w sposób spokojny. Jak widać, uwzlędniono tu stereotypowe cechy charakterystyczne dla płci.

Czy w tym momencie możemy już stwierdzić, że te roboty miały cechy charakteru? Nie, bo różnice wynikały wyłącznie z drobnej zmiany konstrukcyjnej; tego, że nieco inny sposób zlutowano jakiś drucik w układzie elektronicznym.

Ludzie często dopatrują się sztucznej inteligencji w urządzeniach czy oprogramowaniu, w których tak naprawdę jej nie ma. Podsunąłby pan jakiś prosty sposób na zdefiniowanie "prawdziwej" AI?

Świetnym przykładem może być tutaj komputer, który pokonuje arcymistrza szachowego. Choć wielu uznaje to za triumf sztucznej inteligencji, zupełnie się z tym nie zgadzam.

Triumfem byłoby dopiero to, gdyby temu samemu komputerowi powiedzieć: świetnie, gratulacje – wygrałeś w szachy, ale teraz zrób to samo w grze Monopoly. Będzie bezradny. To bardzo wydajne liczydło, które choć imponuje swymi możliwościami, to stoi za nimi wyłącznie przetwarzanie gigantycznych ilości danych.

Moja definicja sztucznej inteligencji jest taka: musimy mieć do czynienia z algorytmami, które potrafią sobie radzić z sytuacjami, w których nigdy wcześniej nie były. Nie tylko korzystać z wprowadzonych danych, lecz także nabywać dzięki nim zupełnie nowe umiejętności.

... oraz wykorzystywać je, aby w przeciwieństwie do człowieka podejmować decyzje na chłodno, bez poddawania się emocjom, obiektywnie?

Tak, lecz jedynie przy założeniu, iż obiektywny jest ów ogromny zbiór danych, który wcześniej dostała do dyspozycji. Będzie z niego wyciągać wnioski w sposób pozbawiony emocji; przecież nie może mieć słabszego dnia, być zestresowana lub sugerować się jakimiś osobistymi pobudkami.

Lecz przyjrzyjmy się na moment człowiekowi: o kimś godnym zaufania mawia się "tej osobie dobrze patrzy z oczu". Czy to ocena subiektywna? Nie, wręcz przeciwnie. Nasz mózg uważnie analizuje całe mnóstwo danych, takich jak chociażby wyraz twarzy. Okazuje się, że wyciąganie wniosków na takiej podstawie wychodzi mu bardzo dobrze.

Przecież nawet gdy owa osoba uśmiecha się do nas, potrafimy wyłapać charakterystyczny sposób napięcia mięśni mimicznych i uznać, czy to uśmiech szczery, czy wymuszony. Dzięki temu potrafimy podświadomie określić: z tym człowiekiem możesz iść kraść konie, a od tego trzymaj się z daleka.


Czy to właśnie takie oceny wizualne sprawiają, że konstruktorzy chętnie ubierają zaawansowane technologie w doskonale znane nam kształty, zbliżone do ludzkich albo zwierzęcych?

Zdecydowanie tak. Pamiętajmy, że tego rodzaju rzeczy są dla nas jeszcze nowością. Dotyczy to naszych rodziców, naszego pokolenia i prawdopodobnie jeszcze naszych dzieci. Czy dla naszych wnuków AI będzie czymś zupełnie normalnym? Być może.

Lecz na razie inżynierowie wciąż oswajają nas z pewnymi rzeczami, opakowując je we wspomniane przez pana kształty. Dodajmy do tego inne zabiegi, jak chociażby montowanie robotom ogromnych "dziecięcych" oczu. No i proszę zauważyć, że większość syntezatorów mowy używa głosu kobiecego. Ewolucyjnie mamy do niego większe zaufanie.

Czy nastąpi moment, w którym zaufamy sztucznej inteligencji w pełni, bez wahania powierzając jej ludzkie zdrowie i życie? Chodzi o moment, w którym wszystkie samochody i samoloty będą w pełni automoniczne.

Nie jestem pewien, czy taki dzień nastąpi kiedykolwiek, gdyż mamy tutaj do czynienia z mnóstwem kwestii mocno problematycznych. Już dziś niektórzy głoszą, że np. za sterami samolotu człowiek jest zbędny, lecz z tą opinią można zgodzić się jedynie do czasu, gdy lot przebiega bez zakłóceń – wówczas elektronika jest o wiele bardziej nieomylna niż człowiek.

Lecz w sytuacji awaryjnej autopilot zareaguje wyłącznie wtedy, gdy została ona uwzględniona w jego oprogramowaniu. W innym przypadku algorytmy będą bezradne.


Jak to? Czyżby w samolotach nie stosowano najnowszych rozwiązań z zakresu AI?

Nie. W samolotach "prawdziwej" sztucznej inteligencji praktycznie nie ma. Pamiętajmy, że cykl konstruowania takich maszyn jest znacznie dłuższy, niż w przypadku samochodów. Od pierwszej wizji konstrukcji, poprzez całe mnóstwo testów i ulepszania całości, aż do wprowadzenia finalnych poprawek mija kilkanaście bądź wręcz kilkadziesiąt lat.

Tak więc definicji to, co wzbija się w powietrze, zasadniczo jest już przestarzałe – i pod kątem hardware'owym, i software'owym. Często zaimplementowanie najnowocześniejszych rozwiązań nie jest możliwe, gdyż konstruktorzy przed laty nie przewidzieli takiej opcji.

Lecz przecież rozwój branży samochodów automonicznych nie boryka z takim problemem...

Moim zdaniem technologicznie jesteśmy w pełni gotowi na to, aby używać ich masowo. Jedyną przeszkodą są tutaj kwestie prawne. Widzi pan, wciąż nie potrafimy dostosować do współczesnych realiów jednej z podstawowych zasad starożytnego prawa rzymskiego, głoszącej, że za każdą sytuację musi być odpowiedzialna konkretna osoba.

Natomiast gdy samochód autonomiczny np. zabije dziecko, pojawi się wielka niejasność, kogo obwinić. Wsadzić do więzienia informatyka, który pomylił się podczas tworzenia oprogramowania?

No dobrze, w tym układzie przejdźmy do smartfonów, czyli urządzeń, w których AI jest już stosowane na szeroką skalę.

Bardzo szeroką. Podejrzewam, że gdybym wziął do ręki pański telefon i przejrzał zainstalowane w nim aplikacje, znalazłoby się sporo rzeczy, które korzystają ze sztucznej inteligencji, choć czasami nawet nie mamy świadomości tego faktu.

Doszliśmy do punktu, w którym przyzwyczailiśmy się jej dobrodziejstw, choć nawet ich nie zauważamy. Gdyby pozbawić nas technologii, która wykorzystuje algorytmy zdolne wyciągać wnioski i uczyć się, życie stałoby się nieznośnie irytujące.

Pierwszy przykład z brzegu: Spotify, czyli aplikacja do słuchania muzyki. Proponuje nam różne piosenki, lecz nie robi tego w "zwyczajny" sposób, wybierając utwory z bazy danych w sposób przypadkowy.

Nie, przecież jeżeli posłuchamy trzykrotnie "Brothers In Arms", będzie wiedziała, że lubimy Dire Straits. A przecież programista nie mógł wcześniej zakodować wszystkich możliwych sytuacji, jedynie uwzględnił pewne ramy, na podstawie których algorytm nadaje muzyce Dire Straits pewne wartości.

W ten sposób następnego dnia zasugeruje mi muzykę wykonawcy, o którym wcześniej nawet nie słyszałem, a jednak... bardzo mi się podoba. Dodajmy, że zawsze trafia bez pudła! No, może za wyjątkiem sytuacji, w których dzieci podebrały mi smartfona i słuchały "swojej" muzyki, wprowadzając w ten sposób dane, które algorytmowi zaburzyły postrzeganie mojej osoby i nieco go skołowały (śmiech).

I to jest właśnie prawdziwa inteligencja: technologia w jakiś sposób nadaje kryteria, kategoryzuje to, czego słuchamy, co oglądamy albo czytamy.


A co z lękiem dotyczącym buntu maszyn, przejęcia przez nie władzy nad światem?

Jest naturalną rzeczą. Ważne, aby pamiętać, iż technologia z zasady nie jest zła albo dobra. To jedynie kwestia tego, jak jej użyjemy, jakie wartości jej nadamy. To jak z nożem, którego możemy użyć do różnych celów. No albo technologią jądrową, wykorzystaną albo do skonstruowania bomby jądrowej, przy pomocy której zniszczy się Hiroszimę i Nagasaki, albo wybudowania elektrowni, dzięki której zmniejszymy problem zanieczyszczenia powietrza.

Gdy główna dysputa toczy się wokół samej technologii, powinniśmy skupić się raczej na człowieku, który ją tworzy i wykorzystuje.

Natomiast do buntu potrzebne są własne cele, czyli samoświadomość. To kolejne pojęcie, które rozumiemy intuicyjnie, lecz gdy przychodzi do precyzyjnego opisu, mamy kłopot.

Czy samoświadomość to osobna cecha, którą możemy przekazać technologii, włączać ją i wyłączać? Czy pewnego dnia obudzimy się w świecie, w którym samoświadomość maszyn pojawiła się samoistnie (w momencie, gdy AI osiągnęła odpowiednią skalę, a komputery zdobyły całą wiedzę o wszechświecie)? Tego po prostu nie wiadomo...