Do tej pory ludzie, którzy mówili o zagrożeniu dla świata, jaki stanowią maszyny, byli uważani za fantastów, a tematu nie podejmowano w akademickich ośrodkach. Wszystko zmieniło się w 2014 roku, kiedy naukowcy, filozofowie, reżyserzy dokumentów i biznesmeni na świecie po raz pierwszy poważnie mówili o niebezpieczeństwach, jakie będzie stanowić dla ludzkości sztuczna inteligencja.
Jeżeli się pomyśli, że w temacie wypowiadało się w tym roku kilku noblistów, w tym fizyk Frank Wilczek i jeden z najważniejszych umysłów naszych czasów – Stephen Hawking, sprawa zaczyna wyglądać poważniej. Do tego można dodać stwierdzenie założyciela PayPala i ważnego mecenasa nauki Elona Muska o tym, że samodzielnie myślące roboty mogą okazać się groźniejsze niż broń nuklearna.
Może w najbliższym czasie nie musimy bać się, że Siri czy system GPS doprowadzi do zagłady ludzkości, ale maszynom trzeba zacząć patrzeć na ręce. I nie chodzi tu o budowanie katastroficznych wizji przyszłości, jak w "Terminatorze", "Matrixie", czy tegorocznej, słabo przyjętej przez krytyków "Transcendencji".
Wyrzuceni z pracy przez maszyny
Skupieni na MIT i w Oxfordzie naukowcy otworzyli nowe instytuty badające, jak sztuczna inteligencja zagraża ludziom. Ich zdaniem koniec może być dużo bardziej prozaiczny niż scenariusze filmowe. Biją na alarm, że maszyny w przyszłości mogą zabrać ludziom pracę (przewiduje się, że będą wykonywać połowę z 700 przebadanych przez profesorów z Oksfordu zawodów).
Nie chodzi tu tylko o zawody wymagające siły fizycznej, maszyny mogą też przejąć część zadań ludzi wykonujących zajęcia umysłowe. Trwają już na przykład prace nad stworzeniem algorytmu, który będzie pisał lepsze newsy niż reporterzy.
Jednak to nie to zagrożenie spędza naukowcom zajmującym się sztuczną inteligencją sen z powiek. W końcu ludzie radzili sobie już wcześniej z poważnymi kryzysami ekonomicznymi, dlaczego nie mieliby znaleźć rozwiązania także w sytuacji, gdy maszyny pracują więcej?
Spinacze przyczyną zagłady
Wśród naukowców rozpatrywany jest poważnie scenariusz, że maszyny zaprogramowane do wykonywania jakiejś jednej czynności (często podaje się przykład tak błahy jak produkcja spinaczy), tak się na tym skupią, że doprowadzą do zniszczenia cywilizacji...
Teoretyzują, czy maszyny nastawione na tylko jeden cel, nie zużyłyby wszystkich surowców i źródeł energii, by przechytrzyć ludzi i nie dać się zatrzymać. Niektórzy naukowcy przewidują, że jeżeli mielibyśmy do czynienia z naprawdę wybitną sztuczną inteligencją, w takiej sytuacji nie byłoby dla nas ratunku.
Zagrożenia zagrożeniami, ale pod uwagę trzeba też wziąć ogromne korzyści, które płynęłyby ze zbudowania komputera analizującego dane i wyciągającego wnioski dużo szybciej niż ludzie.
Wszyscy ludzie będą tak samo ostrożni?
Stephen Hawking, Max Tegmark , Stuart Russell i Frank Wilczek w swoim felietonie pisali, że wszystko, co cywilizacja ma do zaoferowania, to produkt ludzkiej inteligencji. Nawet nie jesteśmy w stanie sobie wyobrazić, co byśmy osiągnęli, gdyby ludzkiej inteligencji pomogły narzędzia, które da sztuczna inteligencja. Rozwiązanie problemu wojen, chorób i biedy znalazłoby się ich zdaniem wysoko na liście typowanych korzyści.
Sztuczna inteligencja przyniosłaby ludziom dobrobyt, ale i mogłaby stać się ich przekleństwem. Wszystko zależy od tego, czy będziemy w stanie zachowywać się ostrożnie.
Moralne samochody
Obawy naukowców i organizacji pozarządowych podzielili w tym roku także filozofowie. Pojawiły się pytania kto ma odpowiadać za moralność maszyn, na przykład samojezdnych samochodów? Prognozuje się, że w przyszłości będą one mogły przejąć większość ruchu na drogach.
Okazuje się, że autonomiczne auta mają lepszy refleks niż normalni kierowcy, są zatem lepsze w unikaniu wypadków niż my. Ale co jeżeli wypadku nie da się uniknąć? Jak zachowa się samojezdny samochód, kiedy na jezdnię znienacka wyskoczy dziecko i jedyną drogą ucieczki przed potrąceniem młodego człowieka będzie wpakowanie się w drzewo lub do rowu, czego efektem może być śmierć pasażera samochodu?
Teoretycznie, pierwsze prawo robotyki głosi, że "robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy". Ale jak będzie w praktyce, trudno przewidzieć.
Kontrargumenty ze "Star Treka"
Akademicki boom na rozpatrywanie społecznych zmian, które sztuczna inteligencja może przynieść, trwa w najlepsze. Ale są też naukowcy, którzy do zagrożeń albo do ich niedalekiego wpływu na nasze życie odnoszą się z większą rezerwą.
– Nie widzę żadnych dowodów, które powodowałyby, że powinniśmy się martwić. Ale nie ma też żadnych dowodów, że martwić się nie powinniśmy – takiej salomonowej odpowiedzi udzielił CNN Gary Marcus z New York University.
Na osiągnięcie przez maszyny takiego samego poziomu inteligencji i świadomości sytuacji co ludzie jeszcze trochę poczekamy. Do rozwiązania zostało jeszcze kilka technicznych problemów (przykładowo granice miniaturyzacji).
Być może też, zamiast producentów zabójczych spinaczy pojawią się też maszyny, które nie będą czystą, zimną myślą analityczną, tylko będą chciały odczuwać. Dr hab Piotr Bilski, jeden z laureatów Nagrody Naukowej "Polityki", podaje przykład androida Data, jednego z bohaterów "Star Treka". Komandor statku kosmicznego sztuczną inteligencją włada, ale pragnie posiadać duszę.
Ten typ maszyny z przyszłości chce mieć uczucia, poczucie humoru i moralne zasady, tak jak my, ludzie. I może w dniu filmowego "buntu maszyn" weźmie naszą stronę.
Reklama.
Stephen Hawking i inni naukowcy
Wykreowanie sztucznej inteligencji byłoby najważniejszym wydarzeniem, w historii ludzkości. Niestety mogłoby być też ostatnim, jeżeli nie nauczymy się unikać ryzykownych sytuacji. Przykładowo, w najbliższej przyszłości, armie świata poważnie zastanawiają się nad wprowadzeniem autonomicznego systemu obronnego, który eliminowałby wybrane przez siebie cele. UN i Human Rights Watch apelują, by zakazać takich rozwiązańCzytaj więcej