Rzecz niesłychana. Ludzie – słysząc “sztuczna inteligencja”, przestali kojarzyć ją z morderczymi terminatorami, tak przynajmniej wynika z badania zaprezentowanego na konferencji Rozmowy o Przyszłości, zorganizowanej przez Huawei. Ale mało kto wie, że na wielu polach z tą sztuczną inteligencją już obcuje. Sprawę wyjaśnia dr Aleksandra Przegalińska, jedna z najbardziej wziętych ekspertek tej branży, uczestniczka konferencji “Rozmowy o przyszłości” Huawei.
INNPoland.pl: W ostatnich latach tematyka sztucznej inteligencji przybrała na znaczeniu. Dzisiaj jest ona obecna nawet w ogólnodostępnych rozwiązaniach dla konsumentów, jak np. w smartfonie Huawei P20 Pro.
Dr Aleksandra Przegalińska, Akademia Leona Koźmińskiego: To prawda.
Skąd ten wzrost popularności?
Sama próbuję sobie tłumaczyć tę trochę jednak turbulentną sytuację. Z jednej strony jest bardzo przyjemna dla ludzi, którzy zajmują się tą dziedziną. Z drugiej jest dość niekomfortowa, bo nagle uwaga wszystkich skupia się na SI, a gdy coś nie wychodzi w tej dziedzinie, wszyscy mocno dostajemy po uszach.
Po prostu przyszła jej pora?
Tak. Naturalnym cyklem jest znajdowanie sobie nowych, wielkich tematów. Teraz jesteśmy na SI i blockchainie, ciekawe, co będzie następne. Kolejny powód to popkultura, która zawsze miała apetyt na tę dziedzinę i dorabiała jej nieistniejące elementy.
Nie mamy humanoidalnych robotów, które działają jak w filmie „Ex Machina”. „Westworld”, „Blackmirror”, przykłady tych produkcji można mnożyć, wszędzie tematem przewodnim jest relacja człowieka z maszyną.
Na konferencji “Rozmowy o przyszłości” Huawei, na której byłaś jedną z głównych ekspertek w zakresie SI, pojawiły się ciekawe badania. Wynika z nich, że ludzie – w porównaniu z zeszłym rokiem – mniej się tej sztucznej inteligencji obawiają.
Niewiedza napędza obawy, to normalne.
Z badania wynikało, że przy mniejszych obawach nie do końca wiedzą, z czym to się je. A przecież pewne rozwiązania SI są już teraz. Ot, choćby w smartfonach, weźmy nowinkę – Huawei P20 Pro.
Rozwiązania sztucznej inteligencji odpowiadają tam np. za automatykę aparatu. Rozpozna dany obiekt, sam dobierze najlepsze możliwe ustawienia aparatu, by użytkownik mógł fotografować jak profesjonalista. W dodatku Huawei P20 Pro sam je wykadruje czy ograniczy drgania przy nagrywaniu filmów.
Albo w zarządzaniu zasobami smartfona P20 Pro, dzięki czemu – mimo Androida – płynność systemu nie zwalnia po pierwszych paru miesiącach, jak to zwykle bywa. To wszystko rozwiązania SI, które działają w tle, a których nie jesteśmy do końca świadomi.
I może przez to mniej się obawiamy. SI w tle nie brzmi tak groźnie, jak inteligentny, humanoidalny robot.
Oczywiście. To wynika też z badań, które prowadzimy. Im bardziej humanoidalna jest SI, tym mocniejsza jest emocja. Różny jest wektor, może być pozytywna lub negatywna, ale zaangażowanie jest znacznie silniejsze. Weźmy Netfliksa dla przykładu.
Sugerowane pozycje do obejrzenia?
Tak. Korzystając z Netfliksa, korzystasz z systemu deep learningowego, który analizuje ogrom danych, w tym twoje preferencje i podrzuca ci propozycje. Jeśli ludziom powiedzieć, że tak naprawdę oglądając Netfliksa, sami są oglądani przez sztuczną inteligencję, to by pewnie wzbudziło silne emocje. Ale gdy rozwiązanie działa w tle, to na nikim nie robi większego wrażenia. W ogóle to my, ludzie, jesteśmy bardzo prostymi mechanizmami.
Gwiazda tegorocznego Impactu.
Tak, najważniejszy prelegent, ogromne, szalone emocje, poruszenie, nie tylko zresztą w Polsce, ale gdziekolwiek by nie pojechała. I wjeżdża taka humanoidalna maszyna, coś mówi, nieważne co mówi, i tak jest fetowana. Z drugiej strony mamy
AlphaGo, sztuczną inteligencję firmy Deep Mind, która ograła wszystkich możliwych ludzkich mistrzów w grę go. Jej rezultaty robią wrażenie, ale nikt specjalnie na nie nie reaguje. A intelektualnie AlphaGo wydaje mi się mocniejszy niż Sophia, to jest prawdziwy mikromózg.
Masz na to jakieś wyjaśnienie?
Wiesz, wydaje mi się, że my jesteśmy takim typem istnienia biologicznego, że potrzebujemy interfejsów podobnych do siebie samego. Jeśli tego interfejsu nie ma, to nasza uwaga się wycisza, zainteresowanie maleje. Żeby SI nie budziła w przyszłości lęku, będzie musiała działać w tle. Jak właśnie w przywołanych przez ciebie telefonach. To przyszłość, która jest już dziś, choć ludzie tego jeszcze nie widzą.
A jak z rozpoznawaniem emocji przez telefon? Np. w Huawei P20 Pro lub w jego następcy, to technologicznie możliwe?
To ciekawy i rosnący standard, detekcja obrazu i mimiki. Są już takie proste nakładki, jak np. darmowy projekt Affectiva, które analizują mimikę. Ale na razie to proste aplikacje, raczej do zabawy, spektrum emocji wyrażanych przez człowieka niewerbalnie jest zbyt szerokie.
Pytam trochę przewrotnie. W niektórych telefonach już jest funkcja, która uniemożliwia pisanie SMS-ów, jeśli telefon wykryje, że posiadacz prowadzi…
To mi się akurat bardzo podoba.
…Teraz pójdźmy krok dalej – czy telefon powie mi, „piłeś, nie dzwoń”, „masz rozszerzone źrenice, jesteś wzburzony, nie pisz teraz tego maila” i wyłączy czasowo określone funkcje?
Facebook swego czasu prowadził taki eksperyment, nazywał się „M”. To taki projekt twojej wirtualnej sekretarki, odpowie na wiadomość, jeśli cię nie ma. Takie raczej proste czynności, trochę bot, trochę asystentka głosowa. I „M” miał też chronić wizerunek użytkownika.
Chronić go przed nim samym?
Tak. Jeśli wykryje, że używasz brzydkich słów, to zapyta, czy na pewno chcesz wysłać tę wiadomość. Czy na pewno chcesz opublikować to zdjęcie. Ostatecznie projekt zamknięto.
To by był zbyt daleko idący impuls. Może fajnym rozwiązaniem byłby system wykrywający zmęczenie, który powie „wsiadasz do auta, nie powinieneś, bo jesteś wyczerpany lub zestresowany, przemyśl to dwa razy”. Zatem w takim wymiarze ostrzegawczym, czemu nie, pewnie się to stanie. Ale nie kontrola użytkownika, czy czasowe blokowanie funkcji ze względu na jego stan. Przynajmniej w kulturze zachodniej, to byłoby absolutnie nie do przyjęcia.
Przeskoczmy na chwilę na rynek pracy, to też był wątek wspomnianego raportu – ludzie się tego obawiają. SI tę pracę zabierze, nie zabierze?
Mamy straszny chaos informacyjny w tym temacie. W poniedziałek pojawia się raport wieszczący automatyzację tylu i tylu procent zawodów, a we wtorek OECD pisze, że będziecie pracować w przyszłości znacznie więcej, niż pracujecie, nawet sobie nie wyobrażacie.
Ja, z pozycji osoby wewnątrz tej branży, mogę mieć do SI swoje zastrzeżenia i obawy, ale bliżej mi jednak do raportu OECD, który mówi, że nie będzie żadnego leniuchowania, tylko zasuwanie. Bo z jednej strony SI stworzy nowe zawody, z drugiej będzie potrzebowała współpracy i nadzoru człowieka, by się uczyć.
Żadnego wylegiwania się pod palmą z bezwarunkowym dochodem podstawowym?
Niestety, nie wydaje mi się. Poza tym ja mam z tym dochodem taki problem, że to jakieś załamanie systemu, że nie wiem, jak ma w tym działać kapitalizm. Bo załóżmy, że ludzie dostają ten dochód podstawowy. Oni nie będą w stanie zostać siłą nabywczą tych wysokotechnologicznych produktów, kontrolowanych przez tę wąską grupę pracujących, nazwijmy ich technoelitą. Jak to ma działać? Czekam na jakąś kontrpropozycję.
Jestem zwolenniczką wersji, która mówi, że będzie bardzo dużo nowych zawodów, będzie konieczność ponownego doszkalania się i nabywania nowych kompetencji. Oczywiście nie obejdzie się bez bólu, wielu ludzi wypadnie z rynku pracy, są czynności, których jako ludzie w ogóle nie będziemy się imać, ale ten proces bezrobocia technologicznego trwa w zasadzie od XIX w., zawsze było tak, że struktura rynku się zmieniała, wypadały jedne zawody, pojawiały się inne.
Bo nic nie zapowiada rewolucji prawdziwej sztucznej inteligencji, taką, która rozumie, myśli, czuje, ma wolę i świadomość. Wiele zwykłych ludzkich czynności jest niealgorytmizowanych.
No nasza rozmowa, teraz. Tego się nie da zalgorytmizować. Zatem część zawodów nie ma się czego obawiać.
A te, które mają, np. kierowcy?
Okej, branża autonomicznych pojazdów mocno się rozwinęła, ale ja nie wierzę, jak jakaś firma krzyczy w raporcie, że do 2023 r. tylu kierowców straci pracę. To bezsensowne straszenie. Bo nikt nie jest w stanie powiedzieć, w jakiej formie te samochody wejdą.
Półautonomiczne? Z nadzorem człowieka? Samodzielne? Wyobrażasz sobie sytuację, gdzie połową samochodów kierują ludzie, drugą połową komputery? Przecież to same problemy i bolączki by stwarzało. Dlatego ja stoję na stanowisku, że automatyzacja zmienia rynek pracy, a nie go likwiduje. A gdyby chcieć się przygotować, to co warto studiować, jakich kompetencji szukać?
Wybrać zawód z gatunku niealgorytmizowanych, choć technologia będzie w nich mniej lub bardziej obecna. Jeśli ktoś chce być częścią tego biznesu skupionego wokół SI, to studia związane z tym tematem lub analityką danych. To bardzo rozwojowy obszar. W Akademii L. Koźmińskiego otworzyliśmy kierunek o sztucznej inteligencji, SGH czy Politechnika mają podobne związane z analityką danych, to kierunki rozwoju, które powinny być brane pod uwagę.
Artykuł powstał we współpracy z Huawei.