"Wywiad" z nieżyjącą Wisławą Szymborską, który przeprowadziła również sztucznie wygenerowana dziennikarka, wywołał w Polsce wstrząs. Czy słusznie się oburzamy? Czy może musimy przyzwyczaić się do takich rzeczy? Dr hab. Dominik Batorski, socjolog i analityk danych w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego UW, Robert Firmhofer, założyciel i dyrektor Centrum Nauki Kopernik w Warszawie oraz dr hab. Kazimierz Krzysztofek, socjolog SWPS, naukowo zajmujący się m.in. zagadnieniami społeczeństwa informacyjnego – ich pytamy o zdanie.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Eksperci w jednym są zdecydowanie zgodni. Świat idzie do przodu, jesteśmy świadkami postępu, brakuje tylko regulacji prawnych dotyczących wykorzystania sztucznej inteligencji. Tu jesteśmy jeszcze w powijakach i proces ten niekoniecznie przebiegnie bardzo szybko.
Oto co o eksperymencie Off Radia Kraków mówią nam eksperci ze świata nauki.
AI jako Szymborska. "Dziennikarz AI może też robić wywiad z realną osobą"
– Mnie tego typu sytuacje dosyć cieszą – przyznaje dr hab. Dominik Batorski, socjolog i analityk danych w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) UW.
Od razu zaznacza jednak, że mamy do czynienia z nową technologią, której normy wykorzystania dopiero się kształtują. Tak było od zawsze.
– Kiedy pojawiły się samochody, to stworzenie prawa o ruchu drogowym zajęło nam trochę czasu. Potrzeba było na to wielu lat. Teraz jesteśmy na początku tej drogi. I też zajmie nam to trochę czasu – komentuje w rozmowie z naTemat.
Tłumaczy, że dopiero nowe normy społeczne i regulacje określą, jak można będzie wykorzystywać AI. Co będą mogły media, co powinny prezentować, a czego nie. Jak np. powinna wyglądać kwestia oznakowania wywiadów z użyciem AI.
– Nie widzę problemu, żeby tworzyć audycje generowane za pomocą AI. Dziennikarz AI może też robić wywiad z realną osobą. Jednak kwestia oznakowana zawsze powinna być istotna. W przypadku Off Radia Kraków była informacja, że było to wygenerowane – zwraca uwagę.
Jednak w przypadku "wywiadu" z nieżyjącą Wisławą Szymborską widzi inny problem.
– Wydaje mi się, że on narusza normy. Pomijam już, jak beznadziejnie został zrobiony. W tej chwili takie rzeczy można robić porządnie, to jednak nie jest ten przypadek. Ale nawet gdyby został zrobiony lepiej, to i tak nie broniłby się od strony moralnej. To podszywanie się pod osobę, której zgody na to nie ma. Chodzi o ochronę dobrego imienia, czy wizerunku osoby, której to dotyczy. Myślę, że w tym wypadku po stronie spadkobierców jest dochodzenie swoich praw – komentuje ekspert.
Jednak nie widzi nic złego w takim rozwiązaniu, jeśli rodzina zmarłej osoby wyrazi na to zgodę. Nawiązuje np. do niedawnej dyskusji wokół filmu Shrek i głosu Osła, który podkładał nieżyjący Jerzy Stuhr.
Z zaciekawieniem się temu przyglądałem i pomyślałem sobie – nie to żebym śmiał sugerować producentom cokolwiek - ale być może dałoby się połączyć te dwa pomysły. Gdyby była taka wola, mógłbym się zmierzyć z tą rolą, a dzisiejsze sztuczki techniczne być może mogłyby ten głos troszeczkę upodobnić w stronę pamięci o Jerzym Stuhrze. Może to by było jakieś rozwiązanie.
– To w 100 proc. jest w porządku, nie budzi żadnych wątpliwości. Widziałem też trochę entuzjastycznych reakcji – mówi dr Batorski.
W przypadku noblistki, o eksperymencie wiedział Michał Rusinek, prezes Fundacji Wisławy Szymborskiej. Zgodził się na to, stwierdził, że to żart.
– To pokazuje, że jest to rodzaj eksperymentu społecznego, który pozwala nam poczuć, kiedy granice są przekraczane i prowadzi do dyskusji o tym, jakie powinny być nowe normy społeczne, związane z wykorzystaniem tej technologii – komentuje dr Batorski.
Nie uważa, że powinniśmy bać się AI. Po prostu musimy się do niej przyzwyczaić i nauczyć się z nią żyć.
– Dostosujemy się do tego. Wraz z rozwojem wcześniejszych technologii, np. pisma, druku, elektryczności, samochodów też było mnóstwo obaw. Natomiast nauczyliśmy się z tego korzystać i teraz będzie podobne. To jest po prostu proces społeczny, który w tym wypadku jest jeszcze przed nami. Ale jako cywilizacja już wielokrotnie takie rzeczy przerabialiśmy – mówi.
Przytacza ciekawą anegdotę o Sokratesie: – Nigdy sam nic nie napisał. Bał się pisma, bo uważał, że doprowadzi do zagłady ludzkości, gdyż przestaniemy cokolwiek pamiętać. Obawy o to, jakie będę efekty nowych technologii, są stare jak świat.
Podaje też inny przykład – jak w 1865 roku w Wielkiej Brytanii wprowadzono prawo, nazywane popularnie "prawem czerwonej flagi".
– Mówiło ono o tym, że przed każdym samochodem, musi iść człowiek niosący czerwoną flagę. Pojazdy poruszały się więc dużo wolniej, niż mogły się poruszać, nawet wolniej niż zaprzęgi konne. To była próba regulacji technologii, której wtedy jeszcze nie znaliśmy i nie rozumieliśmy. Uważam, że dziś różne podejścia do regulacji AI mają zbliżony charakter do prawa czerwonej flagi – komentuje dr Batorski.
Dlatego dziś, jak uważa, przede wszystkim musimy poznać te technologie, a także sposób, w jaki mogą być wykorzystywane i dopiero wtedy wprowadzać regulacje.
– Jednak nie możemy puścić tego zupełnie na żywioł. Obawy są i będą – zaznacza.
Głos zmarłej Szymborskiej "to bardzo daleko idące nadużycie"
– Lęk to najgorsza postawa, bo ona paraliżuje. Natomiast uważam, że to jest sytuacja, w której powinniśmy powiedzieć: "Nie zgadzamy się. To jest coś niewłaściwego". Jeśli mówimy o głosie rzeczywistej osoby i w dodatku osoby zmarłej, to jest to bardzo daleko idące nadużycie. Moim zdaniem tego robić nie wolno pod żadnym pozorem – komentuje w rozmowie z naTemat Robert Firmhofer, założyciel i dyrektor naczelny Centrum Nauki Kopernik w Warszawie, historyk filozofii.
Podkreśla, że jako konsumenci mediów, czy mediów społecznościowych, powinniśmy mieć świadomość tego, że mamy do czynienia ze sztuczną inteligencją.
– W przypadku radia sytuacja jest o tyle skomplikowana, że większość ludzi przełącza stacje, więc istnieje duża szansa, że włączymy się w trakcie wywiadu. I nawet jeśli wcześniej była informacja, to zakładam, że znaczna część osób, która usłyszała tę rozmowę, nie słyszała zapowiedzi i nie miała świadomości, że ma do czynienia z informacją wygenerowaną sztucznie – zauważa.
Robert Firmhofer również zwraca uwagę na to, jak ważne są regulacje prawne.
– Powinniśmy niezwykle dbać o regulacje, które chroniłyby nas przed nadużyciami wynikającymi z wykorzystania generatywnej sztucznej inteligencji. Nie chodzi o to, żeby blokować jej rozwój, bo ona pod wieloma względami jest absolutnie fantastyczna. Ale chodzi o to, by ten rozwój społecznie nam nie zagrażał. Firmy niekoniecznie będą się o to troszczyć – podkreśla.
Ekspert uważa, że wcześniej dobrą praktyką byłoby stworzenie kodeksów etycznych przed podmioty działające w różnych obszarach na rynku.
– Wiemy, że sztuczna inteligencja jest wykorzystywana, niekiedy na masową skalę. Spójrzmy na wybory prezydenckie w USA. Tam sztuczna inteligencja generuje fake newsy na dużą skalę. Zazwyczaj są to działania wrogie, czyli służą nie tylko wprowadzeniu w błąd, ale także osiągnięciu jakiegoś celu – komentuje szef Centrum Nauki Kopernik.
Dlatego, jak podkreśla, bardzo ważna jest świadomość i edukacja przez wszystkie możliwe instytucje. Tu wskazuje na dwie grupy, które są szczególnie wrażliwe na tego typu przekazy. A w związku z tym na możliwe zagrożenia.
Jedna z nich to osoby, które nie zetknęły się ze sztuczną inteligencją, np. osoby starsze.
– One nie zdają sobie sprawy, że można wygenerować dźwięk lub obraz, który jest fałszywy, a który do złudzenia przypomina obraz prawdziwy. Wydaje mi się, że w tej chwili dla zdecydowanej większości osób, odróżnienie wysokiej jakości materiału wideo wygenerowanego przez AI od rzeczywistego filmu jest właściwie niemożliwe – mówi.
Druga grupa to osoby bardzo młode, pokolenie Alfa, urodzone po 2010 roku:
– To pokolenie TikToka, które spędza tam bardzo dużo czasu. To osoby, które mają do czynienia z gigantyczną ilością treści i nie mają nawyku ich weryfikacji. Szkoła tego nie uczy. Te osoby są bardzo narażone. Obcując z takimi treściami, będą traktowały je jako treści prawdziwe.
– W grze jest bardzo ważna kwestia cywilizacyjna. Czy my jako konsumenci życia publicznego pozwolimy na to, żeby fikcja, kłamstwo, nieprawda, miały w naszym życiu równie duże znaczenie co prawda? To jest pytanie o fundamentalnych charakterze – uważa.
"Takich wywiadów jak ten z Szymborską będzie więcej"
Dr hab Kazimierz Krzysztofek, socjolog SWPS, który naukowo zajmuje się m.in. zagadnieniami społeczeństwa informacyjnego, uważa, że takich "wywiadów" jak ten z polską noblistką będzie więcej. Przypomina, że dziś można np. "porozmawiać" ze zmarłym, jeśli zostawiał dużo śladów w internecie. Mieliśmy też przypadki wykorzystanie hologramów znanych, zmarłych osób.
– Na przykład Fred Astaire, który tańczył z odkurzaczem. Audrey Hepburm, odtworzona holograficznie, z czekoladą. Hologramy pojawiają się na koncertach. Mając próbki głosów, sztuczna inteligencja może odtworzyć oryginalny utwór. To może być wykorzystane w marketingu i biznesie. Myślę, że Off Radio Kraków zrobiło to przede wszystkim w celach marketingowych. Chcieli być pierwsi – komentuje w rozmowie z naTemat dr hab Krzysztofek.
Podobnie, jak poprzednicy, uważa, że jeśli "wywiad" z Szymborską pojawił się bez wiedzy jej rodziny, to jest to nadużycie. – To pytanie, do kogo należy wizerunek zmarłego – zaznacza.
To, co się dzieje, jednak go nie zaskoczyło.
– To konsekwencja rozwoju i pieniędzy, które zostały zainwestowane w te technologie. Uważam, że będziemy musieli się do tej sytuacji zaadaptować. Dotychczas nie dało się spowolnić rozwoju żadnej technologii i myślę, że nie da się spowolnić ekspansji sztucznej inteligencji. I tu jest dylemat, czy będzie ona tylko pomocnikiem, asystentem, czy będzie zastępować ludzie, a jeśli tak, to w jakim zakresie. To jest historia w trakcie dziania się. Nikt nie umie sobie z tym poradzić – wskazuje ekspert.
Sam w tej chwili nie ma pojęcia, w którym kierunku to pójdzie. I również mówi o konieczności przepisów, które by to regulowały.
– Oburzamy się, ponieważ stosujemy stare kryteria, które długo ewoluowały i odnosiły się do innych sytuacji. A teraz pojawia się "ktoś", czyli sztuczna inteligencja. Ktoś, kogo można by nazwać partnerem, z którym wchodzimy w interakcję i nie bardzo wiemy, jak się do tego odnieść. A także według jakich norm postępować – mówi.
– Jest to dylemat, z którym w tej chwili nie wiemy, jak sobie poradzić. Dotychczas narzędzia, z którymi mieliśmy do czynienia, nawet komputery starej generacji, nie sprawiały nam takich problemów. Jakoś wychodziliśmy obronną ręką. Nie przestawaliśmy być ludźmi. A teraz zadajemy sobie pytanie o sens człowieczeństwa. Skoro nie ma powszechnej, obowiązującej, normy, każdy musi się z tym zmierzyć we własnym osądzie moralnym – uważa ekspert.
Regulacje są w powijakach, bo rozwój technologii jest szybszy niż rozwój legislacji. One nastąpią z opóźnieniem i nie ma się co na to oburzać. Tak musi być. Najpierw pojawia się rozwiązanie technologiczne, ale bardzo często jest mnóstwo zapowiedzi technologicznych, które się nie materializują, więc nie warto wcześniej wprowadzać regulacji prawnych.
Robert Firmhofer
dyr. Centrum Nauki Kopernik, Warszawa
Sztuczna inteligencja po prostu wszystko wyprzedziła. Najbardziej prawo, które nie nadąża. Ale też nasze normy moralne. Co nam pozostaje? Albo dostosować się do pędu AI. Albo spowolnić jej rozwój, za czym optują liczni uczeni, m.in. jeden z jej współtwórców.