AMSTERDAM – Głośno było ostatnio o eksperymencie psychologicznym, jaki Facebook przeprowadził na blisko 700 tys. swoich użytkowników. Aby zmierzyć, jak „strumień aktualności” na Facebooku wpływa na ludzkie nastroje, firma tymczasowo uruchomiła nowy algorytm i wyświetlała grupie użytkowników nieco bardziej pozytywne wiadomości, a części nieco bardziej przygnębiające. Okazuje się, że wpisy internautów na Facebooku zmieniały się i odzwierciedlały nastrój postów znajomych.

REKLAMA
Ale w tej burzy umknęły najciekawsze pytania, a wściekłość (jak zwykle) skupiła się na bezduszności Facebooka. Nikogo najwyraźniej nie interesowało oczywiste pytanie, czy z badań wynika, że zmiana nastroju była prawdziwa, czy po prostu użytkownicy chcieli świadomie bądź nieświadomie dopasować się do otoczenia.
Przyczyną oburzenia było to, że Facebook manipuluje swymi nieświadomymi użytkownikami dla własnych celów, a wiele osób przywoływało tajemnicę, jaką okryte były badania, by zilustrować złe intencje koncernu (choć przecież Facebook opublikował wyniki badań bez jakiegokolwiek zakłopotania). Wprawdzie brak przejrzystości w Facebooku istotnie budzi wątpliwości – podobnie jak to, że pozostaje on głuchy na obawy użytkowników – jednak zarzuty są chybione.
Oczywiście, że Facebook manipuluje użytkownikami – tak jak wszystkie firmy, które wykorzystują reklamę, by wzbudzić u konsumentów apetyt na podwójnego cheeseburgera, seksowną sukienkę czy atrakcyjnego partnera. Niezależnie od tego, czy robi się to za pomocą sprofilowanych reklam opartych na historii wyszukiwania, czy za pomocą billboardów przy publicznej drodze, (zamierzony) efekt jest ten sam.
Sto lat temu mógłby to być wielki news. Dziś to część codzienności. Ale ludzie nadal reagują na konkretne doniesienia o takiej manipulacji szokiem i wściekłością.
Większym problemem jest współczesny paradoks wyboru. Musimy dziś ciągle wybierać – mamy także wybór, by unikać wyborów, pod płaszczykiem szybkości czy wygody.
Choć możliwość dokonywania wyborów w teorii jest pociągająca, to już sama liczba możliwości może powodować wyczerpanie i dezorientację – także z powodu presji, by dokonać „właściwego” wyboru. Jak stwierdził Barry Schwartz, wybory to okazja, by czegoś pożałować. Kiedy siły, na które nie mamy wpływu, nas unieszczęśliwiają, nie czujemy się przynajmniej wściekli na samych siebie, że znaleźliśmy się w takim położeniu.
Logiczną reakcją na takie naciski jest przeniesienie części wyborów na innych. Ale kiedy ktoś nam przypomni, jak inni wpływają na nasze życie, stajemy się oburzeni i mówimy, że to „wstrętne” i narusza naszą wolną wolę. Użytkownicy pozwalają Google filtrować zalew codziennych e-maili, ale wściekają się, kiedy usunie on jakąś ważną wiadomość.
Także Facebook, reagując na skargi użytkowników, że nie mogą ogarnąć wszystkich postów znajomych, opracowuje algorytm, który pokazuje tylko najistotniejsze wpisy. Ale co sprawia, że post jest „istotny”? Twitter teraz próbuje uporać się z tym samym problemem.
Niektórzy mówią, że wybory, jakich Facebook dokonuje za nas, mogą zagrozić zdrowiu psychicznemu użytkowników. Ale takie ryzyko stwarza też przepracowany nauczyciel w liceum, który nie jest w stanie poświęcić odpowiedniej uwagi nieradzącym sobie uczniom; magazyny promujące nierealistyczne zdjęcia wymuskanych celebrytów; kazania duchownych, którzy wierzą, że Bóg nie każdemu przebacza, a nawet ktoś obcy, kto zachowa się obcesowo w pociągu. Wszyscy ci aktorzy kierują się własnymi ideami i motywacjami i wszyscy oni codziennie manipulują naszym punktem widzenia – oraz naszymi nastrojami.
Oczywiście w reklamie manipulacja jest szczególnie widoczna. Ale marketingowcy także regularnie testują emocjonalne reakcje użytkowników na mniej oczywiste cechy swoich produktów: od koloru opakowania przez jego ustawienie w sklepie aż po wybór „ambasadora marki”. Kuszą klientów, by płacili więcej, proponując kosztowne opcje, które sprawiają, że droższe wersje wydają się sensowniejsze.
Kiedy czytasz o nowej sukience Kim Kardashian, możesz chcieć kupić taką kreację, ale czy czujesz się także brzydko? Jeśli jesteś przedsiębiorcą z branży technologicznej, możesz chcieć być jak Marc Andreessen, ale czytanie o nim może wpędzić cię w kompleksy – zwłaszcza jeśli jesteś kobietą.
Facebook niechcący nagłośnił kwestię emocjonalnej manipulacji i niezamierzonych konsekwencji – zatajając te badania i uniemożliwiając ludziom rezygnację z uczestnictwa w eksperymencie (to by był dopiero inteligentny wybór!).
Ale ostatecznie nie ma żadnego problemu do rozwiązania – ani żadnej kontrowersji dotyczącej konkretnie Facebooka. Obserwujemy zasadniczą poprawę zdolności do przewidywania krótko- i długoterminowych skutków działań naszych i innych (wspomnijmy choćby globalne ocieplenie). Kiedy będziemy już potrafili lepiej mierzyć określone kwestie i wykrywać skutki wszelkich zmian – krótko mówiąc, kiedy lepiej będą nam wychodzić badania doświadczalne – przyjdzie nam się zastanowić, jaka odpowiedzialność wiąże się ze zdobywaną w ten sposób wiedzą.
Esther Dyson - przedsiębiorca. Działa głównie w sektorze nowych technologii cyfrowych, piastuje funkcję prezesa EDventure Holdings. Była członkiem zarządu lub inwestorem w wielu start-upach, takich jak Cygnus Solutions, Flickr, del.icio.us, ZEDO, Medstory, Medspace. Obecnie koncentruje się na kwestiach związanych z technologią medyczną, lotnictwem i podróżami kosmicznymi.