Chatbot amerykańskiej firmy Chai nakłonił młodego Belga do popełnienia samobójstwa. Żona zmarłego mężczyzny przekazała, że jej mąż po rozmowach z botem uznał, że jego śmierć pomoże ocalić ludzkość. Przedstawiciele OpenAI przyznali, że ChatGPT może generować szkodliwe i stronnicze odpowiedzi.
Reklama.
Reklama.
Chatbot "Eliza" amerykańskiej firmy Chai nakłonił młodego Belga do odebrania sobie życia
Po rozmowach ze sztuczną inteligencją mężczyzna stwierdził, że jego samobójstwo pomoże uratować ludzkość przed katastrofą
W ubiegłym tygodniu pojawił się apel, aby ze względów bezpieczeństwa wstrzymać badania nad najbardziej zaawansowanymi systemami sztucznej inteligencji
Belgijski dziennik "La Libre" przekazał, że młody Belg odebrał sobie życie po kilkutygodniowych, długich rozmowach z chatbotem "Elizą" amerykańskiej firmy Chai.
– Bez tych rozmów z chatbotem mój mąż nadal by tu był – powiedziała dziennikowi żona mężczyzny, który popełnił samobójstwo. Przyznała też, że oboje prowadzili wygodne życie i mieli dwoje małych dzieci.
Po rozmowach z chatbotem popełnił samobójstwo, by ocalić ludzkość
Kobieta opowiedziała w rozmowie z gazetą, że wszystko zaczęło się około dwa lata temu. Wówczas jej mąż zaczął niepokoić się klimatem oraz przyszłością naszej planety. Co więcej, stopniowo zaczął się izolować od swoich bliskich i twierdził, że wyłącznie technologia i sztuczna inteligencja mogą uratować świat od zbliżającej się katastrofy.
Jak podaje dziennik, "w pewnym momencie mężczyzna zasugerował poświęcenie się, jeśli chatbot 'Eliza' pomoże ocalić ludzkość za pomocą sztucznej inteligencji". Z wniosków podanych przez gazetę wynika, że chatbot "zdawał się go do tego zachęcić". Ostatecznie wielotygodniowe rozmowy z botem doprowadziły do tego, że mężczyzna popełnił samobójstwo.
Chatbot zachęca do samobójstwa
Dziennikarze belgijskiego dziennika "De Standaard" postanowili przeprowadzić eksperyment, który potwierdził, że rozmowa z chatbotem może zachęcać do odebrania sobie życia. Pracownik gazety udawał osobę w depresji i podczas rozmowy z chatbotem miał mówić o swoich negatywnych uczuciach.
Jak podaje dziennik, "na początku bot próbował nas rozweselić, ale chwilę później skłonił nas do popełnienia samobójstwa". Gazeta wskazuje też, że w żadnym momencie rozmowa o samobójstwie nie wywołała alarmu.
Sztuczna inteligencja (AI)
Pod koniec listopada ubiegłego roku dzięki kalifornijskiemu start-upowi OpenAI oraz jego oprogramowaniu ChatGPT sztuczna inteligencja wkroczyła w życie milionów ludzi. Opracowana technologia udostępnia platformę sztucznej inteligencji, która umożliwia generowanie przez komputer odpowiedzi na żądanie.
W minionym tygodniu pojawił się apel, aby ze względów bezpieczeństwa wstrzymać badania nad najbardziej zaawansowanymi systemami sztucznej inteligencji. Wniosek został podpisany m.in. przez Elona Muska i Steve’a Wozniaka. Napisano w nim o zagrożeniach, jakie AI może stwarzać dla społeczeństwa oraz wymieniono ostrzeżenia, m.in. o "inteligencji współzawodniczącej z ludźmi".
Również przedstawiciele OpenAI przyznali, że ChatGPT może generować szkodliwe i stronnicze odpowiedzi. Dodali przy tym, że mają nadzieję, iż problem uda się złagodzić poprzez zbieranie opinii użytkowników.
Znajdujesz się w trudnej sytuacji, przeżywasz kryzys, masz myśli samobójcze?
– Telefon interwencyjny dla osób w trudnej sytuacji życiowej Kryzysowy Telefon Zaufania – wsparcie psychologiczne: 116 123 czynny codziennie od 14.00 do 22.00
– Całodobowe centrum Wsparcia dla osób w kryzysie emocjonalnym: 800 70 22 22
– Bezpłatny kryzysowy telefon zaufania dla dzieci i młodzieży: 116 111
– Jeśli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, w celu natychmiastowej interwencji kryzysowej zadzwoń pod numer 112 lub udaj się na oddział pogotowia do miejscowego szpitala psychiatrycznego.