Młodzi ludzie zaadaptowali to narzędzie do swoich potrzeb. Popatrzmy na to z ich perspektywy. Chatbot daje im duże możliwości, bo mogą mu zadawać rozmaite pytania, nie tylko z zakresu dobrostanu psychologicznego. (…) W przypadku różnych dylematów społecznych, moralnych, chorób, spraw codziennych AI jest traktowane jak wyrocznia. Młodzi ludzie traktują takie aplikacje jak miejsce, gdzie można szukać nie tylko informacji i podpowiedzi, ale również konkretnych rozwiązań, dopasowanych do sytuacji, w której się znajdują.
Z dr. Konradem Majem, psychologiem społecznym, kierownikiem Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS w Warszawie, rozmawia Katarzyna Piotrowiak
Kiedy widzimy ucznia z telefonem, wyobrażamy sobie najczęściej, że wysyła wiadomości, przegląda filmiki, social media, tymczasem on może prowadzić dialog ze sztuczną inteligencją (AI)… na temat swojej kondycji psychicznej.
– Mnie to nie dziwi, ale akurat dlatego, że sam zajmuję się badaniem nowych zjawisk i zachowań związanych z technologią. Telefon w tradycyjnym sensie powoli odchodzi do lamusa. Czasy tak szybko się zmieniają, że my nawet nie zauważamy, jak młodzi ludzie sprawnie wchodzą w relacje chatbotami. Z niektórymi można się komunikować, nie tylko poprzez zadawane im pytania, ale można rozmawiać jak z prawdziwą osobą.
Uczniowie już to robią. Pytają chatbota: „Mam depresję, jest mi źle, co mi możesz poradzić? Czasami zwracają się do niego „Mmój przyjacielu”.
– Interfejs głosowy został wprowadzany do ChatGPT kilka miesięcy temu, a już możemy operować własnym głosem i rozmawiać z AI. To ułatwia kontakt. Ale to, jak szybko rozwija się ta technologia i to jak szybko młodzi ludzie zaczynają w to wchodzić, pokazuje, że edukacja w tym kierunku jest bardzo potrzebna. Nie wszyscy śledzimy, co się dzieje i nie wiemy o tym nic albo wiemy niewiele. Dlatego łatwiej o oszustwa na sprawdzianach, egzaminach, przy pisaniu prac. Dopiero teraz wielu nauczycieli i wykładowców zaczęło się w tym orientować.
Dwa lata temu rozmawialiśmy o tym, że chatbot sprawnie rozwiązuje zadania szkolne, pisze proste wypracowania. Obecnie wchodzi w rolę „konsultanta” psychologicznego. Jakie mogą być skutki takiej znajomości?
– Wszystko zależy od tego, jak silne „relacje” będą ich łączyły. Może panią zaskoczę, ale widzę tu pewien pakiet pozytywnych konsekwencji. Z różnych statystyk wiemy, że część młodych ludzi jest bardzo zagubionych i potrzebuje odpowiedzi na różne ważne pytania. Wstydzi się, krępuje się zapytać rodziców i w rezultacie nikogo nie pyta. Często nie wie, jak pewne problemy opisać, jak je nazwać.
A i często sami rodzice nie wiedzą, jak rozmawiać. Zbywają dzieci albo tłumaczą coś w dość skomplikowany sposób, który do młodych nie przemawia. ChatGPT, bo właściwie to wszystko od niego się zaczęło, ma to do siebie, że można do niego pisać bardzo ogólnie i z błędami, a on zwykle potrafi dość dobrze rozpoznać intencję tego, o co chcemy go zapytać.
Lepiej niż drugi człowiek?
– W niektórych przypadkach tak. AI może odpowiedzieć, ale też uporządkować pewne treści. Czasami, jak wiemy, pojawiają się w tych odpowiedziach błędy i tzw. halucynacje, jednak dla młodego człowieka ważne jest, że ma on do kogo się zwrócić ze swoimi dylematami, zapytać bez obawy o to, że będzie oceniany.
Młodzi ludzie dość szybko spersonalizowali sztuczną inteligencję.
– Zaadaptowali to narzędzie do swoich potrzeb. Popatrzmy na to z ich perspektywy. Chatbot daje im duże możliwości, bo mogą mu zadawać rozmaite pytania, nie tylko z zakresu dobrostanu psychologicznego. Sporo jest też pytań dotyczących kwestii intymnych. A to, że rozmawiając z AI, mogą się niejako ukryć przed odpowiadającym, jest dla nich dodatkowym atutem. W przypadku różnych dylematów społecznych, moralnych, chorób, spraw codziennych AI jest traktowane jak wyrocznia. Młodzi ludzie traktują takie aplikacje jak miejsce, gdzie można szukać nie tylko informacji i podpowiedzi, ale również konkretnych rozwiązań, dopasowanych do sytuacji, w której się znajdują.
Społecznymi skutkami AI zajmuje się Pan od bardzo dawna, czy już teraz można powiedzieć, że to pójdzie właśnie w tym kierunku?
– Raczej nie ma wątpliwości co do tego. Widzimy, jak ten postęp przebiega. Będziemy mieli coraz bardziej wyrafinowane duże modele językowe i coraz bardziej wyspecjalizowane. To jest nieuniknione. Właściwie to już się dzieje, bo w zasięgu ręki mamy już czaty na rozmaite okazje. Ostatnie badania prowadzone przez takie podmioty, jak MIT, Media Lab i OpenAI, pokazały, że osoby, które korzystają częściej z tego narzędzia wykazują emocjonalne uzależnienie od chatbota i traktują go często jak osobistego doradcę.
Teraz wiele osób złapie się za głowy.
– Ale to nie koniec, bo w tym badaniu przeanalizowano ok. 40 mln interakcji. Badania na takiej grupie ludzi się nie zdarzają, a były możliwe, bo technologia dała takie możliwości. Okazało się, że wprowadzenie komunikacji głosowej wręcz wiązało się z pogorszeniem stanu psychicznego.
Mamy więc chatbota, z którym można porozmawiać. Ale istnieje ryzyko uzależnienia od niego. Należy zatem podkreślić, że nadużywanie interakcji z takim AI asystentami może być problematyczne. Ich atrakcyjność i coraz większa rzetelność stanowi dla nas pułapkę.
Co, jeśli skutki negatywne wezmą górę?
– Codziennie konsultowanie się, szukanie porad i rekomendacji u chatbota to już jest poważne niebezpieczeństwo, jak przy każdym uzależnieniu. Ponadto mocno nas to poznawczo może rozleniwić i wprowadzić nawyk – „Nie mam pomysłu, nie mam czasu, to zapytam czata”.
Na co muszą się przygotować psycholodzy, nie tylko szkolni?
– Będziemy mieli więcej problemów z tego powodu. Te narzędzia się rozwijają. Coraz bardziej są dopasowywane do ludzi, stają się autorytetem dla młodych, którzy zawsze mogą liczyć na informacje. Można powiedzieć, że rosną wraz z młodymi pokoleniami. Jednak pojawia się jeden zasadniczy problem, dzieci w wieku szkolnym coraz mniej rozmawiają z rówieśnikami.
Kontakt z drugim człowiekiem to okazja do zbudowania więzi. Tego nam te chatboty wprost nie dają. Co z tego, że ktoś uzyska pakiet wiedzy uporządkowanej w pewien sposób, jeśli traci kontakty z ludźmi. Dla relacji społecznych jest to katastrofa. Obawiam się, że ostatecznie to tylko pogłębi problemy młodych ludzi, zamiast je rozwiązać.
(…)
Coraz bliżej do awatarowej rodziny i awatarowej klasy…
– Istnieje niebezpieczeństwo, że w przyszłości ludzie będą mieli wielu digitalowych kompanów. Problem polega zasadniczo na tym, że jeśli młody człowiek zaczyna dostrzegać, że jest mu dobrze w tej relacji, to oprócz tego, że się uzależnia, szybko zaczyna zauważać kontrast i niedopasowanie prawdziwych ludzi, którzy nie odpowiadają na jego potrzeby. I wtedy wraca do wirtualnych kolegów i koleżanek, którzy go rozumieją, są stale dostępni i dostarczają różnych porad i wskazówek.
O tym rozmawiał Pan z badaczami AI podczas niedawnej wizyty w USA?
– Tak. Amerykanie mają z tym sporo problemów. Ze względu na pogłębiający się indywidualizm i przekonanie, że tylko ty jesteś odpowiedzialny za swój los, poszło to znacznie dalej niż u nas. Asystenci głosowi są już w ponad połowie amerykańskich domów. My jesteśmy trochę bardziej tradycyjni. Jeszcze… Chciałbym, aby nasze władze zrozumiały, że ważne jest nie tylko inwestowanie w rozwój AI, ale również promowanie interakcji międzyludzkich już od najmłodszych lat. O tym m.in. mówimy od lat podczas naszej corocznej konferencji HumanTech Summit w Uniwersytecie SWPS.
Dziękuję za rozmowę.
Przedstawiamy skróconą wersję wywiadu opublikowanego w Głosie Nauczycielskim nr 16-17 z 16-23 kwietnia br. Całość w wydaniu drukowanym oraz elektronicznym Głosu (e.glos.pl)
Fot. Uniwersytet SWPS