Technologie mają świetlisty awers, dają możliwość wpływu na rzeczywistość, ale mają też bardzo silny komponent destrukcyjny. Najgorsze co nas spotyka w dzisiejszych czasach ze strony technologii, to polaryzacja światopoglądowa, tworzenie baniek informacyjnych, co przekłada się na utratę zdolności do krytycznego myślenia. W wyniku tego ludzie się antagonizują, tworzą skrajne obozy.
Z Maciejem Kaweckim, nauczycielem akademickim i prezesem Instytutu Polska Przyszłości im. Stanisława Lema, rozmawia Katarzyna Piotrowiak
Uczennica z powiatu gliwickiego czytając wpisy w mediach społecznościowych pomogła uratować chłopaka z Perth w Australii, który zamierzał targnąć się na swoje życie. Dziewczyna powiadomiła mamę, jej mama policję, polska policja skontaktowała się z policją australijską i po analizie wpisu oraz IP namierzono chłopaka. To jeden z ostatnich podawanych przez Pana przykładów „białej strony technologii”. Jest niewiele instytucji, które monitorują takie sprawy, Instytut Lema zajmuje się tym od lat. Jak często zdarzają się takie historie?
– Bardzo często. Tak naprawdę, myśli samobójcze, dotykają co najmniej kilku uczniów w każdej klasie w szkołach podstawowych. To pokazują nie tylko nasze raporty. Mówi o tym również ostatni raport Martyny Wojciechowskiej „Młode głowy”.
Musimy reagować na dramaty po drugiej stronie monitora. Pokazywać, że są instrumenty takiego reagowania i mimo że Polskę i Australię dzieli kilkanaście tysięcy kilometrów, to można uratować komuś życie.
Żeby reagować trzeba obserwować wpisy w social mediach. Na swoim profilu facebookowym zauważa Pan, że są social media, które nie przywiązują odpowiedniej wagi do liczby moderatorów.
– Całkowity brak obecności dorosłych w tej przestrzeni powoduje, że medium staje się zbiorowiskiem wulgaryzmów, wyzwisk i nakłaniania do najgorszych czynów. O tym się w ogóle nie mówi, bo opinia publiczna skupia się dzisiaj na TikToku, na jego chińskich powiązaniach, na jego negatywnym wpływie na młodzież. Natomiast nie widziałem praktycznie działań, które byłyby poświęcone alternatywnym formom komunikacji, takim jak np. Discord, WeChat, czy Snapchat. To są w zasadzie miejsca, które nie są moderowane prawie w ogóle, na których ta wiązka światła opinii publicznej nie jest aż tak skupiona. Bardzo często dzieją się tam rzeczy dramatyczne.
(…)
Zapraszamy do głosowania w naszej ankiecie:
Reakcja polskiej nastolatki pokazuje nam, że część młodych ludzi potrafi się odpowiedzialnie zachować i reagować.
– Można nawet powiedzieć, że empatycznie. Młodzi ludzie mają świadomość cyfrową. My traktujemy media społecznościowe przez pryzmat jakiegoś dodatku do rzeczywistości, natomiast młodzi traktują social media jako rzeczywistość i są w niej stale obecni. W związku tym jeśli widzą czyjś dramatyczny wpis, to traktują go tak jakby im właśnie opowiedział o swoich problemach przy kawie lub herbacie. W tym bym szukał możliwości poprawy tej sytuacji, bo widzę coraz większą świadomość wśród młodych ludzi tych negatywnych konsekwencji związanych z działaniami w sieci i tego, że działanie w mediach społecznościowych nie jest oderwane od świata analogowego. Ta świadomość jest coraz wyższa. Zdecydowanie.
Od początku istnienia Instytutu Lema „ciemna” strona technologii jest najważniejszym polem Waszego zainteresowania?
– Głównie to. Istotą Instytutu Lema, który powoływałem lata temu wraz ze spadkobiercami naszego wybitnego futurologa i pisarza Stanisława Lema, było to, żeby stworzyć coś co stanie się przedłużeniem jego twórczości. W ostatnich latach swojego życia Lem nie był zbytnio optymistyczny. W felietonach publikowanych na łamach Tygodnika Powszechnego bardzo często zwracał uwagę na „czarne” strony technologii. Dodam, że w schyłkowym okresie jego twórczości, m.in. ze względu na jego wiek, bardzo często pojawiało się takie twierdzenie, że Lem nie rozumie technologii.
I jak Pan to skomentuje?
– Prawdą jest to, że Stanisław Lem nie korzystał z internetu w takim ujęciu tradycyjnym. I to może być dla niektórych bardzo zaskakujące, a dla niektórych może być argumentem osłabiającym jego narrację. Dzisiaj jednak widzimy, że jego twierdzenia się absolutnie sprawdzają, że technologie mają w sobie pierwiastek destrukcyjny. Skupiamy się na tym m.in. w ramach Festiwalu Lema – Bomba Megabitowa, gdzie staramy się pokazywać jak wykorzystywać technologie w sposób dla nas korzystny. Natomiast w akcji „Ogarnij hejt”, którą realizujemy w szkołach, zwracamy uwagę na czarne strony innowacji.
„Większość technologii ma świetlisty awers, ale życie dało im rewers – czarną rzeczywistość”. To motto Instytutu.
– Ten cytat, jak nam się wydaje, najwierniej odzwierciedla dzisiejszy stan rozwoju technologii. Technologie mają świetlisty awers, dają możliwość wpływu na rzeczywistość, ale mają też bardzo silny komponent destrukcyjny. Najgorsze co nas spotyka w dzisiejszych czasach ze strony technologii, to polaryzacja światopoglądowa, tworzenie baniek informacyjnych, co przekłada się na utratę zdolności do krytycznego myślenia. W wyniku tego ludzie się antagonizują, tworzą skrajne obozy. I to w konsekwencji prowadzi do hejtu.
(…)
Bardziej się Pan obawia deep fake’ów czy sztucznej inteligencji (AI)?
– Nie można tego porównywać, ponieważ deep fake jest jednym z mechanizmów wykorzystania sztucznej inteligencji. Obiektywnie dzisiaj zły. Ta technologia powstała po to, żeby w produkcjach hollywoodzkich dograć sceny z aktorami, którzy zmarli. Oczywiście i to wymknęło nam się spod kontroli i wykorzystywane jest dzisiaj głównie do dezinformacji. To niezwykle ryzykowna technologia.
Natomiast sama AI to jest termin niezwykle szeroki, przez, który rozumie się konglomerat całej masy różnych narzędzi. My nawet nie zdajemy sobie sprawy, że ciągle z niej korzystamy.
Jak wyjaśnić skąd bierze się strach przed ChatGPT?
– Ponieważ po raz pierwszy AI świadomie weszła w strzechę naszych domów. To jest pewna rewolucja. Do tej pory nawet jeżeli korzystaliśmy z mechanizmów AI to nie robiliśmy tego świadomie, np. korzystając z poczty outlook czy social mediów.
To jest ten fenomen?
– Fenomen jest gdzie indziej. Przez ponad pół wieku zastanawiano się jaką formę nadać sztucznej inteligencji, żeby człowiek ją zaakceptował. W rozwoju technologii jest taki termin, który nazywa się doliną niesamowitości i oznacza granice, których ludzie boją się przekraczać w rozwoju technologii. Jak wrócimy do twórczości Lema z lat 60, 70 i 80-tych, to zobaczymy, że większość tych futurystycznych wizji przedstawiała nam przyszłość AI w formie tworów humanoidalnych, robotów, które przypominają człowieka.
Tymczasem okazało się, że my wcale nie zakochaliśmy w robocie, który w restauracji podaje nam jedzenie, tylko w formie AI jaką jest chat, konwersacja, czyli w czymś co jest najbliższe człowiekowi. ChatGPT dokładnie to robi, tworzy nam iluzję pełnej konwersacji, zrozumienia, rodzi w nas poczucie bezpieczeństwa.
Zastanawia się Pan: co by powiedział na to wszystko Stanisław Lem?
– Nie tak trudno się domyślić. Na You Tubie jest jeden z jego ostatnich wywiadów na temat Microsoftu, który nabył OpenAI, twórcę ChatGPT. Lem napisał, że ma ogromny potencjał, żeby zmonopolizować świat i zwracał uwagę na ten niebezpieczny kontekst, o którym rozmawiamy. Jego wizjonerstwo wynikało przede wszystkim z wiedzy naukowej, każdego miesiąca analizował kilkanaście czasopism naukowych z całego świata. Był antropologiem, humanistą, ale też w pewnym sensie lekarzem, mimo że studiów medycznych nie dokończył. Miał ogromną wiedzę o człowieku. Lem był bardzo na bieżąco. Jego przewidywania sprawdziły się, bo nie były wyssane z palca.
Skąd się wzięło Pana zainteresowanie Stanisławem Lemem?
– W szkole Lem „mnie bolał”, bo to jest zbyt trudna literatura dla dzieci. Kiedy dorosłem sięgnąłem po jego felietony i zakochałem się w nich, bo w znacznie prostszy sposób wykładał swoje wizje. Potem sięgnąłem po „Golema XIV”, „Solaris”, „Szpital Przemienienia” i na pewnym etapie zgłębienia jego literatury zrodził się pomysł powołania Instytutu, żeby trochę wykorzystywać to jego dziedzictwo do promocji idei, o których on w swojej literaturze pisał.
Na koniec proszę powiedzieć, dlaczego pojawienie się ChatGPT mimo wszystko było dla Pana szokiem? Taki był pierwszy Pana komentarz…
– Od dawna obserwowałem rozwój spółki OpenAI i nie było dla mnie zaskoczeniem, że taka technologia się pojawiła, ale to, że w ciągu niespełna dwóch miesięcy uzyskali 100 mln użytkowników. To się zdarzyło po raz pierwszy w historii. Google Translator potrzebował na to 75 miesięcy a Instagram lat. Zatrzymać tego się już nie da. To co będzie następne?
Dziękuję za rozmowę.
***
Przedstawiamy fragmenty wywiadu opublikowanego w GN nr 21-22 z 24-31 maja br. Całość w wydaniu drukowanym i elektronicznym – https://e.glos.pl
Fot. Archiwum prywatne