Sztuczna inteligencja potęguje zagrożenia informacyjne. Coraz częściej bywa jednak wykorzystywana w walce z takimi zjawiskami

Od lipca 2024 roku do grudnia 2025 roku doszło do co najmniej 15 poważnych kryzysów na świecie, w których wystąpiły zagrożenia informacyjne związane ze sztuczną inteligencją. Chodzi m.in. o deepfejki, sieci botów czy ataki zatruwające dane, które były wykorzystywane do szkolenia modeli AI – wynika z raportu „Adding Fuel to the Fire: AI Information Threats and Crisis Events” brytyjskiego Instytutu Alana Turinga. Takie narzędzia mają potencjał do zakłócania procesów wyborczych, choć do tej pory głównie dezorientowały wyborców. Paradoksalnie w przeciwdziałaniu takim zjawiskom także sprawdzają się narzędzia AI (źródło: Newseria).

O wykorzystaniu sztucznej inteligencji zarówno do operacji wpływu, dezinformacji i zakłócania procesów wyborczych, jak i do walki z tymi zjawiskami przedstawiciele rządu, organizacji pozarządowych i środowiska akademickiego rozmawiali w ubiegłym tygodniu podczas okrągłego stołu w Ambasadzie Brytyjskiej w Warszawie.

– Sztuczna inteligencja jest często wykorzystywana do manipulowania opinią publiczną za pomocą tzw. deepfejków. Są to bardzo realistyczne, ale w całości wygenerowane przez AI filmy, obrazy, a nawet nagrania audio, których celem jest przedstawienie ludzi robiących coś, czego w rzeczywistości nie zrobili, a co często jest kompromitujące lub szkodzi ich reputacji – mówi agencji Newseria Sam Stockwell, badacz Centre for Emerging Technology and Security (CETaS) w Instytucie Alana Turinga, jeden z uczestników debaty.

Raport opublikowany przez CETaS rzuca nowe światło na to, w jaki sposób rosnąca popularność chatbotów opartych na AI w infrastrukturze cyfrowej, jak również łatwość dostępu do generatorów treści opartych na sztucznej inteligencji stwarzają poważne zagrożenia w następstwie wydarzeń kryzysowych.

Ogromna fala dezinformacji przeciwko Ukrainie w Europie. Potrzebne są międzynarodowe działania na rzecz walki z tym zjawiskiem

Badacze podkreślili, że między lipcem 2024 roku a grudniem 2025 roku doszło do co najmniej 15 poważnych kryzysów na świecie, w których wystąpiły zagrożenia informacyjne związane ze sztuczną inteligencją. Do działań dezinformacyjnych wykorzystywano m.in. deepfejki, które miały na celu rozpowszechnianie fałszywych narracji i szkodliwych teorii spiskowych, a także promowanie przemocy.

– Przykładowo widzieliśmy wiele przypadków, w których deepfejki były wymierzone w polityków w czasie kampanii wyborczej i próbowały pokazać ich w sytuacjach, które się naprawdę nie wydarzyły. Oczywiście ma to na celu przekonanie ludzi, że są to osoby niegodne zaufania i nie powinno się na nie głosować – podkreśla Sam Stockwell.

Brytyjscy naukowcy w swoim raporcie podkreślają, że narzędzia AI mogą również stanowić systemowe zagrożenie dla działania systemu demokratycznego. Poprzednie badania CETaS dotyczące wyborów w Wielkiej Brytanii, Unii Europejskiej i Francji w czerwcu i lipcu 2024 roku wykazały, że wykorzystanie AI w kampaniach wyborczych miało niepokojący wpływ na zanieczyszczanie przestrzeni informacyjnej online, zacieranie granic między prawdą a fikcją oraz podżeganie do nękania kandydatów politycznych.

– Jak dotąd nie mamy dowodów, że AI wpływała na wyniki wyborów bezpośrednio. Nie obserwowaliśmy jeszcze aż tak dużych ilości treści generowanych przez AI, których celem byłoby wpływanie na postawy społeczne. Na przykład w wyborach europejskich tylko około 4–5 proc. całej dezinformacji pochodziło z narzędzi AI – tłumaczy badacz z CETaS. – Jednocześnie widać, że AI powoduje rosnącą dezorientację co do tego, czemu można ufać w internecie, ponieważ generowane treści są bardzo realistyczne.

Jak chronić się przez dezinformacją w sieci? Zachęcamy do pobrania poradnika Anny Mierzyńskiej

Jak wynika z raportu, już w 2023 roku narzędzia AI były wykorzystywane do tworzenia podziałów, w tym w związku z obchodami Dnia Pamięci w Wielkiej Brytanii. W obliczu narastających napięć wokół dużego protestu propalestyńskiego zaplanowanego na ten sam okres burmistrz Londynu Sadiq Khan padł ofiarą viralowego deepfejka. Fałszywie sugerował on, że krytykuje on wydarzenie i opowiada się za propalestyńskimi marszami.

– Dezinformacja jest dużym problemem w Europie. Oddziałuje na ludzi zarówno w Polsce, jak i w Wielkiej Brytanii. Wspólnie pracujemy nad przygotowaniem przepisów, które mogłyby wypełnić tę lukę i podnieść poziom bezpieczeństwa obywateli. Potrzebujemy lepszych regulacji, ale musimy także współpracować z branżą w ich opracowaniu. Należy przemyśleć, jak najlepiej zastosować te przepisy, aby ludzie mieli dostęp do informacji, których potrzebują, bez konieczności stykania się z informacjami, które nie są im potrzebne, a wręcz są niebezpieczne albo mają na celu tworzenie podziałów w naszych społeczeństwach – podkreśla Craig Mills, radca-minister w Ambasadzie Brytyjskiej w Warszawie.

– Równolegle do wojny, która toczy się za naszą wschodnią granicą, Polska jest poddawana wielu działaniom, które wykorzystują technologię do tego, żeby wpływać na to, jak rozumiemy świat i jakie informacje są dla nas ważne. To, co przychodzi ze Wschodu, często przyjmuje formę automatycznych komentarzy, farm botów albo generowania treści z wykorzystaniem sztucznej inteligencji, które nie zawsze są prawdziwe, a czasami celowo mają dezinformować i rozwijać debatę publiczną w Polsce – mówi Jakub Szymik, założyciel Fundacji Obserwatorium Demokracji Cyfrowej.

Brytyjscy naukowcy w swoim raporcie podkreślają, że cyberprzestępcy manipulują sposobami, w jakie boty AI i platformy mediów społecznościowych przekazują użytkownikom spersonalizowane informacje w czasie rzeczywistym. Sieci botów oparte na sztucznej inteligencji naśladujące ludzkie zachowania i udostępniające treści wchodzą jednocześnie w interakcję z nieświadomymi tego użytkownikami. Wszystko po to, aby wpłynąć na ich postawy po poważnym kryzysie.

– Zagrożenia, jakie to niesie dla Polaków, to jest na pewno polaryzacja społeczna. Jako naród nie dzielimy już wspólnie jednego pola informacyjnego, tylko każdy z nas może wierzyć w zupełnie inne narracje i informacje, które widzi w swoim telefonie. One są w pełni personalizowane, w związku z tym bardzo trudno ustalić, kto ma dostęp do jakich informacji i jak to wpływa na życie codzienne i relacje z rodziną, a także na wybory społeczne i polityczne – podkreśla Jakub Szymik.

Z unijnego badania mediów społecznościowych przeprowadzonego w czerwcu 2025 roku wynika, że 37 proc. Polaków było zdania, że w ciągu ostatnich siedmiu dni było bardzo często lub często narażonych na dezinformację bądź też fałszywe wiadomości. 32 proc. respondentów odpowiedziało, że miało z nimi do czynienia czasami. Tylko 4 proc. było zdania, że nigdy się z nimi nie zetknęło.

Coraz bliżej do awatarowej rodziny i awatarowej klasy? Dr Konrad Maj: Dla młodych AI jest jak wyrocznia

Jak potwierdza NASK – Państwowy Instytut Badawczy, dezinformacja stała się narzędziem wykorzystywanym do manipulacji opinią publiczną. Prowadzi do tworzenia się grup, którym coraz trudniej znaleźć wspólny język. Zjawisko to wpływa na nastroje społeczne i służy do osłabiania rywali. Ponadto może zwiększać nieufność obywateli wobec instytucji publicznych i podważać fundamenty demokracji. W dobie rozwoju sztucznej inteligencji narzędzia dezinformacji stają się coraz groźniejsze.

– Zjawisko flooding the zone polega na tym, że dzisiaj można bardzo łatwo i tanio wygenerować dużo informacji, które są nieprawdziwe albo pochodzą tylko z jednego źródła. Przykładem tego są sytuacje, gdzie tysiące komentarzy są generowane przez jeden podmiot, który ma na celu zmienić postrzeganie danej kwestii – tłumaczy założyciel Fundacji Obserwatorium Demokracji Cyfrowej.

– Zalewanie przestrzeni informacyjnej konkretnymi treściami może mieć formę sfałszowanych zdjęć albo materiałów wideo, które mogą być masowo udostępniane i przekazywane dalej na platformach społecznościowych – dodaje.

– Choć ludzie powinni mieć możliwość tworzenia i publikowania treści przy użyciu AI, to szczególnie osoby publiczne, politycy i kandydaci, powinny zadbać o to, aby wyraźnie oznaczać takie materiały. W niektórych przypadkach takie treści mają charakter zniesławiający, na przykład polityczny deepfejk atakujący kandydata w trakcie wyborów, który stanowi bardzo duże zagrożenie dla jego bezpieczeństwa. W takich przypadkach przekraczamy granicę wolności wypowiedzi i kluczowe jest istnienie odpowiednich regulacji umożliwiających szybkie usuwanie szkodliwych treści, zanim wyrządzą realne szkody – uważa Sam Stockwell.

Ekspert zwraca uwagę, że jednocześnie doskonalone są narzędzia AI, które skutecznie walczą z zagrożeniami informacyjnymi. Przykładowo mogą wykrywać konta botów, czyli fałszywe profile udające prawdziwych użytkowników, które są zautomatyzowane i służą do rozpowszechniania dezinformacji.

– Narzędzia AI okazały się całkiem skuteczne w wykrywaniu takich botów, które następnie mogą być usuwane przez platformy społecznościowe, aby ograniczyć wpływ danej operacji. Takie metody stosowane były m.in. w kontekście wyborów europejskich – tłumaczy ekspert CETaS. – Na przykład w Wielkiej Brytanii, gdzie kilka lat temu doszło do serii gwałtownych zamieszek, badacze byli w stanie wykorzystać AI do ustalenia, gdzie w kraju znajdowały się powiązane z nimi konta. Dzięki temu można było kierować strategiczne kontrnarracje, aby zminimalizować ryzyko dalszej eskalacji przemocy.

Mowa o zamieszkach z lipca 2024 roku w Southport, do których doszło w związku z tragicznymi morderstwami. Wówczas zaczęły się pojawiać niepotwierdzone plotki, według których ich domniemanym sprawcą był muzułmański imigrant. Według badaczy algorytmy mediów społecznościowych i konta wpływowych polityków przyczyniły się do wzmocnienia tych twierdzeń, które ostatecznie okazały się fałszywe.

– Jednym z bardzo ważnych obszarów jest zdolność AI do obalania teorii spiskowych. W jednym przypadku trafiliśmy na narzędzie, które zostało wytrenowane na różnych teoriach spiskowych oraz na skutecznych metodach ich podważania, opartych na eksperymentach i badaniach oraz rozmowach z osobami wierzącymi w te teorie – wyjaśnia Sam Stockwell.

We wrześniu 2024 roku na łamach czasopisma „Science” opublikowano badanie, w którym udział wzięło 2 tys. osób. Dowiodło ono, że niektórzy ludzie zmieniają zdanie, gdy argumenty oparte na faktach są przedstawiane przez chatbota sztucznej inteligencji zamiast przez innego człowieka. Rozmowy te zmniejszyły wiarę w teorie spiskowe średnio o 20 proc.

Źródło: Newseria

Fot. Pixabay