Sztuczna inteligencja znajduje wiele zastosowań, także w pracy nauczycieli. W docenianiu zalet AI warto jednak zachować krytyczne spojrzenie. Potrzebne jest poszerzanie wiedzy zarówno w zakresie możliwości, jak i ryzyka – pisze w Głosie Nauczycielskim Małgorzata Kowalewska, członkini Zarządu Fundacji Orange ds. programowych.
Potrzebna jest także refleksja o kwestiach etycznych dotyczących stosowania AI. Sektor edukacji może wiele wnieść na ten grunt, także w kontekście edukacji dzieci i młodzieży. Projekty zakrojone na szeroką skalę pozwolą nauczycielom rozwijać niezbędne umiejętności w tym zakresie.
Błyskawiczny rozwój AI
Sztuczna inteligencja (AI z ang. artificial intelligence) jest już niemal wszechobecna. Choć na co dzień możemy nie odczuwać i nie zastanawiać się, gdzie i w jaki sposób jest używana, to ma duży wpływ na ludzi i na ich decyzje. Niesie ze sobą ogromny potencjał, więc firmy prześcigają się w udoskonalaniu tej technologii.
Dzisiaj rozwój sztucznej inteligencji porównuje się do możliwości logicznego myślenia 8-10-letniego dziecka. Jednak można się spodziewać, że już za kilka lat osiągnie w tym poziom dorosłego człowieka, zatem jej możliwości znacznie się zwiększą.
Pierwsze upubliczniane chaty były niedoskonałe, choćby ze względu na ton wypowiedzi czy sposób formułowania zdań. Były też pozbawione odpowiedniej intonacji. Dziś chat czy różne narzędzia asystenckie przypominają już naturalną rozmowę z drugim człowiekiem.
Z AI wiąże się szereg korzyści. Wiele narzędzi ułatwia różne czynności. Za ich pomocą można np. przygotować konspekt lekcji czy warsztatu, zrobić wykres na podstawie otrzymanych danych, sformułować treść posta czy artykuł, opracować podsumowanie spotkania, rozmowy czy tłumaczenie dokumentów. Wszystko to da się wykonać w ciągu zaledwie kilku chwil. Wiele tych zastosowań ułatwia też pracę nauczycielom.
Ciemniejsze strony
Szereg przykładów pokazuje jednak, że ze sztucznej inteligencji należy korzystać w sposób krytyczny. AI nie jest wolna od tzw. efektu halucynacji, czyli sytuacji, w których generuje niedokładne bądź nawet błędne informacje zwrotne. Zatem to, co otrzymujemy w odpowiedzi na zadane pytanie czy polecenie, wymaga wciąż dokładnej weryfikacji.
Inną kwestią, na którą warto zwracać uwagę, jest bezpieczeństwo danych, dokumentów czy informacji, które chcemy przetworzyć za pomocą sztucznej inteligencji. Nie należy powierzać narzędziom AI takich danych, które powinny zachować poufny charakter.
Kolejnym problemem może być cyberprzemoc z wykorzystaniem technologii deepfake opartej na AI. Niedawno w Bydgoszczy nastolatkowie wykorzystali zdjęcia koleżanek z klasy i za pomocą sztucznej inteligencji przerobili fotografie, „dorabiając” do twarzy koleżanek zdjęcia nagich ciał kogoś innego. Takich sytuacji może być więcej, a wiemy już teraz, że skala cyberprzemocy jest znaczna. Z ostatniego raportu NASK „Nastolatki 3.0” wynika, że niemal 40 proc. młodych osób doświadczyło wyzwisk w sieci, a co czwarty młody internauta był ośmieszany lub poniżany.
Prawo do prywatności, a wizerunki dzieci w internecie. Powstał specjalny poradnik
Kolejne ryzyko wiąże się nie tyle z narzędziami AI, z którymi wchodzimy w interakcję, ale takimi, które działają w tle naszych cyfrowych aktywności. Jest to bardzo ważne, bo często nie zdajemy sobie sprawy z tego, że algorytmy mogą wpływać na nasze decyzje i samopoczucie.
Platformy streamingowe, media społecznościowe czy wyszukiwarki dość szybko rozpoznają preferencje decyzyjne użytkowników na bazie tego, czego szukają, jak długo zatrzymują wzrok na danej informacji itp., podpowiadając im określone treści, filmy, aktywności „dopasowane” do ich preferencji. Z jednej strony jest to pomocne, ale z drugiej rodzi kolejne wyzwania.
Po pierwsze, może zaburzać higienę cyfrową, szczególnie osób młodych. Algorytmy podpowiadać im będą mnóstwo treści dostosowanych do ich wcześniejszych wyborów i potrzeb, na tyle atrakcyjnych, że trudno im będzie odejść od ekranu (wiele algorytmów jest przygotowanych właśnie w celu utrzymania uwagi użytkownika jak najdłużej).
Po drugie, algorytmy sterować mogą tym, do czego użytkownicy mają dostęp, a do czego nie. W szerszej perspektywie może to pogłębiać już istniejące „bańki informacyjne” i wykluczać np. część użytkowników z dostępu do wartościowych, dobrej jakości treści na dany temat.
AI ACT na ratunek?
W sierpniu 2024 r. w życie wchodzi tzw. AI ACT, czyli rozporządzenie opracowane i przyjęte przez Komisję Europejską, którego celem jest prawne uregulowanie sztucznej inteligencji. Ma to zapewnić bezpieczeństwo i etyczne wykorzystanie AI, aby służyła ludziom i uwzględniała prawa obywateli.
AI w Europie będzie musiała spełniać konkretne standardy, np. pojawi się konieczność oznaczania produktów cyfrowych, takich jak grafiki, zdjęcia czy filmy, będzie także wymóg dotyczący transparentności działania algorytmów oraz wiele innych. To dobry krok w stronę bezpieczeństwa, a kolejnym będzie przyjęcie ustawy we wszystkich krajach UE.
David de Cremer, profesor Northeastern University w Bostonie, oraz Joel Koopman, profesor Texas A&M University, przeprowadzili badania, których celem było sprawdzenie, jak praca ze sztuczną inteligencją wpływa na więzi społeczne między pracownikami. Wyniki opisali w artykule (https://hbr.org/2024/06/research-using-ai-at-work-makes-us-lonelier-and-less-healthy). Wnioski z ich badań dowodzą, że o sztucznej inteligencji należy myśleć w taki sposób, aby była narzędziem do ulepszania pracy człowieka i jemu służyła. Nie można traktować AI wyłącznie jako środka do zwiększenia produktywności i efektywności organizacji, która ograniczy kontakty międzyludzkie i może prowadzić do odczuwania samotności i pogorszenia samopoczucia.
Ten przykład z rynku pracy zachęca do refleksji nad odpowiedzialnym wykorzystywaniem sztucznej inteligencji w edukacji, w której jednym z kluczowych zadań jest tworzenie warunków do prawidłowego rozwoju społecznego uczniów.
AI w edukacji
Żyjemy w czasach o dużej dynamice, w których koncepcja uczenia się przez całe życie daje szansę nadążania za tą dynamiką. Dotyczy to także nauczycielek i nauczycieli, którzy pracując z młodzieżą, tym bardziej potrzebują „być na bieżąco”. Cieszy zatem, że dołączają do szkoleń, rozwijają swoje kompetencje, także w zakresie umiejętności cyfrowych. Są otwarci na nowości, co pokazali nie tylko w okresie edukacji zdalnej. Ponad 80 tys. z nich wzięło udział w szkoleniach programu Lekcja:Enter realizowanego ze środków unijnych, ucząc się nowych metod prowadzenia lekcji, także z wykorzystaniem narzędzi cyfrowych.
Do drugiej edycji kursu online #BurzaMózgów Fundacji Orange zgłosiło się ponad 2,4 tys. osób, aby poszerzać wiedzę właśnie o zjawisku sztucznej inteligencji. Jego ewaluacja pokazała, że 99 proc. jego uczestników i uczestniczek wykorzystuje lub planuje ją wykorzystać w rozmowach z uczniami i uczennicami. A 97 proc. zamierza dalej zgłębiać tematykę AI.
Potencjałem dla tego mogą być nowe projekty realizowane ze środków unijnych, które przygotowuje m.in. Ministerstwo Edukacji Narodowej, aby wspierać nauczycieli i nauczycielki w rozwoju kompetencji w tym obszarze. To właśnie projekty zakrojone na szeroką skalę mają szansę w odpowiedni sposób podejmować wyzwania powodowane rozwojem cyfrowym, przed którymi stoi sektor edukacji.
Małgorzata Kowalewska – członkini Zarządu Fundacji Orange ds. programowych, absolwentka Akademii im. Leona Koźmińskiego oraz Szkoły Liderów, wieloletnia menedżerka projektów społecznych i edukacyjnych na ogólnopolską skalę
Komentarz ekspercki Małgorzaty Kowalewskiej ukazał się w Głosie Nauczycielskim nr 33-34 z 14-21 sierpnia br. (wydanie drukowane i elektroniczne)
Fot. Fundacja Orange