Dylemat etyczny: ChatGPT w edukacji szkolnej

Robiłem praktyki jako nauczyciel filozofii i etyki w szkole średniej. Uważam, że warto wzbogacać edukację o nowe rozwiązania i innowacyjne technologie. Polska szkoła potrzebuje zmian – to jedna z możliwych ścieżek, prowadzących nas w lepszą przyszłość. W marcu prowadziłem pierwsze lekcje o modelach językowych (LLM – Large Language Models), takich jak ChatGPT i GPT-4. W krótkim czasie modele te stały się potężnymi narzędziami do generowania tekstu podobnego do ludzkiego. Często tekstu lepszego niż ten, który zazwyczaj piszą licealiści i studenci.

Wprowadzenie

Uważam, że ta technologia zmieni świat w sposób, który jeszcze dzisiaj wydaje się trudny do wyobrażenia. Ma szansę zrewolucjonizować edukację, pracę, twórczość – niemal każdy aspekt życia współczesnego człowieka. Prowadzenie o niej zajęć postrzegam zatem jako rodzaj powinności wobec moich uczniów – byłoby dobrze, żeby to właśnie w szkole porozmawiać o tej technologii, pokazać szanse, wyzwania i zagrożenia, jakie wiążą się z jej wykorzystaniem. Roi się tu od dylematów etycznych i problemów filozoficznych – to dla mnie świetne pole do działania. Jednak samo uczenie o tej technologii może budzić kontrowersje etyczne. Te narzędzia pozwalają na proste generowanie bardzo dobrych prac domowych i zaliczeniowych – a to dopiero początek możliwych zastosowań i problemów, jakie się z nimi wiążą.

Ktoś może twierdzić, że mówiąc o modelach językowych, w pewnym sensie zachęcam uczniów do popełnienia oszustwa. Niejasny pozostaje dla mnie stosunek innych pracowników szkoły do tych narzędzi – chociaż myślę, że rozsądnie jest założyć, że opinia części kadry szkolnej będzie raczej negatywna. U paru osób pojawi się pomysł zakazu korzystania z ChatGPT i innych narzędzi, wzbogaconych o sztuczną inteligencję, a może nawet zakazu mówienia w szkole o tym, że narzędzia do generowania tekstu w ogóle istnieją.

Dylemat etyczny

Nauczanie w klasie o modelach językowych – takich jak ChatGPT, GPT-4, Bing AI czy Google Bard – sprawia, że uczniowie mają kontakt z nową i niezwykle zaawansowaną technologią, która może zmienić ich ścieżkę zawodową, doświadczenia edukacyjne, otworzyć pole dla nowej kreatywności i zrozumienia współczesnego świata. Jednakże ta sama technologia może być nadużywana do nieetycznych celów, takich jak generowanie esejów (bez włożenia minimum osobistego wysiłku) lub sprawne oszukiwanie na egzaminach w wersji online lub hybrydowej. Jako przyszły nauczyciel stoję zatem przed dylematem etycznym, czy uczyć o tych narzędziach, wiedząc, że mogą zostać nieuczciwie wykorzystane.

Szanse

Technologia jest fenomenalna i już teraz pozwala na osiąganie niesamowitych rezultatów. Oto parę korzyści, które oferują usługi, budowane w oparciu o modele językowe.

  1. Brainstorming – generowanie pomysłów do esejów i projektów naukowych.
  2. Dostarczania inspiracji do kreatywnego pisania. Dostarczanie informacji zwrotnej o napisanym tekście.
  3. Łatwo dostępne streszczenia i opracowania wymagającego materiału, np. artykułów naukowych.
  4. Dostęp do spersonalizowanego narzędzia edukacyjnego, które może szkolić niemal na każdy temat – także z zaawansowanych zagadnień, jak programowanie w wielu językach programistycznych.
  5. Dostęp do relatywnie anonimowej, spersonalizowanej profilaktyki zdrowotnej (a szerzej: poradnictwa na dowolny temat). Uczniowie mają wiele problemów, także mierzą się z zaburzeniami psychicznymi – akcentuję to z uwagi na profil moich studiów psychologicznych i zainteresowania zdrowiem psychicznym. Stawiam, że niektórym z uczniów łatwiej przyjdzie otwarcie się przed chatbotem niż przed profesjonalistą opieki zdrowotnej.

To może wyraźnie poprawić jakość edukacji. Ponadto, uczniowie poznają nowoczesne technologie, dołączając potencjalnie do grona wczesnych naśladowców (early adopters). Tego typu osoby określą kształt rynku pracy w perspektywie kilku lat. Narzędzia, wspomagane sztuczną inteligencją, będą równie popularne, co obecnie takie zachowania, jak sprawdzanie wiedzy w wyszukiwarce Google czy na Wikipedii – o tym jestem przekonany.

Szansą dla mnie jest prowadzenie lekcji na interesujący i ważny temat – a to sprawia, że zajęcia są łatwiejsze do prowadzenia i bardziej rozwijające. Po 45 minutach czuję się zaciekawiony i pobudzony, a nie znudzony wałkowaniem materiału, który nikogo nie interesuje, może poza urzędnikiem z Ministerstwa Edukacji.

Zagrożenia

Szanse są zatem ogromne. Oczywiście, towarzyszą temu liczne zagrożenia, związane z nieetycznym wykorzystaniem tych narzędzi.

  1. Niektórzy uczniowie będą generować całe prace domowe, eseje i prace zaliczeniowe, negując potrzebę osobistego wysiłku i nauki. Obniży to efekt edukacyjny.
  2. Oszukiwania na egzaminach online, hybrydowych poprzez szybkie generowanie odpowiedzi na pytania. Ściąganie ze smartfona stanie się dużo bardziej efektywne.
  3. Oprogramowanie antyplagiatowe raczej nie ma szans nadążyć za tą technologią. W przyszłości łatwo będzie wskazać rzeczy w sposób oczywisty wygenerowane – ale te, które zostaną minimalnie poprawione, będą w zasadzie nieodróżnialne od tekstu, który powstał metodą typowego spisywania myśli.
  4. Samo istnienie tych narzędzi może podważać motywację do nauki i pracy, na zasadzie: po co mam się uczyć skoro w perspektywie np. 10 lat wszystko, co będę mógł zrobić, lepiej zrobi sztuczna inteligencja? 10 lat to może być zresztą nadmiernie optymistyczne założenie. O ile światowe rządy nie nałożą silnych restrykcji, to ten moment może nadejść nawet w 2025 roku. Technologia sztucznej inteligencji rozwija się wykładniczo. Co to oznacza?

Trudno zrozumieć wykładniczy rozwój. Poniższy graf z Wikipedii ilustruje kilka funkcji.

Czerwona linia obrazuje rozwój liniowy – łatwy do wyobrażenia i zrozumienia dla nas, ludzi. Niebieska linia obrazuje wyrażenie wielomianowe, w potędze trzeciego stopnia. Rośnie wyraźnie szybciej. Linia zielona to funkcja wykładnicza, tutaj akurat o podstawie o wartości dwa. Przez pewien czas rośnie powoli, po czym przyspiesza, a następnie przyspiesza do tego stopnia, że zaczyna przypominać niemal pionową linię. Tak będzie wyglądał rozwój sztucznej inteligencji – przełomy najpierw trwają dekady, później lata i miesiące. Chyba jesteśmy w tym momencie. Później będę trwały tygodnie. Jeśli dojdziemy do systemu o zdolności do samoulepszenia, to przestaniemy rozumieć, jak szybko się będzie się zmieniał. Zapewne niezwykle szybko.

Wracając do naszego dylematu etycznego: zagrożeniem dla mnie, jako początkującego nauczyciela, jest potencjalna niechęć ze strony niektórych uczniów, kadry szkolnej oraz rodziców (wybranych osób negatywnie nastawionych do modeli językowych i sztucznej inteligencji). Tych lekcji w oczywisty sposób nie ma w podstawie programowej – ChatGPT miał premierę w listopadzie 2022 r., a znacznie potężniejszy model GPT-4 w marcu 2023 roku. Inni edukatorzy oraz rodzice mogą uważać, że podważam ich wysiłek, jeśli mają przekonanie, że samo wspomnienie o pewnych narzędziach zwiększa ich dostępność poznawczą, a zatem pośrednio motywuje do ich wykorzystania, przynajmniej poprzez zwiększenie dostępności poznawczej – łatwiej o czymś myśleć, jeśli miało się z tym kontakt.

Odpowiedzialne podejście

Póki co rozwiązuję ten dylemat na rzecz nauczania o modelach językowych – uważam, że szansę przeważają nad zagrożeniami. Same zagrożenia można zmniejszać, stosując odpowiedzialne podejście.

  1. Podkreślam wartość etycznego korzystania z technologii oraz krytycznego myślenia – także krytycznej oceny tego, co generuje sztuczna inteligencja.
  2. Pokazuję, że samo generowanie prac zaliczeniowych to bardzo wąskie myślenie o technologii z tak wielkim potencjałem – lepiej myśleć o niej jako o wirtualnym asystencie, który może usprawnić różne czynności. Ponadto, to dobry punkt wyjścia do dyskusji o tym, po co w szkole w ogóle są zaliczenia i czy warto z nich korzystać.
  3. Podkreślam również, że podstawowe pojęcia, schematy, skrypty oraz umiejętności trzeba “zapisać” w umyśle – odbić w sieci połączeń neuronalnych w mózgu – aby faktycznie ułatwiały nam życie. W zasobach sieci dostępna jest większa część wiedzy ludzkości – tak długo jednak, jak jej fragment nie zostanie zaktywizowany przez umysł osoby poznającej, to pozostaje czysta możliwość, niezrealizowany potencjał.
  4. W bliskiej przyszłości pojawi się także potrzeba wypracowania dobrych praktyk edukacyjnych i przyjęcia ich w ramach regulaminu szkolnego – co jest dopuszczalne i w jakim zakresie. Już teraz warto o tym rozmawiać w gronie kadry pedagogicznej.

Podsumowanie i wnioski

Ten dylemat etyczny – związany z nauczaniem o technologii LLM, jak ChatGPT i GPT-4 – obraca się wokół zrównoważenia potencjalnych korzyści, płynących z tych innowacyjnych narzędzi z ryzykiem niewłaściwego ich wykorzystania. Myślę, że odpowiedzialni nauczyciele będą w stanie wykorzystać moc nowych technologii do wsparcia edukacyjnego na niespotykaną dotąd skalę. Warto o tym rozmawiać w szkole. Ryzyko generowania prac zaliczeniowych istnieje i jest poważne już teraz. Uważam jednak, że prawdziwe ryzyko dopiero widać na horyzoncie – szerokie zaadoptowanie sztucznej inteligencji odmieni rynek pracy, układy społeczne, polityczne i ekonomiczne. Dlatego sądzę, że w planie minimum należy rozmawiać o automatyzacji pracy kreatywnej – nawet bez odwołań do konkretnych technologii, które umożliwiają tę automatyzację.

Grafika: Zdjęcie monitora, na którym wyświetlana jest strona OpenAI (wiadomość o odpaleniu usługi ChatGPT), autor: Andrew Neel, za: Pexels.com [link], licencja: Creative Commons Zero (CC0). Komentarz ode mnie: ChatGPT to sympatyczny, intuicyjny interfejs użytkownika, który pozwala na łatwe korzystanie z zaawansowanej sztucznej inteligencji. Uważam, że spoglądając w przeszłość, za wiele lat czy dekad, premiera tej technologii będzie uchodziła za jedną z przełomowych dat, które poprowadziły świat (ludzkość, postludzkość?) w przyszłość.


Opublikowano

w

,

przez

Tagi: