Dzisiaj proponuję lekturę teksu Marcina Polaka, zamieszczonego na redagowanym przez niego portalu „Edunews” w minioną niedzielę, w którym jego autor zaprezentował wyniki badania skutków  „wpuszczenia” do szkół sztucznej inteligencji  – „A new direction for students in an AI world: Prosper, prepare, protect”, opublikowanych właśnie przez Centrum Edukacji Powszechnej Brookings Institution:

 

 

                                                           AI w szkole – obecnie więcej ryzyk niż korzyści      

 

 

Wielu osobom w edukacji udziela się entuzjazm związany z możliwością skorzystania z pomocy sztucznej inteligencji (AI). Być może jednak ulegamy wpływowi marketingu korporacji międzynarodowych, które przekonują nas, że oferują nam wspaniałe narzędzie edukacyjne i po prostu nie można z niego nie skorzystać. Zwłaszcza, że za darmo. Powinniśmy zachować ostrożność, tak nauczyciele, jak i osoby uczące się. Sytuacja nie jest tak różowa, jak mogłoby się to wydawać. Oczywiście – wydaje się, że podstawowe użycie narzędzi sztucznej inteligencji sprawia, iż zadania wykonujemy szybciej. Ale czy zastanawiamy się, za jaką cenę?

 

Ryzyko związane z wykorzystaniem generatywnej sztucznej inteligencji do edukacji dzieci i młodzieży obecnie przyćmiewa korzyści, które można dzięki AI osiągnąć – wynika z najnowszego badania przeprowadzonego przez Centrum Edukacji Powszechnej Brookings Institution, amerykańskiej organizacji typu think-tank .

 

Szeroko zakrojone badanie objęło grupy fokusowe i wywiady z uczniami klas K-12 (dwanaście roczników, czyli i poziom podstawowy i średni – przyp. red.), rodzicami, nauczycielami i ekspertami technicznymi z 50 krajów, a także przegląd literatury obejmujący setki artykułów naukowych. Stwierdzono, że wykorzystanie sztucznej inteligencji w edukacji może podważyć fundamentalny rozwój dzieci, a szkody, które już wyrządziła, są „zniechęcające”, choć jeszcze „możliwe do naprawienia.

Generatywna sztuczna inteligencja jest wciąż nowa – ChatGPT został opublikowany nieco ponad trzy lata temu – stąd autorzy raportu mieli na celu zbadanie potencjału sztucznej inteligencji w klasie z uwzględnieniem rozwoju kompetencji uczniów i wpływu na nauczycieli oraz stosowane przez nich metody pracy.

 

Do zalet: sztuczna inteligencja może pomóc uczniom w nauce czytania i pisania

 

Nauczyciele ankietowani na potrzeby raportu stwierdzili, że sztuczna inteligencja może być przydatna w nauce języka, zwłaszcza dla uczniów uczących się drugiego języka obcego. Na przykład, AI może dostosować złożoność tekstu do umiejętności czytelnika i zapewnia pewien stopień prywatności uczniom, którzy mają trudności w kontaktach z dużymi grupami.

 

Nauczyciele uczestniczący w badaniu uważają, że sztuczna inteligencja może również pomóc w poprawie umiejętności pisania uczniów, o ile służy do wspierania ich wysiłków, a nie do wykonywania pracy za nich. Nauczyciele wskazują, że sztuczna inteligencja może „pobudzić kreatywność” i pomóc uczniom pokonać blokadę twórczą. (…) Na etapie pisania może pomóc w organizacji, spójności, składni, semantyce i gramatyce. Na etapie korekty może wspierać edycję i przepisywanie pomysłów, a także pomagać w (…) interpunkcji, stosowaniu wielkich liter i gramatyce.

 

Do wad: sztuczna inteligencja stanowi poważne zagrożenie dla rozwoju poznawczego uczniów

 

Na szczycie listy zagrożeń Brookings znajduje się negatywny wpływ sztucznej inteligencji na rozwój poznawczy dzieci – sposób, w jaki uczą się nowych umiejętności oraz postrzegają i rozwiązują problemy.

 

Raport opisuje rodzaj pętli uzależnienia od AI, w której uczniowie coraz częściej przerzucają na technologię swoje własne myślenie, co prowadzi do spadku funkcji poznawczych lub ich zaniku, częściej kojarzonego ze starzeniem się mózgu.

 

Rebecca Winthrop, jedna z autorek raportu w Brookings, ostrzegaKiedy dzieci korzystają z generatywnej sztucznej inteligencji, która podpowiada im odpowiedź (…) nie myślą samodzielnie. Nie uczą się odróżniać prawdy od fikcji. Nie uczą się rozumieć, co stanowi dobry argument, a co nie. Nie poznają różnych perspektyw, ponieważ tak naprawdę nie angażują się w treść, którą otrzymują.

 

Odciążanie poznawcze (ang. cognitive off-loading) nie jest oczywiście nowym zjawiskiem. Wielokrotnie już korzystaliśmy z technologii edukacyjnych, aby sobie pomóc. Na przykład klawiatury i komputery zmniejszyły potrzebę pisania odręcznego, a kalkulatory zautomatyzowały podstawowe obliczenia matematyczne. Jednak AI „przyspiesza” ten rodzaj „ułatwiania” edukacji, szczególnie w szkołach, gdzie nauka może wydawać się instruktażowa – nauczyciel tłumaczy dane zagadnienie uczniom, kontrolując czas, metodę i ocenę postępów w nauce. Generatywna sztuczna inteligencja to bardzo zmienia – jak zauważa jeden ze studentów badaczom: To proste. Nie trzeba używać mózgu.

 

Raport Brooking Institution dostarcza wielu dowodów sugerujących, że studenci korzystający z generatywnej sztucznej inteligencji już obserwują spadek wiedzy merytorycznej, umiejętności krytycznego myślenia, a nawet kreatywności. Może to mieć ogromne konsekwencje w przyszłości, jeśli ci młodzi ludzie wkroczą w dorosłość, nie ucząc się krytycznego myślenia. Chcą być „smart” – wykorzystują to, co oferuje AI, ale nie widzą, że w rzeczywistości wcale się nie uczą.

 

Do zalet: sztuczna inteligencja może nieco ułatwić pracę nauczycielom

 

W raporcie wskazano, że kolejną zaletą sztucznej inteligencji jest to, że pozwala ona nauczycielom automatyzować niektóre zadania, które ich dość mocno przytłaczają w szkole, np. generowanie wiadomości do rodziców, tłumaczenie materiałów, tworzenie arkuszy ćwiczeń, rubryk, quizów i planów lekcji” — i wiele innych (jak choćby cały asortyment materiałów biurokratycznych – dokumentacji wymaganej przez różne instytucje w sektorze edukacji i ministerstwo).

 

W raporcie przytoczono liczne badania naukowe, które wykazały istotne korzyści w zakresie oszczędności czasu dla nauczycieli, w tym badanie przeprowadzone w USA, które wykazało, że nauczyciele korzystający ze sztucznej inteligencji oszczędzają średnio prawie sześć godzin tygodniowo i około sześciu tygodni w ciągu całego roku szkolnego.

 

Do zalet i wad: sztuczna inteligencja może być motorem równości, lub nierówności w szkołach

 

Jednym z najsilniejszych argumentów przemawiających za wykorzystaniem sztucznej inteligencji w edukacji, według raportu Brookings, jest jej zdolność do dotarcia do dzieci wykluczonych z zajęć szkolnych. Badacze przytaczają przykład Afganistanu, gdzie talibowie odmówili dziewczynkom i kobietom dostępu do formalnej edukacji ponadpodstawowej.

 

Według raportu, jeden z programów dla afgańskich dziewcząt wykorzystał sztuczną inteligencję do digitalizacji afgańskiego programu nauczania, tworzenia lekcji opartych na tym programie i rozpowszechniania treści w języku dari, paszto i angielskim za pośrednictwem lekcji WhatsApp.

 

Sztuczna inteligencja może również pomóc w zwiększeniu dostępności zajęć dla uczniów z różnymi trudnościami w uczeniu się, w tym dysleksją.

 

Ale, jak ostrzega Rebecca Winthrop, sztuczna inteligencja może również znacząco pogłębić istniejące podziały. Dzieje się tak, ponieważ bezpłatne narzędzia sztucznej inteligencji, które są najłatwiej dostępne dla uczniów i szkół, mogą być jednocześnie najmniej wiarygodne i najmniej rzetelne, choćby dlatego, że nie dostarczają odpowiednio aktualnych treści.

 

Wiemy, że bogatsze społeczności i szkoły będą mogły sobie pozwolić na bardziej zaawansowane modele sztucznej inteligencji – zauważa Winthrop – i wiemy, że te bardziej zaawansowane (płatne – przyp. red.) modele są dokładniejsze. Oznacza to, że po raz pierwszy w historii technologii edukacyjnych szkoły będą musiały płacić więcej za dokładniejsze informacje. A to naprawdę szkodzi szkołom z mniejszymi budżetami finansowymi.

 

Do wad: sztuczna inteligencja stanowi poważne zagrożenie dla rozwoju społeczno-emocjonalnego

 

Z zebranych danych wynika, że wykorzystanie sztucznej inteligencji, a zwłaszcza chatbotów, podważa dobrostan emocjonalny uczniów, w tym ich zdolność do budowania relacji, radzenia sobie z niepowodzeniami i dbania o zdrowie psychiczne – czytamy w raporcie. Badacze wskazują, że technologia AI ma z natury charakter pochlebczy – została zaprojektowana tak, aby wzmacniać przekonania użytkowników.

 

Winthrop twierdzi, że jeśli dzieci rozwijają umiejętności społeczno-emocjonalne głównie poprzez interakcje z chatbotami, które zostały zaprojektowane tak, aby się z nimi zgadzać, stanie się bardzo niekomfortowe przebywanie w otoczeniu, w którym ktoś się z nimi nie zgadza.

 

Winthrop podaje przykład dziecka wchodzącego w interakcję z chatbotem, „narzekającego na rodziców i mówiącego: Chcą, żebym zmywał naczynia — to takie wkurzające. Nienawidzę moich rodziców. Chatbot najprawdopodobniej odpowie: Masz rację. Zostałeś źle zrozumiany. Przepraszam. Rozumiem cię. W przeciwieństwie do przyjaciela, który powiedziałby: Stary, ja ciągle zmywam naczynia w domu. Nie wiem, na co narzekasz. To normalne. Może to być źródło sporych problemów z zakresu wychowania – AI nie podpowie, że jednak trzeba postąpić inaczej, zamiast tego być może będzie umacniała błędne podejście do spraw życiowych.

 

Do tego dochodzą kwestie związane ze sferą emocji. Niedawne badanie przeprowadzone przez Centrum Demokracji i Technologii, organizację non-profit działającą na rzecz praw obywatelskich i swobód obywatelskich w erze cyfrowej, wykazało, że prawie 1 na 5 uczniów szkół średnich przyznało, że oni lub ktoś, kogo znają, miał romantyczną relację ze sztuczną inteligencją. 42% uczniów biorących udział w tym badaniu przyznało, że oni lub ktoś, kogo znają, używali sztucznej inteligencji jako „osoby” do towarzystwa.

 

Raport ostrzega, że ​​takie echo sztucznej inteligencji może hamować rozwój emocjonalny dziecka: Uczymy się empatii nie wtedy, gdy jesteśmy doskonale rozumiani, ale wtedy, gdy źle rozumiemy i odzyskujemy równowagę – zauważa jeden z ankietowanych ekspertów.

 

Wyzwania na przyszłość

 

Raport Brookings zawiera długą listę rekomendacji, które pomogą rodzicom, nauczycielom i decydentom – nie wspominając o samych firmach technologicznych – wykorzystać potencjał sztucznej inteligencji bez narażania dzieci na ryzyko, jakie obecnie stwarza ta technologia. Wśród tych rekomendacji:

 

-Sama edukacja mogłaby być mniej skoncentrowana na tym, co raport nazywa realizacją zadań według instrukcji (udzielonych przez nauczyciela – przyp. red.) lub na ocenie końcowej jako celu kształcenia, a bardziej na rozbudzaniu ciekawości i chęci uczenia się. Jeśli uczniowie będą czuli się zaangażowani, być może będą mniej skłonni prosić sztuczną inteligencję o wykonanie pracy za nich.

 

-Sztuczna inteligencja projektowana dla dzieci i młodzieży powinna być mniej pochlebcza, a bardziej „antagonistyczna”, odrzucająca uprzedzenia i zachęcająca młode umysły do refleksji i oceny.

 

-Firmy technologiczne powinny współpracować z nauczycielami w ramach „centrów współprojektowania” edukacji. Przykładowo w Holandii, wspierany przez rząd ośrodek skupia już firmy technologiczne i nauczycieli, aby opracowywać, testować i oceniać nowe zastosowania sztucznej inteligencji w klasach. (W Polsce badania nad AI pod kątem procesu uczenia się zaczyna Centrum Nauki Kopernik, ale to dopiero początek projektu ZBADAI – przyp. red.).

 

-Holistyczne kompetencje w zakresie wykorzystania sztucznej inteligencji mają kluczowe znaczenie w edukacji – zarówno dla nauczycieli, jak i uczniów. Niektóre kraje, w tym Chiny i Estonia, posiadają kompleksowe, krajowe wytyczne dotyczące rozwijania umiejętności we współpracy ze sztuczną inteligencją.

 

-W miarę jak szkoły wdrażają narzędzia AI, ważne jest, aby niedofinansowane placówki (zwłaszcza w zmarginalizowanych społecznościach) nie pozostały w tyle, co prowadziłoby do pogłębienia nierówności. To duże wyzwanie dla władz lokalnych.

 

-Nie można pozostawić wdrażania AI w szkolnictwie swobodzie korporacji. Rządy mają obowiązek regulować wykorzystanie sztucznej inteligencji w szkołach, upewniając się, że wykorzystywana technologia chroni zdrowie poznawcze i emocjonalne uczniów, a także ich prywatność. Aktualnie w Stanach Zjednoczonych administracja Donalda Trumpa próbuje zakazać władzom stanowym samodzielnego regulowania obecności sztucznej inteligencji w szkołach, a brakuje federalnych ram regulacyjnych.

 

Jak argumentują autorzy, nadszedł czas na działanie. Zagrożenia, jakie sztuczna inteligencja stwarza dla dzieci i młodzieży, są już wiadome, liczne i oczywiste. Dobra wiadomość jest taka, że ​​mamy też wiele możliwości rozwiązania znanych nam problemów.

 

Warto podkreślić na koniec – sztuczna inteligencja jest najbardziej użyteczna, gdy uzupełnia, a nie zastępuje pracę nauczyciela z krwi i kości. Tak samo – gdy uzupełnia proces myślowy osoby uczącej się, a nie zastępuje go oferując iluzję kształcenia.

 

 

 

Źródło: www.edunews.pl

 



Zostaw odpowiedź