top of page
NOWE Aktualności www - 2025-12-16T045952.209.png

Edu Inspiracje. Metody nauczania w czasach AI

  • 10 godzin temu
  • 6 minut(y) czytania
AI w edukacji

Sztuczna inteligencja, a w szczególności LLM-y, narobiły sporego zamieszania w świecie edukacji. Coraz odważniej eksperymentujemy z AI w murach uczelni. Odpowiedzi na pytanie, jak AI wpływa na metody dydaktyczne, dostarcza najnowszy raport Organizacji Współpracy Gospodarczej i Rozwoju: OECD Digital Education Outlook 2026: Exploring Effective Uses of Generative AI in Education. Przyjrzałam się kilku opisywanym rozwiązaniom.


Personalizacja nauczania, o której wszyscy marzyli

Raport prezentuje dwa przykłady, które łączą GenAI z analizą danych (learning analytics) w przystępnej dla odbiorcy formie. Oba opisują personalizację procesu nauczania, o której wykładowcy marzyli od dawna.


Pierwszy to VizChat – prototypowy chatbot oparty o LLM, którego zadaniem jest pomagać interpretować informacje o wynikach, dashboardy, wykresy, wskaźniki i zależności tak, żeby dało się z nich wyciągnąć dydaktyczne wnioski.


Drugi przykład to narzędzie Data Comics, które OECD przytacza jako ciekawy sposób uczenia się za pomocą symulacji. W opisywanych zajęciach dla przyszłych pielęgniarek studentki pracowały zespołowo w wirtualnej przestrzeni szpitala i odgrywały scenariusze, np. rozmowę z pacjentem. W trakcie ich aktywności system zbierał dane o przebiegu uczenia się (m.in. kolejność działań, momenty niepewności, jakość współpracy, trudności w komunikacji i podjęte kluczowe decyzje), analizował je, a na koniec zamieniał wnioski w krótki komiks. Informacje podane w takiej formie łatwiej jest zapamiętać, ale też łatwiej o nich rozmawiać, a studenci, którzy otrzymali wspomniany feedback, mieli poczucie, że zostali zauważeni. Jednocześnie dla niektórych komiksowy materiał może wyglądać nieprofesjonalnie, a nawet niepoważnie, nie ma zatem pewności, czy szkolnictwo wyższe jest gotowe na taką formę przekazu.


Ocenianie kształtujące na sterydach

W publikacji źródłowej autorzy opisali też podejście Facilitating Learners’ own Regulation Activities w skrócie FLoRA, w uproszczeniu możemy je przetłumaczyć jako wspieranie działań samoregulacji uczenia się u studentów. U podstaw idei leży chęć przekazywania kształtującej informacji zwrotnej dzięki analityce i narzędziom typu LLM. Taki system zbiera dane o np. notatkach, podkreśleniach, wyszukiwaniach czy używanych narzędziach. Następnie mapuje je na procesy poznawcze i motywacyjne, po czym dokonuje analizy w czasie rzeczywistym. Na tej podstawie podpowiada, czy uczący się stosuje skuteczne strategie. Dodatkowo rozwiązanie przekazuje wnioski w formie zrozumiałych wskazówek wspierających (scaffolds), ale nie gotowych odpowiedzi, co ma zapobiegać rozleniwieniu metapoznawczemu (metacognitive laziness).


AI, które pyta, czyli Sokrates naszych czasów

OECD mocno podkreśla, że z punktu widzenia dydaktyki sztuczna inteligencja, która zadaje pytania, jest czymś zupełnie innym niż ta, która tylko podaje odpowiedzi. Gdy chat prosi o uzasadnienie, sprawdza tok rozumowania, a pomoc dawkuje stopniowo, może okazać się naprawdę skutecznym narzędziem.


W przytoczonym przykładzie Socratic Playground na Hong Kong Polytechnic University student pisał esej, a cyfrowy tutor niczym grecki filozof prowadził z nim głęboki dialog. Dopytywał o argumenty, prosił o dowody i – zależnie od poziomu ucznia – albo rozbijał zadanie na pojedyncze kroki, albo podnosił poprzeczkę dobrze dobranym kontrargumentem.


W IU International University (Niemcy) wdrożono podobnego asystenta GenAI na dużą skalę (ponad 10 tys. studentów). Nazwano go Syntea i działał jak sokratyczny partner dostępny na zawołanie. Miarą jego sukcesu było tempo uczenia się (learning velocity), co oznacza, że średni czas ukończenia kursu spadł, przy utrzymaniu tego samego poziomu wyników z egzaminów.


OECD przestrzega jednak przed odciążaniem poznawczym (cognitive offloading). Jeśli używamy AI, które nie ma żadnych granic, uczniowie uczą się, jak omijać wysiłek, co ma potem negatywne skutki, np. podczas sesji.


Amerykański supertutor dostępny na zawołanie

Opisano też Tutora CoPilot – narzędzie opracowane w Stanfordzie, które działa jak dodatkowe wsparcie dla tutora. W trakcie prowadzonej na żywo sesji system podsuwa tutorowi krótkie propozycje reakcji na to, co właśnie dzieje się w rozmowie, np. jak zareagować na błąd, jakie pytanie zadać, jak poprowadzić studenta, aby wyjaśnił trudne zagadnienie.


Ważne jest to, że wykładowca w tym modelu zachowuje pełną decyzyjność: sugestie są edytowalne, można je pominąć i to człowiek musi je zatwierdzić, zanim zobaczy je student. Ci, których tutorzy mieli dostęp do tego narzędzia, byli średnio o 4 punkty procentowe częściej w stanie osiągnąć wymagany poziom opanowania przerabianych tematów niż grupa kontrolna. Największą różnicę widać było u tutorów mniej doświadczonych lub niżej ocenianych — w tej grupie wzrost sięgał ok. 9 p.p.


Analiza setek tysięcy wiadomości z sesji pokazała, że tutorzy z CoPilotem częściej stosowali strategie uznawane za wysokiej jakości (np. pytania naprowadzające i prośby o wyjaśnienie toku rozumowania), a rzadziej używali tych, które podawały odpowiedź na tacy. Jednocześnie badanie uczciwie notuje ograniczenia: podpowiedzi potrafiły być czasem niedopasowane do poziomu, np. zbyt ogólnikowe albo po prostu zbyt trudne.


GenAI menedżerem lepszej współpracy

W rozdziale o uczeniu się zespołowym wspieranym technologią autorzy pokazują kilka ciekawych scenariuszy. W pracy grupowej częstym problemem jest nierówny udział: niektóre osoby są dominujące, inne milczą, pojawia się ucieczka w dygresje i niedomknięte wątki. Jeśli chat nie staje się członkiem zespołu, który myśli za wszystkich, tylko narzędziem, które uruchamia produktywne rozmowy między ludźmi, może się okazać naprawdę pomocny.


GenAI bywa także wykorzystywane jako repozytorium informacji. Grupa traktuje bota jak wyszukiwarkę, a potem dopiero buduje argumenty i dyskutuje lub używa go jako generatora dodatkowego materiału, np. źródeł, case study czy przypadków do omówienia.

Chat bywa też ustawiany jako facylitator. Narzędzie monitoruje przebieg dyskusji, wyłapuje nierówną partycypację i daje sygnał, że jedna osoba zaczyna przeważać, zadaje pytania doprecyzowujące, a czasem potrafi też przywracać rozmowę na właściwy tor. Autorzy przywołują nawet rozwiązania, gdzie bot prowadzi dyskusję etapami. Rzadziej GenAI występuje jako sztuczny członek grupy z przypisaną rolą, np. inżyniera, który dorzuca perspektywę ekspercką.


OECD wskazuje, że w collaborative learning kluczowe jest, by AI wzmacniała interakcje między studentami. Ten wątek jest omawiany jako obiecujący, ale wymagający dobrego projektu. Co ważne, w raporcie rozdzielono współpracę służącą, nauczeniu się od uczenia się współpracy – o tym drugim twardych badań wciąż jest niewiele. Pojawiają się pierwsze obiecujące sygnały, ale to nadal pole, które dopiero zapełnia się dowodami.


Asystent na wagę złota

Ciekawym rozwiązaniem dydaktycznym jest również JeepyTA – wirtualny asystent prowadzącego przypięty do konkretnego kursu. Został opracowany w Penn Center for Learning Analytics działającym przy University of Pennsylvania. Najpierw karmi się go materiałami z danego przedmiotu, np. sylabusami, podręcznikami, slajdami i komentarzami prowadzącego, a potem współpracuje ze studentami wyłącznie na podstawie tych źródeł.


Technicznie wykorzystuje do tego RAG (Retrieval-Augmented Generation), czyli generowanie z dołączonym kontekstem z dokumentów. Dzięki temu nie zmyśla i może odsyłać do konkretnego miejsca w zasobach. Ważne jest też, że prowadzący może ustawić tryb, w którym odpowiedzi trafiają od razu do studentów (szybka pomoc), albo tryb, w którym wymagają akceptacji, co jest bezpieczniejsze przy wrażliwych tematach.

Do wiosny 2025 roku narzędzie wdrożono w 14 kursach w trzech instytucjach w USA, a kolejne uruchomienia planowano m.in. w Singapurze i Kolumbii. Inicjatywie przyświeca założenie, że asystent ma sens wtedy, gdy jest zakotwiczony w ograniczonych zasobach kursu i ma jasne granice odpowiedzialności, np. nie pisze prac za studentów i nie podaje gotowych rozwiązań.


Na naszym lokalnym podwórku

W raporcie nie znalazłam przykładów z Polski, ale u nas też sporo się dzieje. Spójrzmy choćby na ocenianie. Ciekawym przypadkiem jest eksperyment egzaminacyjny na Uniwersytecie Jagiellońskim, w którym studenci mogli korzystać z ChataGPT w trakcie zaliczenia. Nowy model egzaminu, opracowany przez prof. Wojciecha Balucha z Katedry Performatyki UJ, zastosowano na przedmiotach: poetyka dramatu oraz strategie sztuk performatywnych i miał formułę selektywnego egzaminu ustnego. W jego trakcie studenci wybierali obszar, w którym chcieli pogłębić swoją wiedzę, po czym otrzymywali tezy do obrony. Następnie mieli możliwość pracy z GPT4 Turbo przez 30 minut, po czym uczestniczyli w zmodyfikowanej debacie oksfordzkiej. Metoda została tak opracowana, że nauczyciel oceniał jakość argumentacji, tok rozumowania oraz umiejętność pracy ze źródłami.


Co z tego wynika?

W raporcie przywołano ważny eksperyment przeprowadzony w Turcji. Choć badanie dotyczyło uczniów szkół średnich, jego wyniki są istotne także dla szkolnictwa wyższego, ponieważ pokazują ogólne mechanizmy wpływu AI na proces uczenia się i transfer wiedzy. Wykazano, że uczniowie, którzy mieli dostęp do ChataGPT-4 podczas nauki matematyki, uzyskiwali lepsze wyniki: około +48% przy standardowej wersji Chata i aż +127% w wersji tutoringowej specjalnie zaprojektowanej, aby wspierać uczenie się. Jednak podczas egzaminów zdający, którzy korzystali z pomocy AI, osiągnęli wyniki o 17% gorsze niż ci, którzy nie mieli wcale do niej dostępu podczas nauki.


Wszystko zatem wskazuje na to, że AI może pomagać uzyskać lepsze wyniki, a jednocześnie osłabiać uczenie się. Może też powodować efekt kuli inwalidzkiej (crutch effect), opisujący zjawisko technologii, która daje tymczasowe wsparcie, ale utrudnia samodzielne funkcjonowanie lub rozwój.


Zanim AI stanie się naszym dydaktycznym chlebem powszednim potrzebujemy jednej spójnej ramy systemowej. OECD zwraca uwagę, że chaty bardzo szybko stały się narzędziem łatwo dostępnym i często używanym poza kontrolą instytucji, dlatego same formalne miary typu ECTS przestają oddawać realny wysiłek studenta. W części systemowej raport odwołuje się do podejścia „course load analytics” i przywołuje przykład UC Berkeley, gdzie szacuje się obciążenie kursu na podstawie danych z LMSa, a potem porównuje je z formalną liczbą godzin lub punktów. Użycie GenAI wpływa na tempo i sposób wykonywania zadań, dlatego instytucje potrzebują na nowo przyjrzeć się rozwiązaniom, które stosują od lat.


Autorzy publikacji pokazali jednocześnie zachwyt i tarcie. Najciekawsze przykłady to te, w których AI pomaga wykładowcy lepiej zrozumieć dane i proces uczenia się, zmusza studentów do myślenia albo wspiera dydaktykę, ale bez odbierania sprawczości człowiekowi. Takie rozwiązania niejedna instytucja przyjmie z otwartymi rękami. Musimy jednak pamiętać, że o nieudanych próbach mówi się rzadziej, dlatego do nowych podejść trzeba podchodzić z pewną rezerwą. Jeśli chodzi o metody nauczania w czasach AI, myślę, że najciekawsze przykłady zastosowań ciągle są jeszcze przed nami.


Artykuł ukazał się również na łamach pisma Forum Akademickie


Autorką artykułu jest: Alina Guzik


Komentarze


bottom of page