Dyskusja o obecności sztucznej inteligencji w polskich szkołach podstawowych przestała być już tylko abstrakcyjną debatą futurystów, a stała się palącym wyzwaniem dla rodziców, pedagogów i decydentów. W klasach, gdzie jeszcze niedawno królowały podręczniki i tablica kredowa, dziś coraz śmielej wkraczają algorytmy zdolne do pisania wypracowań, rozwiązywania równań czy generowania obrazów na zawołanie. Pytanie, czy dzieci w wieku od siedmiu do piętnastu lat powinny mieć do nich swobodny dostęp, dzieli środowisko edukacyjne na dwa obozy. Z jednej strony słychać głosy entuzjastów, którzy widzą w tym szansę na uwolnienie potencjału twórczego i przygotowanie najmłodszych do życia w świecie, gdzie AI będzie tak powszechne jak dziś prąd czy internet. Z drugiej – wybrzmiewają ostrzeżenia psychologów i neuronaukowców, którzy przestrzegają przed kształtowaniem umysłów niedojrzałych neurologicznie w oparciu o relację z maszyną, która nie zna granic etycznych ani konsekwencji własnych “wypowiedzi”. Aby uczciwie zmierzyć się z tym tematem, nie wystarczy spojrzeć na niego przez pryzmat technologicznej nowinki. Należy głęboko przeanalizować, czym w ogóle jest edukacja wczesnoszkolna i jakie są jej fundamentalne cele: czy chodzi o jak najszybsze przekazanie narzędzi do pozyskiwania informacji, czy może o powolne, żmudne budowanie struktur krytycznego myślenia, wyobraźni i odporności psychicznej, które od wieków były domeną relacji międzyludzkich.
Kluczowym argumentem zwolenników wczesnej implementacji AI jest koncepcja “native speakerów” świata algorytmów. Argumentują oni, że dziecko, które już w pierwszych klasach szkoły podstawowej będzie obcowało z asystentami AI, nabierze do nich naturalnej, intuicyjnej kompetencji, podobnej do tej, jaką dzieci uczące się języków obcych od kołyski zyskują w zakresie fonetyki. W tym ujęciu sztuczna inteligencja staje się nie tyle narzędziem do ściągania, ile nowym rodzajem “korepetytora” dostępnego 24 godziny na dobę, siedem dni w tygodniu. Wyobraźmy sobie ucznia, który zmaga się z tabliczką mnożenia – zamiast czekać na pomoc rodzica lub nauczyciela, może w bezpiecznej, pozbawionej presji oceny atmosferze poprosić AI o wytłumaczenie jej na dziesięć różnych sposobów, aż wreszcie znajdzie ten, który trafi do jego sposobu pojmowania świata. Personalizacja nauczania, o której marzyli reformatorzy edukacji od czasów Jana Amosa Komeńskiego, w erze AI staje się wreszcie realna. Każde dziecko może uczyć się we własnym tempie, a algorytm jest w stanie błyskawicznie identyfikować luki w wiedzy i proponować ćwiczenia idealnie dopasowane do jego poziomu, bez nudy dla zdolniejszych i bez frustracji dla tych, którzy potrzebują więcej czasu. W tym optymistycznym scenariuszu nauczyciel przestaje być “nadawcą treści”, którego głównym zadaniem jest wykładanie materiału przed klasą, a staje się mentorem, który nadzoruje proces, dba o rozwój społeczny i uczy tego, czego maszyna nauczyć nie może: krytycznej weryfikacji informacji, etyki i współpracy.
Ponadto nie sposób pominąć aspektu przygotowania zawodowego. Rynek pracy za kilkanaście lat, gdy dzisiejsi pierwszoklasiści będą wkraczać w dorosłość, będzie prawdopodobnie nie do poznania. Nie chodzi już tylko o to, że niektóre zawody znikną, ale o to, że większość z nich będzie wymagała płynnej współpracy z systemami AI. Wiedza encyklopedyczna, przez dekady uznawana za miarę inteligencji, traci na znaczeniu w momencie, gdy każdy smartfon ma natychmiastowy dostęp do całości ludzkiego zasobu wiedzy. W tych realiach kluczowe stają się tzw. kompetencje przyszłości: zdolność do zadawania precyzyjnych pytań (prompt engineering), umiejętność weryfikacji wiarygodności danych, kreatywność w łączeniu pozornie odległych dziedzin oraz adaptacyjność. Odrębność cyfrowa, czyli izolowanie dzieci od AI w szkole podstawowej pod pretekstem ochrony ich rozwoju, może doprowadzić do sytuacji, w której polskie dzieci wychowają się w edukacyjnym lamusie, a gdy w końcu zetkną się z zaawansowaną technologią w szkole średniej lub na studiach, będą wobec niej nie tyle krytyczne, ile bezradne. Boimy się, że dziecko “spisze” pracę domową z ChatGPT, ale czy nie lepiej nauczyć je, jak korzystać z tego narzędzia w sposób etyczny i rozwijający, niż spychać ten problem do sfery nielegalnego “ściągania”, co i tak jest nie do wyegzekwowania w domowym zaciszu? Edukacja oparta na zakazach w świecie technologii całkowicie przepuszczalnej jest z góry skazana na porażkę.
Z drugiej jednak strony barykady stoi szereg argumentów, które każą zachować daleko idącą ostrożność, a nawet opóźnić masowe wprowadzanie AI w edukacji wczesnoszkolnej do czasu, aż dokładnie zrozumiemy długofalowe konsekwencje neurobiologiczne i społeczne. Najpoważniejszym z nich jest wpływ na rozwój tzw. funkcji wykonawczych mózgu. Szkoła podstawowa, a zwłaszcza jej wczesny etap, to nie jest czas na przyswajanie jak największej ilości informacji – to krytyczne okno rozwojowe dla kształtowania się zdolności do koncentracji uwagi, wytrwałości w pokonywaniu trudności oraz budowania wewnętrznej motywacji. Proces uczenia się, zwłaszcza w matematyce, języku ojczystym czy naukach przyrodniczych, opiera się na pewnego rodzaju “zdrowej frustracji” – na momencie, gdy dziecko nie wie, musi pomyśleć, spróbować, popełnić błąd, wrócić i poprawić. To właśnie w tych momentach budują się połączenia neuronalne odpowiedzialne za odporność psychiczną i umiejętność radzenia sobie z niepowodzeniami. AI, która daje natychmiastową, gotową odpowiedź lub rozwiązanie, kradnie dziecku tę “przestrzeń do namysłu”. Jeśli uczeń od najmłodszych lat przyzwyczai się, że w momencie pojawienia się trudności może poprosić o podpowiedź maszynę, która nigdy się nie męczy, nie krytykuje i nie wymaga wysiłku, ryzykujemy wychowanie pokolenia niezdolnego do głębokiego, linearnego myślenia. Pojawia się zjawisko określane jako “atrofia poznawcza” – umysł, który nie jest zmuszany do wysiłku, traci zdolność do samodzielnego wysiłku intelektualnego, podobnie jak mięsień, który nie jest obciążany, zanika.
W tym kontekście należy z całą mocą podkreślić rolę relacji nauczyciel–uczeń, której żaden, nawet najbardziej zaawansowany algorytm, nie jest w stanie zastąpić. Szkoła podstawowa to nie jest tylko miejsce transferu wiedzy; to przede wszystkim przestrzeń socjalizacji, nauki empatii, rozpoznawania emocji własnych i cudzych oraz budowania pierwszych poważnych relacji poza rodziną. Nauczyciel nie tylko tłumaczy regułę ortograficzną, ale też reaguje na płacz dziecka, uczy je, jak przeprosić kolegę, jak przegrywać w grze, jak radzić sobie z niesprawiedliwością. AI jest z natury rzeczy pozbawione emocji; nawet jeśli będzie udawać empatię, będzie to jedynie symulacja pozbawiona autentycznego przeżywania. Jeśli w newralgicznym okresie kształtowania się osobowości dziecko spędzi znaczną część dnia szkolnego w interakcji z systemem, który nigdy nie jest zły, nigdy nie jest zmęczone, nigdy nie ma złego dnia, może to zaburzyć jego zdolność do rozumienia subtelnych sygnałów społecznych. Pojawia się ryzyko, że dzieci zaczną traktować relacje międzyludzkie w kategoriach transakcyjnych, tak jak interakcję z chatbotem: wpisz prompt, uzyskaj odpowiedź. Świat międzyludzki jest jednak nieprzewidywalny, pełen niedomówień i paradoksów, i to właśnie ta nieprzewidywalność jest kluczowa dla nauki dojrzałości emocjonalnej.
Nie można także pominąć kwestii ochrony prywatności i bezpieczeństwa danych najmłodszych. Większość dostępnych narzędzi AI, zwłaszcza tych o charakterze generatywnym, działa w chmurze i przetwarza ogromne ilości danych. Wprowadzenie ich do szkół podstawowych na masową skalę oznacza, że wrażliwe dane biometryczne, głosowe, a przede wszystkim intelektualne dzieci (ich prace, pytania, sposób rozumowania) stają się towarem, na którym uczą się algorytmy korporacji technologicznych. W przeciwieństwie do tradycyjnego zeszytu, który po zakończeniu roku szkolnego trafiał do szafy, interakcje z AI pozostają w bazach danych często przez lata. Rodzice i pedagodzy rzadko mają pełną świadomość, jakie konsekwencje może mieć profilowanie poznawcze dziecka od najmłodszych lat. Kto będzie miał dostęp do historii tych zapytań? Czy na podstawie sposobu, w jaki siedmiolatek uczył się matematyki, będą w przyszłości podejmowane decyzje dotyczące jego ścieżki edukacyjnej, a nawet kredytowej? To nie są pytania z gatunku science fiction; to realia gospodarki danymi, w której edukacja staje się kolejnym sektorem poddanym ekstrakcji wartości. Dodatkowym ryzykiem jest nieuchronna stronniczość algorytmów. Sztuczna inteligencja uczy się na danych wygenerowanych przez ludzi, a więc przejmuje ich uprzedzenia kulturowe, rasowe, klasowe. Dziecko w szkole podstawowej, które nie ma jeszcze w pełni ukształtowanego krytycznego myślenia, może bezkrytycznie przyswajać te wzorce, utrwalając stereotypy, zanim nauczy się je dostrzegać.
Kolejny wymiar tej debaty dotyczy kondycji psychicznej dzieci, która – jak pokazują badania – i tak jest w kryzysie na niespotykaną dotąd skalę. Pośpiech, nadmiar bodźców, presja sukcesu i uzależnienie od ekranów to problemy, które trawią współczesne pokolenie. Wprowadzenie AI do szkół podstawowych jako stałego elementu procesu dydaktycznego może ten kryzys pogłębić. Istnieje poważne ryzyko, że zamiast odciążyć ucznia, AI stanie się kolejnym narzędziem do zwiększania wymagań. Skoro “maszyna to potrafi”, to oczekiwania wobec dziecka wzrosną – prac domowych będzie więcej, będą bardziej skomplikowane, a czas na autorefleksję, nudę (która jest niezwykle ważna dla kreatywności) i zabawę na świeżym powietrzu drastycznie się skurczy. W tym kontekście pojawia się też pytanie o sprawiedliwość społeczną. Dostęp do zaawansowanych, bezpiecznych i etycznie zaprojektowanych narzędzi AI nie jest i nie będzie równy. W bogatszych dzielnicach, w szkołach prywatnych i w domach świadomych technologicznie rodziców dzieci będą uczyły się z AI w sposób kontrolowany, rozwijający, pod okiem specjalistów. W biedniejszych szkołach, gdzie brakuje nauczycieli przedmiotów ścisłych, AI może zostać potraktowane jako tani substytut pedagoga, co pogłębi nierówności edukacyjne. Zamiast być narzędziem emancypacji, w niesprzyjających warunkach systemowych może stać się wehikułem reprodukcji nierówności.
Przechodząc do głębszej analizy tego napięcia między koniecznością przygotowania do przyszłości a ochroną integralności procesu rozwoju, musimy zadać sobie fundamentalne pytanie o to, co w edukacji wczesnoszkolnej jest absolutnie niezbywalne i co może, a czego nie może być zdigitalizowane. Kluczem do odpowiedzi nie jest bowiem czarno-białe “tak” lub “nie”, ale znalezienie złotego środka, który uwzględniałby dynamikę rozwoju dziecka. Wiek siedmiu lat a wiek czternastu lat to dwie różne rzeczywistości biologiczne i psychologiczne. Tym, czego brakuje w gorącej dyskusji o AI w szkołach, jest właśnie zróżnicowanie etapów. Niewątpliwie istnieje ogromna różnica między wykorzystaniem asystenta głosowego do wspólnego czytania bajki w klasie pierwszej a korzystaniem przez ósmoklasistę z zaawansowanego narzędzia do analizy danych w ramach projektu edukacyjnego. Postulowanie całkowitego zakazu AI w szkołach podstawowych jest naiwne, ale równie naiwne jest pozostawienie tej kwestii bez regulacji i nadzoru pedagogicznego, uznając, że “dzieci i tak to mają w kieszeni”. Zadaniem systemu edukacji, który chce pozostać odpowiedzialny, jest wypracowanie ścieżki stopniowego wprowadzania kompetencji algorytmicznych, która będzie szła w parze z rozwojem poznawczym dziecka.
W tym kontekście niezwykle ważne jest, aby pierwsze lata edukacji (klasy 1-3) pozostały w dużej mierze “strefą wolną od AI” lub obszarem, w którym wykorzystuje się ją jedynie jako narzędzie nauczyciela, a nie bezpośrednie narzędzie pracy ucznia. To etap, w którym kluczowa jest nauka czytania, pisania i liczenia w sposób analogowy. Nauka pisania ręcznego, choć przez wielu postrzegana jako anachronizm, ma fundamentalne znaczenie dla rozwoju mózgu – aktywuje obszary odpowiedzialne za pamięć, sekwencjonowanie ruchów i integrację sensoryczną, których nie zastąpi pisanie na klawiaturze. Jeśli dziecko w tym wieku przyzwyczai się, że to AI formułuje za nie zdania, nigdy nie przejdzie przez proces “walki ze słowem”, który uczy precyzji myślenia. To właśnie w tych wczesnych latach dziecko musi zrozumieć, że błąd ortograficzny, który sam poprawi po namyśle, ma większą wartość edukacyjną niż sto błędów poprawionych automatycznie przez algorytm. Można powiedzieć, że AI w tym etapie powinna być obecna wyłącznie w tle – jako pomoc dla nauczyciela w diagnozie trudności ucznia (na przykład poprzez analizę postępów w czytaniu bez etykietowania dziecka), ale nie jako “trzecie ucho” w klasie, które odbiera dziecku intymność procesu uczenia się.
W miarę dorastania, szczególnie na drugim etapie edukacyjnym (klasy 4-6), pojawia się naturalna potrzeba wprowadzenia elementów edukacji o AI, a nie tylko przez AI. Dzieci w tym wieku są już gotowe, by zrozumieć, czym właściwie jest sztuczna inteligencja, jakie ma możliwości, a jakie ograniczenia. To idealny moment, aby uczyć krytycznego myślenia poprzez praktyczne ćwiczenia: poprosić ucznia, aby za pomocą AI wygenerował tekst na zadany temat, a następnie – korzystając z tradycyjnych źródeł, takich jak książki, encyklopedie i rozmowa z ekspertem – zweryfikował jego prawdziwość, znalazł halucynacje algorytmu i przeanalizował, dlaczego AI mogła popełnić dany błąd. Taka forma nauki odwraca perspektywę: AI przestaje być “wszechwiedzącym panaceum”, a staje się przedmiotem analizy. Uczeń uczy się, że jest to narzędzie, które może się mylić, które ma wbudowane uprzedzenia i które wymaga nadzoru człowieka. To buduje znacznie zdrowszą relację z technologią niż bezkrytyczne przyjęcie jej jako źródła absolutnej prawdy. Równolegle na tym etapie należy kłaść ogromny nacisk na rozwijanie kompetencji, które są “odporne na AI” – takich jak głęboka analiza literacka, dyskusja aksjologiczna, eksperymenty przyrodnicze wymagające bezpośredniej obserwacji. Dziecko musi doświadczyć, że choć AI napisze wypracowanie o “Panu Tadeuszu”, to nie jest w stanie przeżyć wzruszenia podczas czytania inwokacji na głos w klasie, ani podzielić się osobistą refleksją o tęsknocie za domem, która rodzi się dopiero w kontekście grupy rówieśniczej.
Ostatni etap szkoły podstawowej (klasy 7-8) to czas, w którym przygotowujemy młodzież do wyzwań szkoły ponadpodstawowej i dorosłości. Tu AI może stać się zaawansowanym narzędziem wspomagającym, ale pod ścisłym nadzorem pedagogicznym i etycznym. To moment, by uczyć odpowiedzialnego korzystania z AI – cytowania, transparentności, zaznaczania, która część pracy została wykonana z pomocą algorytmu. Powinno się traktować to analogicznie do zasad korzystania z kalkulatora: na matematyce uczymy się najpierw liczyć w pamięci, potem na kalkulatorze prostym, a dopiero na wyższych poziomach korzystamy z zaawansowanych narzędzi obliczeniowych. Tak samo z AI: najpierw musimy opanować rzemiosło pisania, formułowania argumentów, strukturyzowania myśli samodzielnie, dopiero potem możemy wykorzystywać AI do przyspieszania pracy nad tymi umiejętnościami. W tym wieku zasadne jest też wprowadzenie elementów etyki algorytmów. Uczniowie powinni dyskutować o problemie własności intelektualnej – czy AI kradnie twórczość artystów? O wpływie rekomendacji na kształtowanie się światopoglądu – dlaczego algorytmy social mediów pokazują nam to, co nas złości? O różnicy między danymi a wiedzą. To nie jest już tylko nauka obsługi narzędzia, to kształtowanie świadomego obywatela w społeczeństwie algorytmicznym.
Nie sposób jednak mówić o bezpiecznym wprowadzaniu AI do szkół bez fundamentalnej zmiany w podejściu do roli nauczyciela i systemu kształcenia pedagogów. Obecnie większość kadry nauczycielskiej w polskich szkołach podstawowych to osoby, które same nie miały styczności z tego typu technologiami w trakcie swojego wykształcenia. Zostawienie ich samych z dyrektywą “używajcie AI w nauczaniu” bez zapewnienia kompleksowych szkoleń, wsparcia technicznego i przede wszystkim czasu na przeprojektowanie programów nauczania jest działaniem pozorowanym, które skończy się albo całkowitym odrzuceniem technologii, albo jej chaotycznym, szkodliwym wykorzystaniem. Nauczyciel w erze AI musi stać się nie tylko mentorem, ale też “curatorem” treści – osobą, która selekcjonuje narzędzia, projektuje zadania w taki sposób, by były “odporne na bezmyślne użycie AI”, i która potrafi rozmawiać z uczniem o tym, jak i dlaczego wykorzystał algorytm do swojej pracy. To wymaga zmiany w systemie wynagradzania i prestiżu zawodu – nie możemy oczekiwać, że nauczyciele będą inwestować swój wolny czas w zdobywanie kompetencji przyszłości, jeśli system traktuje ich jak urzędników od wypełniania podstawy programowej. W tym kontekście kluczowe jest również zaangażowanie rodziców. Edukacja o AI nie może kończyć się na bramie szkoły. Rodzice często czują się bezradni wobec kompetencji cyfrowych swoich dzieci, a jednocześnie to oni ponoszą odpowiedzialność prawną i wychowawczą. Szkoła powinna stać się miejscem, gdzie buduje się sojusz z rodzicami w zakresie ustalania zasad korzystania z AI w domu, podobnie jak od lat robi się to w kontekście bezpieczeństwa w sieci czy higieny cyfrowej.
Kolejnym aspektem, który wymaga głębokiej refleksji, jest kwestia oceniania i ewaluacji postępów ucznia w świecie powszechnej dostępności AI. Tradycyjny system oparty na sprawdzianach pisemnych i pracach domowych wykonywanych samodzielnie w domu staje się fikcją. Jeśli nie zmienimy paradygmatu oceniania, AI stanie się narzędziem do masowego oszukiwania, a oceny przestaną odzwierciedlać rzeczywiste umiejętności ucznia. To jednak może być pozytywny katalizator zmiany. Być może nadszedł czas, aby przesunąć ciężar z oceny produktu (pracy domowej) na ocenę procesu. W klasie, gdzie AI jest obecna, nauczyciel może skupić się na tym, jak uczeń doszedł do rozwiązania, jakie zadawał pytania algorytmowi, jak interpretował jego odpowiedzi, jak bronił swojego zdania w debacie na forum klasy. Praca domowa może przybrać formę, w której AI jest dozwolona, ale uczeń ma obowiązek dołączyć “transparent myślenia” – opis, w jaki sposób korzystał z narzędzia, co zmodyfikował, co dodał od siebie. Taka zmiana wymaga ogromnego nakładu pracy organizacyjnej, ale może doprowadzić do edukacji bardziej autentycznej, skoncentrowanej na kompetencjach, a nie na pamięciowej reprodukcji informacji. Wizja ta jest jednak trudna do zrealizowania w obecnym systemie, w którym klasy są przeludnione, a nauczyciele obciążeni biurokracją.
Nie można również pominąć w tej analizie kontekstu zdrowotnego. Wprowadzenie AI do szkół podstawowych wiąże się z dalszym zwiększeniem czasu, jaki dziecko spędza przed ekranem. Obecnie specjaliści biją na alarm w związku z krótkowzrocznością epidemiczną wśród dzieci, zaburzeniami koncentracji uwagi (ADD) oraz problemami ze snem spowodowanymi niebieskim światłem. AI, ze względu na swoją interaktywność i zdolność do nieustannego dostarczania nowych bodźców, jest szczególnie “lepka” i może prowadzić do jeszcze głębszego uzależnienia od urządzeń cyfrowych. W odpowiedzialnym modelu edukacji, wykorzystanie AI musiałoby iść w parze z radykalnym zwiększeniem aktywności fizycznej, czasu spędzanego na świeżym powietrzu oraz zajęć manualnych w szkole. Nie może być tak, że dziecko spędza sześć godzin w szkole przy komputerze z asystentem AI, a potem wraca do domu i również spędza czas przed ekranem. Edukacja przyszłości musi być holistyczna – równowaga między technologią a ciałem, między światem wirtualnym a realnym, staje się kluczową kompetencją, której szkoła podstawowa musi uczyć nie poprzez zakazy, ale poprzez organizację dnia.
Podsumowując tę głęboką refleksję nad obecnością sztucznej inteligencji w szkole podstawowej, należy stwierdzić, że nie stoimy przed wyborem między “nową erą edukacji” a “katastrofą rozwojową”. Stoimy przed wyzwaniem mądrego, odpowiedzialnego i etapowego projektowania rzeczywistości edukacyjnej, która wykorzysta potencjał AI do wzmacniania tego, co w edukacji najcenniejsze, a jednocześnie ochroni dzieci przed jej destrukcyjnym wpływem na procesy poznawcze i społeczne. Kluczowe jest odrzucenie techno-determinizmu, który podpowiada, że skoro coś jest technologicznie możliwe, to musi być wprowadzone natychmiast i powszechnie. Decyzje o tym, kiedy, w jakim zakresie i pod jakim nadzorem dziecko zetknie się z zaawansowanymi algorytmami, nie mogą być pozostawione ani przypadkowi, ani korporacjom technologicznym, dla których edukacja jest jednym z rynków zbytu. Muszą być one przedmiotem szerokiej debaty społecznej, opartej na aktualnej wiedzy psychologicznej, pedagogicznej i neurologicznej, a nie na emocjach czy presji rynku.
Sztuczna inteligencja w rękach mądrego nauczyciela, wspierającego rodzica i w strukturach szkoły, która stawia na pierwszym miejscu dobrostan dziecka, może stać się potężnym narzędziem wyrównywania szans i odkrywania talentów. Może uwolnić nauczyciela od żmudnej pracy administracyjnej, dając mu więcej czasu na indywidualną pracę z uczniem. Może dostarczyć dziecku z dysleksją narzędzi do wyrażenia swoich złożonych myśli, bez bariery poprawnej pisowni. Może pozwolić małemu odkrywcy na wirtualne podróże w miejsca, których nie odwiedzi z powodu bariery finansowej. Ale te wszystkie “może” nie spełnią się automatycznie. Aby tak się stało, musimy spojrzeć prawdzie w oczy: szkoła podstawowa nie jest laboratorium badawczym dla koncernów technologicznych, a dzieci nie są beta testerami. Potrzebujemy jasnych regulacji prawnych dotyczących przetwarzania danych dzieci przez systemy AI, obligatoryjnych standardów etycznych dla narzędzi edukacyjnych oraz – co najważniejsze – głębokiej refleksji nad celem edukacji w XXI wieku. Czy chcemy wychować pokolenie, które będzie biegłe w “klepaniu promptów”, ale nie będzie umiało napisać odręcznie listu do bliskiej osoby, nie będzie potrafiło usiedzieć w ciszy bez ekranu dłużej niż kwadrans, nie będzie rozumiało, skąd biorą się emocje drugiego człowieka? Czy może chcemy wychować pokolenie, które dzięki AI będzie miało więcej czasu na to, co naprawdę ludzkie: na twórczość, na głębokie relacje, na rozwiązywanie skomplikowanych problemów wymagających współpracy i empatii?
Odpowiedź na te pytania zadecyduje o kształcie edukacji na najbliższe dekady. Jedno jest pewne: nie możemy udawać, że rewolucja AI nie ma miejsca. Nie możemy też zrzucić odpowiedzialności za nią na barki pojedynczych nauczycieli czy przytłoczonych rodziców. Potrzebujemy narodowej strategii, która będzie traktować edukację cyfrową nie jako dodatek do “prawdziwej” szkoły, ale jako integralną część nowoczesnego systemu, z zachowaniem wszystkich zasad bezpieczeństwa i higieny pracy umysłowej. W tej strategii kluczowe jest miejsce na analog – na książkę, na rozmowę twarzą w twarz, na eksperyment chemiczny, który może skończyć się wybuchem, bo to uczy odpowiedzialności. Szkoła podstawowa musi pozostać miejscem, w którym dziecko uczy się porządku świata – nie tylko tego cyfrowego, ale przede wszystkim tego fizycznego, społecznego i etycznego. AI może być w tym miejscu gościem – mile widzianym, ale nie może przejąć nad nim władzy. Jeśli zdołamy utrzymać tę równowagę, jeśli uda nam się wprowadzić AI do szkół z pokorą i rozwagą, jaką daje zrozumienie kruchości rozwijającego się mózgu dziecka, to być może faktycznie wejdziemy w nową erę edukacji – taką, w której technologia służy rozwojowi, a nie rozwojowi technologii za wszelką cenę. Jeśli jednak ulegniemy presji, pośpiechowi i fascynacji nowością, zapominając o fundamentach, możemy obudzić się z ręką w nocniku, wychowując pokolenie pozornie genialne w obsłudze narzędzi, ale tragicznie nieprzygotowane do zmierzenia się z wyzwaniami, które wymagają prawdziwej, głębokiej, samodzielnej myśli.
