Imię i nazwisko:
Adres email:

Poleć treść:


Testomania - "czarna śmierć" (edukacji) XXI wieku

Jarosław Pytlak, 14 Listopad 13 Dodaj komentarz Wyślij Drukuj

Wprowadzenie z początkiem wieku egzaminów zewnętrznych do polskiego systemu edukacji wydawało się wielkim krokiem ku nowoczesności. Pojawił się oto powszechny i, jak się zdawało, obiektywny sposób pomiaru osiągnięć szkolnych, zarówno kolejnych roczników, jak też każdego ucznia z osobna. Wśród zalet nowego rozwiązania wskazywano możliwość porównywania efektów nauczania w różnych szkołach oraz pełną kontrolę realizacji „Podstawy programowej kształcenia ogólnego”, wynikającą z powiązania treści tego dokumentu ze standardami egzaminacyjnymi. W atmosferze ogólnego entuzjazmu, który w owym czasie był także moim udziałem, nie zwrócono uwagi, że w Anglii, skąd skopiowano przyjęte rozwiązania, budziły one już wówczas rozliczne wątpliwości.

Dzisiaj, z perspektywy kilkunastu lat obserwacji i pełnionej przez cały ten czas funkcji dyrektora szkoły podstawowej i gimnazjum, w pełni potwierdzam ich zasadność. Uważam, że negatywne skutki systemu państwowych egzaminów zdecydowanie dominują nad pozytywnymi, na co zresztą wskazują także niektórzy naukowcy, na przykład, przewodniczący Komitetu Nauk Pedagogicznych PAN, prof. Bogusław Śliwerski[1]. W mojej opinii system ten nadaje się tylko do likwidacji, jako nieefektywny, niesprawiedliwy i przynoszący poważne szkody kształceniu młodego pokolenia. Co postaram się wykazać poniżej.

W obowiązującym obecnie modelu państwo śledzi postępy każdego ucznia, dokonując co trzy lata pomiaru za pomocą narzędzia zwanego testem. Testuje się szóstoklasistę pod koniec szkoły podstawowej[2], następnie ucznia kończącego naukę w gimnazjum, a także, w znaczącej części populacji, maturzystę i studenta. Forma pisemnego testu niemal całkowicie wyparła inne metody egzaminowania. Certyfikowany kolejnymi egzaminami absolwent systemu edukacji podejmuje w końcu pracę, by przekonać się, że... w niczym nie przypomina ona rozwiązywania zadań testowych. 

Za pomocą testu można ocenić poziom niektórych tylko kompetencji. Sprawdzian po szóstej klasie sprawdza ich pięć: czytanie, pisanie, rozumowanie, korzystanie z informacji i zastosowanie wiedzy w praktyce. To nawet sporo jeśli chodzi o efekty sześciu lat nauki, ale mało względem ogółu zadań, które powinna w owym czasie wypełnić szkoła podstawowa. Ze sprawdzianu szóstoklasisty nie dowiadujemy się niczego na temat poziomu kreatywności ucznia, ani jego kompetencji społecznych. Nie informuje nas o tym również żaden kolejny egzamin, bowiem test jako narzędzie takiej informacji po prostu nie jest w stanie wygenerować. Tymczasem kreatywność i kompetencje społeczne są co najmniej równie ważnym kluczem do sukcesu –  w każdym niemal zawodzie – jak wiedza.

Nawet te kompetencje, które można zbadać, są mierzone w sposób niedoskonały. Wynika to z samej natury pytań testowych. Część z nich ma charakter zamknięty, to znaczy wymaga wskazania jednej z (zazwyczaj) czterech zaproponowanych odpowiedzi. W teście złożonym z takich pytań, statystycznie rzecz biorąc, można uzyskać 25% punktów nie posiadając żadnego pojęcia o jego materii. Oczywiście istnieją metody uwzględniania czynnika losowości przy ocenianiu, ale zawsze w przypadku konkretnego ucznia pozostanie margines niepewności, na ile wynik odzwierciedla jego autentyczną wiedzę i umiejętności, a na ile tylko szczęście albo pecha. 

Zaletą pytań zamkniętych jest łatwość sprawdzania i porównywalność uzyskanych rezultatów, jednak nie wszystkie umiejętności, nawet te związane z nabywaniem wiedzy, mogą być weryfikowane za ich pomocą. Z tego powodu większość testów egzaminacyjnych zawiera również pytania otwarte, to znaczy takie, w których egzaminowany musi sam zapisać pewną treść lub rozwiązanie. W tym przypadku sprawdzanie testu nie może ograniczyć się do automatycznej weryfikacji, czy zostały zaznaczone właściwe odpowiedzi. Pojawia się egzaminator - człowiek wyszkolony w dziedzinie oceniania. Aby zapewnić możliwie jednolity sposób sprawdzania prac przez wielu egzaminatorów, wyposaża się ich w tzw. klucz, to znaczy precyzyjną instrukcję punktowania odpowiedzi. I właśnie ta precyzja klucza, z której wynika absolutny brak elastyczności w ocenianiu, stanowi jeden z najbardziej krytykowanych elementów systemu. 

Obowiązek ścisłego trzymania się litery klucza niejednokrotnie powoduje, że odpowiedź na zdrowy rozum lepsza od innej uzyskuje niższą ocenę (patrz przypadek opisany w ramce). Ale to stosunkowo mały problem, bo nie ma idealnej metody oceniania. Prawdziwym nieszczęściem jest szerzące się, zwłaszcza wśród maturzystów, zjawisko uczenia się „pod klucz”, to znaczy zapamiętywania gotowych schematów odpowiedzi na różne pytania. Wspomniałem wcześniej, że testy nie dają możliwości zmierzenia kreatywności ucznia. Jest nawet gorzej – przez zastosowanie w ocenianiu schematów zapisanych w kluczach, mogą być dla kreatywności zabójcze.
 

 
Do czego może prowadzić zastosowanie klucza w ocenianiu dobrze ilustruje porównanie wypowiedzi pisemnych dwójki uczniów naszej Szkoły w teście Ogólnopolskiego Sprawdzianu Kompetencji Trzecioklasisty Wydawnictwa OPERON w 2010 roku. Polecenie brzmiało: Opowiedz o swojej wycieczce w ciekawe miejsce. Możesz napisać o prawdziwym lub wymyślonym wyjeździe. Twoja wypowiedź powinna składać się z 5-10 zdań

Ania napisała tak: 
Opowiem wam o wycieczce do Kudowy Zdrój w której byłam z rodzicami, siostrą i bratem. Kiedy się pakowaliśmy było niezłe zamieszanie. Ja szykowałam aparat i baterie. Tata pomagał spakować się mojemu bratu a ja, mama i moja siostra pakowałyśmy się same. Wyjechaliśmy po południu w piątek. Kiedy jechaliśmy wstąpiliśmy do kopalni złota w Złotym Stoku. W sobotę pojechaliśmy do Jaskini Niedźwiedziej i Kaplicy Czaszek. A w niedzielę pojechaliśmy do Błędnych Skałek i Aquaparku. Tej wycieczki chyba nie zapomnę i mam nadzieję że kiedyś tam jeszcze pojadę. 

A tak napisał Jaś:
Z klasą pojechałem na wycieczkę do Torunia. Pani pozwoliła nam kupić upominki dla rodziców. Dla brata kupiłem piłkę. Dla taty kupiłem pompkę bo mu zepsułem. Żartowaliśmy z kolegami. Była świetna zabawa.

Wypowiedź Ani zawiera aż dziewięć zdań, w tym cztery złożone. Wypowiedź Jasia, to tylko sześć zdań, w tym zaledwie jedno złożone. Chociaż oboje właściwie wykonali polecenie, nietrudno dostrzec większą sprawność językową dziewczynki. Niestety, w swojej wypowiedzi Ania pominęła aż cztery przecinki, podczas gdy klucz dopuszczał tylko trzy takie błędy. Z kolei Jaś w swoim tekście nie przekroczył limitu błędów, bowiem pominął tylko jeden przecinek - nieważne, że jedyny tam potrzebny. Chłopiec otrzymał maksymalną ocenę – dziesięć punktów, podczas gdy jego koleżanka tylko dziewięć. Zgodnie z kluczem, ale kompletnie niezgodnie ze zdrowym rozsądkiem. 
 
Zastosowanie pytań otwartych zwiększa możliwości diagnostyczne testu, czyli zakres umiejętności, które można sprawdzić za jego pomocą. Paradoksalnie, niedawna reforma egzaminu gimnazjalnego wydzieliła dwa testy: przyrodniczy oraz humanistyczny, które składają się wyłącznie z pytań zamkniętych. Wygląda na to, że ekonomia pokonała na tym odcinku pedagogikę, bowiem sprawdzanie takich prac nie wymaga zatrudnienia armii egzaminatorów. A ja, jako nauczyciel chemii otrzymałem przy okazji mały bonus - pewność, że moi uczniowie podczas egzaminu nie będą musieli napisać własnoręcznie ani jednego wzoru.
 

* * *
 
 
Niemała grupa obywateli, w tym, podejrzewam, większość rodziców, a nawet część nauczycieli wierzy, że wyniki egzaminów testowych odzwierciedlają rzeczywisty poziom opanowania treści zapisanych w „Podstawie programowej”. Na pewno wierzą w to ci dziennikarze, którzy komentują wyniki podawane przez Centralną Komisję Egzaminacyjną w taki, mniej więcej, sposób: „Tegoroczni szóstoklasiści napisali test słabiej niż ich koledzy rok wcześniej” (w zależności od rocznika zamiast „słabiej” może być „lepiej”). Tymczasem nie ma to nic wspólnego z prawdą.

Trudność testów egzaminacyjnych podlega skalowaniu w stosunku do poziomu prezentowanego przez młodzież z danego rocznika. Oznacza to, że projektowane pytania są w sposób anonimowy testowane w celu wybrania takich, które zapewnią z góry założoną trudność testu. Kto nie wierzy w możliwość przyjęcia takiego założenia i uzyskania wysokiego procentu trafności powinien uświadomić sobie, że egzaminy piszą setki tysięcy uczniów, a w tak wielkiej populacji obliczenia statystyczne sprawdzają się dość niezawodnie. Zatem jeszcze przed egzaminem wiadomo, z dużą dozą prawdopodobieństwa, jaki będzie jego wynik. A to otwiera pewne możliwości.
 
 
2002 29,49
2003 28,61
2004 25,55
2005 29,50
2006 25,30
2007 26,60
2008 25,80
2009 22,64
2010 24,56
2011 25,27
2012 22,74
2013 24,03

 
W tabeli zestawione zostały średnie ogólnopolskie wyników sprawdzianu szóstoklasisty z lat 2002-2013. Widać wyraźnie „falowanie” rezultatów, a różnica pomiędzy najwyższym i najniższym, sięgająca niemal siedmiu punktów, mogłaby wskazywać na dramatyczne wahania efektów nauczania w kolejnych rocznikach (ale wiemy, że to niemożliwe, bo testy są skalowane), nieudolność autorów testów (mało prawdopodobne; są to wysokiej klasy specjaliści), albo wreszcie wpływ jakichś innych czynników. Co do tego ostatniego, wśród możliwych hipotez jedna wydaje się szczególnie interesująca. Otóż lokalne „szczyty” wyników dokładnie pokrywają się z latami wyborów parlamentarnych 2005 i 2011 (wybory 2007 były niespodziewane, więc nie mogły mieć wpływu na przygotowanie testu). Cóż, wyższe wyniki punktowe dziecka, to wyższy poziom satysfakcji wyborców, a ten przekłada się na konkretne procenty poparcia dla aktualnie rządzącej ekipy. Absurd? Wcale niekoniecznie.

Coroczne skalowanie poziomu trudności testu powoduje, że wyniki punktowe uzyskiwane w różnych latach są nieporównywalne. 30 punktów Jasia na sprawdzianie w roku 2005 wcale nie świadczy, że był on lepiej wykształcony niż jego siostra Ania, która uzyskała 25 punktów w roku 2011 – choć intuicyjnie rodzice obojga będą zapewne traktować wynik córki jako niepowodzenie. Porównując oba wyniki z odpowiednimi średnimi można jedynie stwierdzić, że Ania wypadła nieco gorzej na tle rówieśników, niż jej brat. I to wszystko.

Jeśli wierzyć specjalistom z Centralnej Komisji Egzaminacyjnej, istnieje możliwość tzw. zrównania wyników z kolejnych lat za pomocą metod statystycznych. Informacja o tym znajduje się w sprawozdaniu CKE ze sprawdzianu 2005 (patrz ramka). 
 
 

Aby w sposób uprawniony tegoroczne wyniki porównać z wynikami z lat ubiegłych, Centralna Komisja Egzaminacyjna we współpracy z komisjami okręgowymi oraz prof. B. Niemierką i dr. H. Szaleńcem przeprowadziła dodatkowe badania (tzw. zrównywanie wyników). Przeprowadzone analizy dowodzą, że wyższy niż w 2004 r. wynik uzyskany na sprawdzianie 2005 jest nie tylko skutkiem zastosowania łatwiejszego testu, ale także świadczy o wzroście osiągnięć szóstoklasistów 2005. Co więcej, zestawienie zrównanych wyników 2002-2005 pozwala na określenie tendencji zmian osiągnięć uczniów w tych latach. Obrazuje ją następujący wykres



Zmiany średnich wyników zrównanych w latach 2002 - 2005

"wykres"
 


Linia stanowiąca pierwszy odcinek krzywej jest wykropkowana, bowiem tamto zrównywanie miało charakter pilotażowy. Odnotowano wtedy spadek średniej o ponad dwa punkty procentowe, ale ta diagnoza była statystycznie niepewna. Od roku 2003, roku bazowego, następuje wzrost średniej i ta ogólna tendencja jest statystycznie zasadniczo pewna.

 
Z całym szacunkiem dla autorów tej publikacji, końcówka przytoczonego wywodu nie jest zbyt przekonywująca. Zresztą, technika zrównywania nie zagościła na stałe w systemie. Być może okazała się jednak niepewna, albo po prostu nie było na nią zapotrzebowania.

Ponieważ bezwzględne wyniki testów w kolejnych latach nie są porównywalne, nasuwa się konkluzja, że najważniejszą funkcją egzaminów państwowych jest zróżnicowanie uczniów w obrębie roczników, bez względu na rzeczywisty poziom ich wiedzy i umiejętności (o kreatywności i kompetencjach społecznych nie mówiąc). Potwierdził to wprost Wiceminister Edukacji Narodowej Maciej Jakubowski w wywiadzie zamieszczonym 6 maja 2013 roku na portalu www.gazetaprawna.pl, stwierdzając:
 

Łatwość egzaminu jest dostosowywana tak, aby mierzył on jak najlepiej umiejętności całej populacji uczniów. Zbyt trudny egzamin będzie mało przydatny do oceny słabszych uczniów, a zbyt łatwy nie pozwoli rozróżnić umiejętności najlepszych. Dlatego CKE próbuje tworzyć egzaminy, które nie są ani za trudne, ani za łatwe. Dla ucznia ważna jest nie tyle trudność egzaminu, ile porównanie z innymi uczniami na tym samym teście. Wyników egzaminów z kolejnych lat nie da się porównać rok do roku, a nawet między przedmiotami. 

W przeciwieństwie do Pana Wiceministra nie uważam, że dla ucznia ważne jest tylko porównanie z innymi. Takie podejście osób odpowiedzialnych za oświatę prowadzi wprost do wykluczenia najsłabszych, którzy mimo włożonego wysiłku osiągają gorsze rezultaty niż bardziej uzdolnieni rówieśnicy. Może być akceptowalne przy rekrutacji na studia, gdzie trzeba wybrać najlepszych z większego grona kandydatów, ale na pewno nie w szkole podstawowej i gimnazjum, które powinni ukończyć wszyscy młodzi ludzie, najlepiej w poczuciu sukcesu. Podejście zaprezentowane przez Pana Wiceministra deprecjonuje inne niż sukces egzaminacyjny źródła motywacji do nauki. Jest przez to niesprawiedliwe wobec uczniów i nauczycieli. Jest też szkodliwe dla systemu edukacji, bowiem oznacza w istocie przymusowe wprzęgniecie wszystkich jego uczestników w mechanizm „wyścigu szczurów”, organizowanego przez państwo w całym majestacie prawa!
 

* * *
 
 
Jak Polska długa i szeroka zespoły pedagogiczne „planują”, „wdrażają” i „intensyfikują” działania, mające na celu poprawę wyników nauczania, których jedynym realnie funkcjonującym w społeczeństwie wskaźnikiem jest rezultat osiągnięty przez uczniów na egzaminie. Mimo, że „Podstawa programowa” nakłada na szkołę szereg zadań, których wykonanie nie przekłada się na wynik egzaminacyjny, opinia publiczna oraz organy prowadzące rozliczają nauczycieli prawie wyłącznie z miejsca szkoły w rankingu. 

W panującym systemie nie ma realnej możliwości, by rada pedagogiczna mogła uznać osiągnięty poziom nauczania za wystarczający i zogniskować swoją aktywność na rozwijaniu, na przykład, kompetencji społecznych uczniów. Dla zilustrowania tej tezy przyjrzyjmy się hipotetycznej sytuacji, w której, dzięki geniuszowi pewnego rocznika dzieci i wytężonej pracy nauczycieli wszystkie szkoły podstawowe w Polsce uzyskałyby średni wynik sprawdzianu szóstoklasisty powyżej 36 punktów na 40. Wiem, że jest to niemożliwe, bo skalowanie etc., ale przez chwilę zajmijmy się fantastyką edukacyjną. Otóż te placówki, które osiągnęłyby wyniki w przedziale 36-37 punktów byłyby automatycznie uznane za najgorsze i umieszczone w ogonie wszelkich rankingów! Ich zespoły pedagogiczne zostałyby niechybnie zobowiązane do „opracowania i wdrożenia” stosownych działań naprawczych, pomimo uzyskania wyników przekraczających 90%! Panujący system wymaga bowiem, by sukces jednych był zrównoważony porażką innych. Jest to świadomy wybór jego twórców, zgodny z królującym dzisiaj w polskiej oświacie poglądem, że najlepszym czynnikiem rozwoju jest rywalizacja. Pragnę jednak w tym miejscu zwrócić uwagę, że nie jest to ani jedyne możliwe, ani jedyne słuszne podejście do edukacji, a najbardziej oczywista alternatywa nazywa się współpraca.

W moich pedagogicznych poglądach dominuje przekonanie, że należy dążyć do zapewnienia sukcesu każdemu uczniowi i każdemu nauczycielowi. Nie mogę pogodzić się z tym, że system wprowadzony przez państwo wymaga, by część uczniów (i ich nauczycieli) musiała ponieść porażkę, aby inni mogli okazać się najlepsi. A już na pewno nie na tych etapach edukacji, które obowiązkowo dotyczą wszystkich dzieci - w szkole podstawowej i w gimnazjum. Jeśli egzaminy zewnętrzne nie pozwalają na rzetelny pomiar stopnia spełnienia przez ucznia wymagań określonych w „Podstawie programowej”, to należałoby z nich zrezygnować. Tymczasem zamiast tego władze oświatowe wciąż rozbudowują system egzaminów, wprowadzając rozwiązania, w założeniu mające czynić go bardziej czytelnym. W tym celu do opisywania wyników stosuje się skalę staninową, a postęp dokonany przez uczniów gimnazjów i liceów wyraża w postaci edukacyjnej wartości dodanej (EWD). Niestety, od samego mieszania herbata nie staje się słodsza...

Skala staninowa pokazuje jaką pozycję zajmuje dany wynik na tle wyników osiągniętych przez całą badaną populację. Wprowadza dziewięć przedziałów, od najniższego (1) do najwyższego (9). Pozwala porównać wynik szkoły na tle innych placówek w różnych latach, pomimo tego, że trudność egzaminów mogła być bardzo zróżnicowana. W takim porównaniu zawsze tylko ok. 4% placówek mieści się w przedziale najwyższym i tyle samo w najniższym; również w środkowych przedziałach lokuje się z góry określony odsetek ogólnej ich liczby. Pozycja na skali staninowej nie odzwierciedla więc jakości nauczania w danej szkole, ale jedynie określa jej miejsce w stosunku do innych. Utrwala tym samym stan, w którym po każdym egzaminie część placówek występuje w roli przegranych.

O ile skala staninowa jest prostym narzędziem ułatwiającym porównywanie wyników uzyskiwanych przez poszczególne szkoły na tle innych placówek w różnych latach, o tyle edukacyjna wartość dodana (EWD) stanowi narzędzie bardzo złożone, w którym władze oświatowe pokładają nadzieję na rzetelną ocenę jakości pracy (jak na razie) gimnazjów i liceów. Warto zgłębić tajniki EWD, korzystając z bogatego zasobu informacji zawartych na stronie www.ewd.pl, firmowanej przez Instytut Badań Edukacyjnych. Znajdujemy tam, między innymi, następujące wyjaśnienie:
 

Edukacyjna wartość dodana definiowana jest jako przyrost wiedzy uczniów w wyniku danego procesu edukacyjnego. W sensie technicznym - EWD dla szkoły to średnia z różnic między wynikami przewidywanymi a wynikami uzyskanymi na egzaminie zewnętrznym przez jej uczniów. Tak wyznaczana wartość dodana szkoły to przeciętna wzrostu umiejętności i wiedzy uczniów do niej uczęszczających w danym okresie.

Wydawać by się mogło, że EWD jest ucieleśnieniem marzeń o idealnym narzędziu oceny pracy szkoły. Porównanie wyników osiągniętych przez uczniów pod koniec wcześniejszego etapu edukacji i wyników osiągniętych „na wyjściu” ze szkoły wydaje się rzeczywiście świetnym pomysłem. Budzi jednak kilka zastrzeżeń.

Opierając kalkulację na wynikach testów egzaminacyjnych, EWD dziedziczy wszystkie ograniczenia tego sposobu egzaminowania. Nie pokazuje wkładu szkoły w rozwój kreatywności ucznia i jego kompetencji społecznych. Wykazuje zmiany poziomu tylko tych kompetencji intelektualnych, które można zmierzyć za pomocą testu. Powiela w ten sposób błąd właściwy całemu systemowi.

Zastrzeżenie budzi sama istota EWD. Oto na stronie www.edu.pl[3] możemy przeczytać:
 

„(…)wskaźnik EWD dla szkoły [gimnazjum – przyp. JP] mówi o tym, na ile wysokie/niskie wyniki egzaminu końcowego uzyskali jego absolwenci w porównaniu do uczniów w całej Polsce o analogicznych wynikach na sprawdzianie. Wskaźnik ma charakter względny, czyli służy do porównywania szkół. W skali kraju wskaźnik EWD ma z definicji wartość równą zeru. Wartość dodatnia EWD wskazuje na ponadprzeciętną efektywność nauczania, wartość ujemna na niższą niż przeciętna efektywność”. 

W innym miejscu jeden z twórców polskiej wersji EWD, Roman Dolata, pisze wprost:
 

Względny charakter wskaźnika sprawia, że poprawa jakości nauczania jest grą o sumie zerowej: moja szkoła może uzyskać wyższy wynik mierzony wartością dodaną tylko o tyle, o ile inne szkoły/szkoła uzyskają niższe wyniki. Teoretycznie może się zdarzyć, że szkoła podejmuje skuteczne działania naprawcze, ale wynik w kolejnej edycji egzaminu jest niższy, bo inne szkoły postarały się bardziej[4].

Oto więc oferuje się uczniom i nauczycielom i podnosi do rangi ważnego narzędzia oceny pracy szkoły kolejny – obok średniej egzaminacyjnej) – wskaźnik, który z definicji wymaga, by sukces jednych był zrównoważony porażką innych! Dotyczy to zresztą również każdego ucznia z osobna. Sparafrazujmy Pana Dolatę: Teoretycznie może się zdarzyć, że uczeń wykona skuteczny wysiłek w kierunku zdobywania nowej wiedzy i umiejętności, ale jego wynik na kolejnym egzaminie będzie gorszy, bo inni uczniowie postarają się bardziej. To jest po prostu niepedagogiczne!

Trzecie zastrzeżenie ma charakter czysto etyczny. W materiałach publikowanych przez naukowców z IBE często pojawia się zapewnienie, że metoda umożliwia oddzielenie efektów pracy szkoły od czynników środowiskowych. To twierdzenie opiera się na założeniu, że nawet relatywnie słaby wynik „na wyjściu” może być świadectwem postępu ucznia, o ile miał on jeszcze słabszy (znowu relatywnie) wynik „na wejściu”. Innymi słowy: wystarczy odpowiednie zaangażowanie nauczycieli w pracę ze słabymi nawet uczniami, aby osiągnąć najwyższy status - „szkoły sukcesu”. Niestety, jest to po prostu nieprawda.

Moje doświadczenia wielu lat pracy pedagogicznej jednoznacznie wskazują, że większość uczniów osiągających słabe wyniki w szkole podstawowej zazwyczaj równie słabo radzi sobie na kolejnym etapie kształcenia. Nieważne, czy przyczyną trudności szkolnych jest dysleksja, zaniedbanie środowiskowe, mniejsze możliwości intelektualne, czy cokolwiek innego – w miarę upływu lat nauki braki nawarstwiają się i coraz trudniej je skompensować. Oczywiście większości takich młodych ludzi można w miarę skutecznie pomóc w zdobyciu wykształcenia, ale ich postępy, przy największym nawet wsparciu ze strony szkoły, niemal zawsze są wolniejsze niż ich rówieśników, którzy wcześniej osiągnęli sukces edukacyjny. Na potwierdzenie tej tezy przytaczam poniżej fragment prezentacji dobrej praktyki dyrektorskiej zaczerpnięty z materiałów VIII Kongresu Zarządzania Oświatą[5]. Rzecz dotyczy Zespołu Szkół z Oddziałami Integracyjnymi, działającego w jednym z dawnych miast wojewódzkich, liczącego około 450 uczniów i 70 nauczycieli, o którym jego Dyrektorka napisała w sposób następujący:
 

Szkoła posiada liczący się w regionie dorobek edukacyjny i wychowawczy, przoduje w zakresie wyposażenia w nowoczesne technologie komunikacyjne i informacyjne, wspomagające proces dydaktyczny i wychowawczy. Do szkoły uczęszczają dzieci i młodzież o specjalnych potrzebach edukacyjnych, w tym z upośledzeniem umysłowym w stopniu lekkim, umiarkowanym, niedosłyszący, niedowidzący i niewidomi, z niepełnosprawnością ruchową, z autyzmem dziecięcym, z Zespołem Aspergera, dużą grupę stanowią uczniowie niedostosowani społecznie lub zagrożeni niedostosowaniem społecznym. Szkoła osiąga średnie wyniki egzaminów zewnętrznych, w ostatnich dwóch latach edukacyjna wartość dodana w obu częściach egzaminu gimnazjalnego była ujemna (...). 

Jeżeli szkoła posiadająca „liczący się w regionie dorobek edukacyjny i wychowawczy, przodująca w zakresie wyposażenia w nowoczesne technologie” i zatrudniająca aż 70 nauczycieli na 450 uczniów (to bardzo wysoki poziom zatrudnienia, prawdopodobnie związany z integracyjnym charakterem placówki) uzyskuje ujemną wartość EWD, to naprawdę trudno to tłumaczyć niską efektywnością pracy dydaktycznej. Wyjaśnienie kryje się raczej w zawartej w tekście charakterystyce uczniów. Życzę tej szkole jak najlepiej i podziwiam Dyrektorkę za wolę doskonalenia i dążenie do sukcesu, ale szukałbym go gdzie indziej, niż w osiągnięciu dodatniej wartości EWD. Przestudiowałem wykresy EWD ponad stu gimnazjów z różnych stron Polski, aby znaleźć szkoły, w których uczniowie mający mniej niż średni rezultat na sprawdzianie szóstoklasisty uzyskali wyższy od prognozowanego wynik na egzaminie gimnazjalnym[6]. Długo „klikałem”, zanim znalazłem pierwszą taką placówkę.

O tym, że sukces idzie za uczniem może świadczyć również przykład warszawskich gimnazjów z czołowej dwudziestki rankingu wyniku egzaminacyjnego w roku 2012. Wszystkie te placówki, bez wyjątku, szczycą się niezwykle wysoką wartością EWD. Ich starannie wyselekcjonowani uczniowie[7], wnoszący świetny wynik sprawdzianu szóstoklasisty, okazują się zarazem gwarantami jeszcze lepszego rezultatu „na wyjściu”, osiągając w ciągu trzech lat nauki w gimnazjum zdecydowanie większy postęp niż ich mniej uzdolnieni rówieśnicy[8]. Przy całym szacunku dla niewątpliwie doskonałej pracy nauczycieli w tych szkołach – w populacji wielu tysięcy uczniów tendencja po prostu nie może być inna.

Naprawdę, w świetle powyższych argumentów, nie rozumiem, dlaczego środowisko oświatowe uważa EWD za coś lepszego niż „zwykły” ranking. W istocie jest to wciąż wynik egzaminu, przetworzony metodami matematycznymi, ale pokazujący nadal to samo – że jedni są lepsi od innych. Z jedną pozytywną różnicą - „chmurkę” na wykresie EWD trudniej jest porównać z innymi w celu stworzenia rankingu.

Podsumowując dotychczasowy wywód: mamy test, jedno z narzędzi pomiaru dydaktycznego, na tle innych całkiem wygodne i łatwe w użyciu, mające jednak sporo ograniczeń. To narzędzie stało się centralnym elementem zorganizowanego w majestacie prawa państwowego „wyścigu szczurów”, rozgrywanego w kategorii indywidualnej (uczniowie) oraz zespołowej (szkoły). Uczestnicy wyścigu utrzymywani są w błędnym przekonaniu, że rezultat zależy wyłącznie od nich samych; podobnie sądzą obserwatorzy – rodzice, organy prowadzące, dziennikarze. 

I wszyscy wymienieni, w mniejszym lub większym stopniu, ulegają zjawisku społecznemu o cechach epidemii, które można określić mianem testomanii.
 

* * *
 
 
Jednym z najbardziej widocznych przejawów tego zjawiska jest ciągłe rozrastanie się systemu egzaminów. W 2002 roku zaczynaliśmy od jednego sprawdzianu po szóstej klasie, obejmującego całokształt osiągnięć ucznia. Lada moment będziemy mieć trzy rozłączne części: polonistyczną, matematyczną i językową. Początkowo deklarowano z całą mocą, że sprawdzian ma mieć znaczenie wyłącznie diagnostyczne, a jego wynik nie będzie brany pod uwagę przy rekrutacji do gimnazjum. Wynikało to z sensownego pedagogicznie założenia, że dwunastoletni uczniowie nie powinni stawać w obliczu stresu związanego z egzaminem decydującym o ich przyszłości. Ale to już przeszłość – wszędzie, gdzie istnieje jakiś wybór pomiędzy gimnazjami, rezultat sprawdzianu jest ważnym kryterium rekrutacji. Z kolei na etapie gimnazjum zaczynaliśmy od dwóch egzaminów, mających charakter interdyscyplinarny. Teraz jest ich pięć, a o łączeniu treści nauczania różnych przedmiotów w spójny scenariusz arkusza testowego nikt już nawet nie myśli.

W kalejdoskopie zmian dotyczących matury, będąc tylko postronnym obserwatorem, dawno się już pogubiłem.

Władze oświatowe wciąż łakną więcej i więcej informacji. Chętnie sięgają po nowe narzędzie statystyków, jakim jest EWD. Niestety (z ich punktu widzenia) obliczenie tego wskaźnika wymaga informacji na temat poziomu reprezentowanego przez ucznia „na wejściu” do szkoły, co uniemożliwia dokonanie kalkulacji dla szkoły podstawowej. Ale tylko chwilowo – mamy przecież już OBUT, czyli Ogólnopolskie Badanie Umiejętności Trzecioklasistów, współfinansowane przez Unię Europejską z Programu Operacyjnego Kapitał Ludzki (…), Działanie 3.2 (Uwaga! - JP): „Rozwój systemu egzaminów zewnętrznych”. Obawiam się, że niedługo na tej bazie powstanie kolejny egzamin, mający służyć, oczywiście, jak najlepszej ocenie pracy szkoły podstawowej. I pewnie mielibyśmy szansę doczekania się egzaminu testowego na koniec przedszkola, gdyby nie to, że dzieci po zreformowanej przedszkolnej „zerówce” szczęśliwie nie umieją jeszcze pisać[9].

Testomania w największym stopniu dotyka szkół. Przejawia się, na przykład, mnożeniem próbnych testów (rekordziści potrafią fundować szóstoklasistom nawet 2-3 w każdym miesiącu), organizowaniu specjalnych zajęć przygotowawczych i przypominaniu uczniom i nauczycielom na każdym kroku, że dobry wynik to cel najwyższy i punkt honoru dla wszystkich. Dążenie do sukcesu jest tak wielkie, że rozciąga się nawet na OBUT, który oficjalnie ma charakter dobrowolny. Skala niepokojących zjawisk musi być ogromna, skoro koordynatorka tego programu uznała jakiś czas za stosowne temu rozesłać do dyrektorów następujący apel:
 

Podczas zeszłorocznego Ogólnopolskiego Badania Umiejętności Trzecioklasistów OBUT (…) dotarły do nas niepokojące informacje, że w niektórych szkołach stworzona została wokół badania atmosfera egzaminacyjna, np. trzecioklasiści rozwiązywali zadania w specjalnie przygotowanej sali z pojedynczymi stolikami, w obecności komisji złożonej z nieznanych im nauczycieli. Zapewne spowodowało to absolutnie niepotrzebne i szkodliwe, a wywołane przez dorosłych, napięcie u uczniów, które mogło mieć wpływ na nieadekwatność uzyskanych przez nich wyników. 

Tymczasem dyrektorzy chcieli tylko dobrze – niech się dzieci przyzwyczajają do stresu, to w szóstej klasie osiągną wyniki już z pewnością adekwatne.

Niemal każda szkoła stara się przyjąć jak najlepszych kandydatów, bo oni rokują sukces na końcowym egzaminie, podwyższenie szkolnej średniej, ewentualnie dodatnią wartość wskaźnika EWD. Przeglądając strony internetowe różnych placówek widzi się niemal wyłącznie ofertę dla zdolnych i ambitnych; nieliczne oferują słabszym „sukces na miarę możliwości”. Naprawdę trudno znaleźć zwyczajną szkołę, która wychodziłaby poza schemat marketingowy obejmujący dobre przygotowanie do egzaminów i sukcesy w konkursach, okraszone zapewnieniem o bezpieczeństwie i niezwykle wartościowym programie wychowawczym[10]

Na szczególną uwagę zasługują działania niektórych niepublicznych podstawówek, które dysponując nadmiarem kandydatów wybierają dzieci o „najwyższej dojrzałości szkolnej” (to taki eufemizm w miejsce słowa „najzdolniejsze”). Osobiście egzaminowanie sześciolatków uważam za nieetyczne, ale staram się zrozumieć pobudki autorów takiej oto wskazówki dla rodziców:
 

(...) aby dziecko było dobrze przygotowane do 1 klasy, należy z nim „popracować” w domu. Edukacja przedszkolna może się okazać niewystarczająca z punktu widzenia „egzaminu rekrutacyjnego” (Nie lubimy tego określenia i w ogóle rekrutacji, ale taka jest rzeczywistość). 

Przyjmując dzieci, z którymi najskuteczniej „popracowano” w domu, szkoła zyskuje gwarancję lepszego wyniku sprawdzianu. Cel uświęca środki.

Testomania rozwija się w najlepsze dzięki wsparciu czynników społecznych. To nie dyrektor szkoły ustala sobie warunki umowy, w której miejsce w rankingu jest podstawowym kryterium oceny jego pracy. Czyni to organ prowadzący. Chcesz otrzymać premię? Twoja szkoła musi być najlepsza w mieście! Pamiętam rozmowę z koleżanką kierującą szkołą zlokalizowaną w najtrudniejszym środowisku społecznym dzielnicy. Żaliła się, że choćby nie wiem, co zrobili nauczyciele, nie są w stanie uzyskać wyniku lepszego od innych. Niby burmistrz rozumie tę sytuację, ale... o nagrodach za swoją pracę zdążyła już zapomnieć. Trafiają one zawsze do liderów rankingu.

Ostatnim, ale wcale nie najmniej ważnym nosicielem wirusa testomanii są rodzice. Jakże często wydaje im się, że szkoła z czołówki rankingu będzie najlepsza dla ich pociechy. Patrzą z podziwem na cyferki, a nie z mądrym krytycyzmem na swoje dziecko. Fundują kursy przygotowawcze, korepetycje, naukę szybkiego czytania i co tam jeszcze wymyślono, aby zwiększyć szansę na miejsce w upragnionej szkole, w której znowu będą wymagania, korepetycje i tak dalej. Choć, w gruncie rzeczy, cóż się im dziwić. Skoro państwo organizuje cały ten system, skoro dobry wynik egzaminu daje większe prawo wyboru dalszej drogi kształcenia, skoro tak przyjemnie jest wiedzieć, że własne dziecko lepiej wypadło na sprawdzianie niż dzieci kolegów z pracy, to... zaangażowanie emocjonalne rodziców jest zrozumiałe. I trudno wymagać, by skoncentrowani na swoim dziecku dostrzegali niedoskonałości systemu. To powinni czynić i o tym powinni mówić pedagodzy. 

Na naszych oczach dokonała się cudowna przemiana. Narzędzie, które wymyślono, aby wspomagać nauczanie zmieniło się w cel kształcenia. Dzisiaj program nauczania musi „doprowadzić każdego ucznia kończącego szkołę do osiągnięcia możliwie najlepszego wyniku na egzaminie”[11]. Ktoś mógłby pomyśleć, że taki program ma tylko w sposób uporządkowany pomagać zdobyć wiedzę i umiejętności. Ale nie – jego celem stał się egzamin.
 

* * *
 
 
Muszę przyznać, że nie wierzę w jakąś szczególną moc sprawczą tego artykułu. Po pierwsze, mogę nie mieć racji. Być może egzamin testowy to najlepsza rzecz, jaką w pedagogice wymyślono od czasów Komenskiego, albo przynajmniej najlepsze rozwiązanie dla naszej postindustrialnej oświaty. Na poparcie swojego stanowiska mogę jednak dodać, że kładąc nacisk na wychowanie ludzi szczęśliwych, a nie skutecznych „pożeraczy testów” mam poczucie sukcesu, oparte na wciąż licznych, mimo niżu demograficznego, zastępach rodziców chcących zapisać dzieci właśnie do naszej Szkoły. 

W swojej opinii na temat testów mogę też mieć rację, z której nic specjalnego nie wyniknie. System egzaminacyjny jest w tej chwili bardzo rozbudowany, dobrze zorganizowany i oparty na głębokim przekonaniu władz o jego słuszności. Wpompowano w niego potężne pieniądze i choćby z tego powodu zdaje się nie mieć alternatywy. Chociaż... mam pewien pomysł. może nie na zmianę, ale na coś w rodzaju pigułki łagodzącej dolegliwości. Opiszę go w następnym artykule.
 
 

* * *
 

 
[1] „Zmierzamy ku edukacyjnej katastrofie. Sowietyzację zastąpiła amerykanizacja.” – gazetaprawna.pl, 4.05.2013
[2] Test związany z Ogólnopolskim Badaniem Umiejętności Trzecioklasistów (OBUT) w tym miejscu pomijam, ponieważ, przynajmniej teoretycznie, jest on dobrowolny. Będzie o nim jednak mowa w dalszej części artykułu.
[4] Dolata R. (red.), Edukacyjna wartość dodana jako metoda oceny efektywności nauczania na podstawie wyników egzaminów zewnętrznych. wyd. CKE, Warszawa 2007, s.6
[6] Na takim wykresie „chmurka” znajduje się w lewej górnej ćwiartce, opatrzonej nazwą „szkoła wspierająca”. Jeżeli ktoś chciałby bardziej wgłębić się w treść wykresu EWD, niech zwróci uwagę, że „chmurka” wzorcowa (90% szkół) ma kształt elipsy, której największa część powierzchni leży w ćwiartce „szkoła sukcesu” (uczniowie dobrzy „na wejściu” dokonali ponadprzeciętnego postępu) oraz w ćwiartce „szkoła wymagająca pomocy” (uczniowie słabi „na wejściu” zrobili postęp mniejszy od przeciętnego). Inne scenariusze należą do rzadkości.
[7] W czołówce rankingu znalazły się gimnazja niepubliczne, organizujące egzaminy wstępne dla kandydatów, oraz publiczne, z jednym wyjątkiem dwujęzyczne, a więc te, w których podejmują naukę uczniowie z najwyższym wynikiem tzw. testu predyspozycji językowych. Czyli crème de la crème absolwentów warszawskich podstawówek.
[8] W tym samym roku 2012 dodatnią wartością EWD osiągnęły tylko nieliczne warszawskie gimnazja z oddziałami integracyjnymi.
[9] Jeden z pierwszych czytelników tego artykułu zwrócił mi uwagę, że istnieją metody pomiaru, nie wymagające umiejętności pisania, które można by zastosować, aby określić poziom sześciolatków „na wejściu” do szkoły. A zatem czekajmy cierpliwie.
[10] Pisząc te słowa ciepło pomyślałem o moim koledze, Andrzeju Nizielskim, dyrektorze Zespołu Szkół STO w Raciążu, z błyskiem w oku opowiadającym o licealistach, „z których mało kto kończył gimnazjum ze średnią wyższą niż 4”, a którym pomagał budować poczucie własnej wartości prowadząc ich do sukcesów w... rozgrywkach piłkarskich.
[11] Cytat z programu nauczania „Matematyka wokół nas”, WSiP.


 
* * *

 

 O autorze:
"Piotr   

Jarosław Pytlak

Magister biologii i pedagogiki. Od 1990 roku dyrektor Szkoły Podstawowej nr 24 STO (od 2007 Zespołu Szkół STO). Instruktor ZHP - harcmistrz. Autor wielu publikacji pedagogicznych, publicysta. Pasjonat sportu i turystyki. Zdeklarowany przeciwnik posłania 6-latków do polskiej szkoły.

 
Aktualna ocena

1

Oceń
Podziel się
KOMENTARZE
foto

Danuta Adamczewska-Królikowska, 24 Listopad 13 20:25

Bardzo dziękuję za ten porządnie udokumentowany logicznymi wywodami i racjonalnymi argumentami, tekst. W pełni zgadzam się z jego treścią, choć należałam do tych, którzy od początku bali się, że środek urośnie do rangi celu. Mam nadzieję, że coraz więcej głosów w tej sprawie rozpoczną odwrót, a przynajmniej zatrzymają tendencje rozszerzania tego systemu. Co prawda każdego roku obserwuję polepszenie jakości pytań testowych (uczę chemii i fizyki), to jednak nadal jest to instrument, który nie tylko nie przyniósł zakładanych zamierzeń, ale poprzez stanie się celem samym w sobie przyczynia się do patologii. Uczę uczniów wyrzuconych z innych gimnazjów, ci (chyba) nie zaniżają EWD macierzystych szkół, bo chyba żaden system tego nie obejmuje. Nietrudno wyobrazić sobie ciśnienie na tego typu "działania wychowawcze". A przyglądając się ostatnio formułowanym pytaniom z chemii i fizyki, to widzę, że najtrudniejsze dla moich (z reguły bardzo słabych) uczniów, to same sformułowania zadań. Pytania te nie sprawdzają wiedzy chemicznej i fizycznej, ale stopień zrozumienia sformułowania pytań, tak więc bez wielokrotnego przetrenowania (zetknięcia się z takimi piętrowo formułowanymi zadaniami), słaby uczeń nie ma szans wykazania się tym, co naprawdę umie. Trudność nie odzwierciedla stopnia poziomu wiedzy chemicznej, ale raczej rozumienia polecenia.

DODAJ KOMENTARZ
Zaloguj się albo Dodaj komentarz jako gość.

Dodaj komentarz:



REKLAMA
SPOŁECZNOŚĆ
KATEGORIE
NAJNOWSZE ARTYKUŁY

Warszawska Liga Debatancka dla Szkół Podstawowych - trwa przyjmowanie zgłoszeń do kolejnej edycji

Redakcja portalu 29 Czerwiec 2022

Trwa II. edycja konkursu "Pasjonująca lekcja religii"

Redakcja portalu 29 Czerwiec 2022

#UOKiKtestuje - tornistry

Redakcja portalu 23 Sierpień 2021

"Moralność pani Dulskiej" Gabrieli Zapolskiej lekturą jubileuszowej, dziesiątej odsłony Narodowego Czytania.

Redakcja portalu 12 Sierpień 2021

RPO krytycznie o rządowym projekcie odpowiedzialności karnej dyrektorów szkół i placówek dla dzieci

Redakcja portalu 12 Sierpień 2021


OSTATNIE KOMENTARZE

Wychowanie w szkole, czyli naprawdę dobra zmiana

~ Staszek(Gość) z: http://www.parental.pl/ 03 Listopad 2016, 13:21

Ku reformie szkół średnich - część I

~ Blanka(Gość) z: http://www.kwadransakademicki.pl/ 03 Listopad 2016, 13:18

"Takie będą Rzeczypospolite, jakie ich młodzieży chowanie"

~ Gość 03 Listopad 2016, 13:15

"Takie będą Rzeczypospolite, jakie ich młodzieży chowanie"

~ Gość 03 Listopad 2016, 13:14

Presja rodziców na dzieci - Wykład Margret Rasfeld

03 Listopad 2016, 13:09


Powrót do góry
logo_unii_europejskiej