2019. június 26., szerda , János, Pál

1055 Bp., Szalay u. 10–14.

Tel.: (+36-1) 235-7200

Fax: (+36-1) 235-7202

magyar english
Elfelejtett jelszó

Arany János Programok  IKT  OFI  OKJ  SDT  Vizsgacentrum  biztonságos iskola  egészségtudatos iskola  erőszakmentes  kiadvány  konferencia  kétszintű érettségi  letölthető  oktatás  próbaérettségi  pályázat  rendezvény  ÚPSZ  Új Pedagógiai Szemle  érettségi 

Intézeti folyóiratok

Köznevelés
Új Pedagógiai Szemle
Educatio
Könyv és nevelés
Kattintson ide a rendeléshez!
Tudástár >> Felnőttoktatás, élethosszig tartó tanulás >> A tanulás kora

A folyamatos értékelés szükségessége és lehetősége a(z) (felnőtt)oktatásban

2009. június 17.

Csaláné dr. Ranschburg Ágnes

Országos Közoktatási Intézet Program- és Tantervfejlesztési Központ

A folyamatos értékelés szükségessége és lehetősége a(z) (felnőtt)oktatásban

Az értékelés alapfogalmait, legfontosabb alapismereteit nemrégiben összefoglaltam a felnőttoktatásban résztvevők számára. Két ponton szándékozom kibővíteni az ott elmondottakat és túllépni az alapismeretek körén. Az egyik az értékelés magasabb szinteken folyó gyakorlatával kapcsolatos, a másik kitörési pont egy értékelési módszer (eszköz?) ismertetése, amely célravezető lehet a felnőttoktatásban is.

1. Az értékelés lehetséges formája: a teszt

Az iskolai értékelés legjellemzőbb formája nem is a mérés. Ha mérünk, akkor elemeire kell bontanunk a tudást, amelyet számonkérünk. A teszt jelentése próba, és ez a fogalom nem azonos azokkal az elhíresült feleletválasztós tesztekkel, amelyek a magyar közvéleményt teljesen ellenük fordították. Azt a tudást igyekszik kipróbálni, amiről szól. Ha ez a rajzolni tudás – az is lehet –, akkor nem elégedhetünk meg azzal, hogy a tanuló néhány rajzolással kapcsolatos kérdésre tud válaszolni! Ha azt akarjuk megállapítani, hogy a tanuló tud-e rajzolni, rajzoltatnunk kell őt. Ebben az esetben nem a feladat, hanem a javítókulcs lesz analitikus.

A tesztnek a tovább nem bontható, legkisebb eleme az item. Minden item 1 pontot ér (vagyis nem létezik fél pont a tesztben és ez elvi kérdés is, nemcsak technikai). Az item esetében a kérdés mindig az: tudja vagy nem tudja azt az elemet a kitöltő? Ha igen, akkor 1 pont, ha nem, akkor 0 pont a válasz értéke. Nem lehet félig tudni valamit, akkor ott tovább kellett volna bontanunk a feladatot, mert több szempont maradt egyetlen itemben.

Sokan úgy gondolják, nem igazságos, hogy mindegyik részfeladat egy pontot ér, hiszen van értékesebb, fontosabb vagy egyszerűen csak nehezebb tudáselem, annak több pontot kellene érnie egy feladatlapon. Ők az értékelés fogalmának a terjedelmét szűkítik le. Az értékelés két szakasza az adatgyűjtés és az interpretálás. Az itemek az adatgyűjtéshez tartoznak és semmi közük ahhoz, hogy valamelyik feladat nagyobb súlyt kap esetleg az interpretációban, például az osztályzatban, amit a feladatlapra adunk.

A tesztnek olyan szinten kell számon kérnie, amilyen szinten tanítottuk. A tudás szintezése olyan szempontból, hogy milyen értelmi művelet elvégzését igényli a tanulótól, a feltétele annak is, hogy tudatosan tanítsunk, fokozatosan építve azt az épületet, amelyben az ismeretek csak a szükséges fogalomkészletet biztosítják azokhoz a műveletekhez, amelyeknek elvégzésére talán sikerül megtanítanunk, fejlesztenünk diákjainkat. B. Bloom taxonómiájában a szükséges művelet a felidézéstől a megértésen át az alkalmazás magasabb szintjeiig terjedő skála, amelyen elhelyezhetjük azokat a tananyagelemeket, amelyeket éppen tanítunk vagy számon kérünk.

Belső értékelést végzünk, ha a tesztet, amelyet mi készítettünk, magunk íratjuk meg a tanítványainkkal. De vajon milyen értékelés ebben a vonatkozásban az, ha nem a saját magunk készítette, hanem valamilyen külső standard teszttel mérjük meg őket? A külső-belső mérés nemcsak az értékelő szerint értelmezhető tehát, vagyis hogy iskolán belüli személy végzi-e a mérést vagy kívülről érkezik az illető. Az elvárás, amelynek meg kell felelniük a diákjainknak, szintén teheti külsővé vagy belsővé az adott értékelést. Ilyen szempontból külső mérés az iskola számára, hogy hány gyereket vettek fel magasabb iskolatípusba a tanítványai közül, míg belső értékelés az, hogy hányan buktak meg az adott évfolyamon.

A minősítő és helyzetfeltáró mérés alapvető különbsége egy mondatban leírható és én ezt az említett cikkben már leírtam: a minősítés esetén a véletlen dönthet, a vizsgázó húzhatja éppen azt a tételt, ami tud vagy nem tud, a teszt véletlenül kiválasztott feladatelemekre kérhet választ. A diagnosztikus értékelésnél ez nem lehetséges, hiszen minden megtanult anyag szerepel a mérésben és méghozzá olyan szinten, ahogy tanítottuk. Éppen ezért a vizsgáknál, hatalmas anyagok számonkérésekor tanulónként nem (csak a tanulócsoport esetén) alkalmazhatjuk, hiszen órákig írhatna szegény diák, de egy-egy téma zárásakor ezt kellene alkalmaznunk ahhoz, hogy meggyőződjünk arról, továbbmehetünk, mert a továbbhaladáshoz szükséges szinten a tanulók nagy része elsajátította a tananyagot. Azt hiszem, az a legnagyobb baj, hogy az iskolai mérések során a cél még mindig nem a helyzetfeltárás, hanem a minősítés. Egy osztályzatnak bizonyos időnként be kell kerülnie a naplóba ahhoz, hogy bizonyítványt adhassunk.

A teszttel mért tudás interpretálása is történhet osztályzattal. Ilyenkor a szokás az, hogy százalékszinteknél határvonalat húzunk: eddig kettes, innen hármas a dolgozat értéke. Mihez viszonyítunk ilyenkor? Kritériumhoz vagy normához? Kétségtelen, hogy a meghatározott százaléknyi tudás egyfajta kritérium. A szinteket azonban nem az adott tudás szerint alkalmazzuk (vagyis nem azt nézzük meg, hogy az adott témában mennyit kell tudni), hanem a teljesítmények Gauss-eloszlására törekszünk.

A tudás analitikus felbontása a tesztben és ennek a javítókulcsban való rögzítése biztosítja a teszt objektivitását.

Az a kérdés, hogy valóban azt és olyan szinten kértük-e a tesztben a tanulótól, mint ahogyan tanítottuk és elvárhatjuk, az a validitás kérdése. A validitást általában azzal sértik meg, ha mást mérnek, mint amit célul tűztek ki. Ilyen tévedés a rajzolni tudás mérése olyan kérdésekkel, amelyekből legfeljebb az derülhet ki, hogy a tanuló ismeri a színeket, tudja, mi a rajztábla és az ecset és esetleg még ennél nehezebbeket is tud, de hogy rajzolni tud-e, az nem.

Jól mértünk-e? Valóban annyi diákjaink tudása, amennyinek mértük? Egyetlen rendkívül fontos mutatóval megválaszolható kérdések ezek, a reliabilitás, a teszt megbízhatóságának a statisztikai mérőszámával. A 0 és 1 között különböző értéket felvehető mutató alapján akkor támaszkodhatunk nyugodtan az adatainkra, ha a mutató értéke közel van 1-hez, de legalább meghaladja 0,7-et. Sajnos a megbízhatóság csak a mérés után állapítható meg. Ráadásul elég nehézkes számítógép és megfelelő program nélkül kiszámítani. A magasabb szintű méréseknél próbamérést szoktak végezni, melynek során megállapítják a teszt megbízhatóságát, és csak megfelelően megbízható tesztekkel mérnek.

A sportban külön súlycsoportokba sorolják a bokszolókat, súlyemelőket. Az oktatásban – úgy tűnik – az anya végzettsége lehetne az a szempont, amelynek mentén súlycsoportok alakíthatók. Fontos lenne ez egyrészt azért, hogy az oktatáspolitika többletforrásokat biztosítson azokon a helyeken, ahol hátrányos helyzetűek nevelődnek. Fontos azonban azért is, mert csak ennek a szempontnak a segítségével mutatható ki az a bizonyos „hozzáadott érték”, sehogy máshogy. A középiskolák eredményeinek összehasonlítása során Neuwirth Gábor ezt úgy oldotta meg, hogy a szülők iskolázottságából, munkanélküliségi arányából és az általános iskolai osztályzatokból képzett mutatót levonták a középiskola eredményességi mutatószámából (amelyet a felvételi- és nyelvvizsgaarány, valamint az írásbeli dolgozatok átlagából képeztek). A különbség csak a hátrányosabb helyzetű iskolákban, például a kistelepülések iskoláiban, az állami fenntartású középiskolákban (szemben az alapítványi és magániskolákkal) mutatott valamennyi hozzáadott értéket. A fővárosi középiskolák többségében nemcsak nem jelzett hozzáadott értéket, hanem kifejezetten negatív volt ez az érték. Az évek múltával az egyre több összegyűlt adat valószínűleg lehetővé teszi, hogy ne csak iskolatípusonként, hanem iskolánként is kiszámolják ezt a mutatót.

2. A közelmúlt nevezetes értékelési tapasztalatai

Az értékelés különböző szinteken történhet. Minél magasabb szinten mérünk, annál távolabb áll tőlünk az iskola, annál inkább adattá nemesül a tanuló. Azt jelentené ez, hogy a magasabb szintű mérések nem fontosak? Szó sincs róla, csakhogy ezek másra valók: az iskoláról szólnak, de nem az iskolának, hanem a döntéshozásnak.

Az USA-ban a Szovjetunió által elsőként fellőtt szputnyik okozott olyan riadalmat, oktatáspolitikai válságot, hogy az oktatással foglalkozó írások azt az időszakot (a hatvanas évek elejét) ma is szputnyik-sokként emlegetik. Ma nálunk kezdenek PISA-sokkról beszélni. Előfordulhat, hogy a megrázkódtatás pozitív változásokhoz vezet. Reméljük, hogy a PISA-sokk nyomán olyan átalakulások kezdődnek az oktatásban, amelyek eredményesebbé teszik, de miért nem okozott ilyen megrázkódtatást az 1996. évi mérések eredménye? Az OECD keretében került sor – éppen Magyarország csatlakozásának évében, 1996-ban – a felnőtt olvasásértés-vizsgálatra. A cikk, amelyből a szövegrészleteket idézem, öt évvel a mérés után jelent csak meg. Akkor viszont egy nagyon olvasott, népszerű napilapban közölték. Nem emlékszem, hogy sokkot keltett volna az eredmény a közvéleményben, pedig legalább olyan rémületes, mint a PISA-mérés eredménye.

A húsz részt vevő ország egyike Magyarország volt. A 16–65 év közötti népesség reprezentatív mintájával három típusú feladatot oldattak meg. Egyszerű prózai, dokumentum jellegű szövegeket és adatszerű információkat kellett segítő kérdések útján értelmezni a vizsgálati személyeknek. A prózai szövegek megértésében az utolsó 5 között végeztünk a húsz ország közül. „A magyar felnőtt lakosság egy harmadáról elmondható, hogy szinte képtelen megérteni, amit olvas. Nekik még az is nehézséget okozna, hogy szakácskönyvből főzzenek ebédet, egy televízió használati utasításáról nem is beszélve. További 43% talán nem maradna éhen, ha szakácskönyvből kellene főznie, de az már nagy nehézséget jelentene, ha munkájához valami újat kellene tanulnia. Vagyis a magyar felnőttek 76%-a gyengén használja az írás és olvasás eszközét.” (Andor, 2001)

„Mit is jelent mindez? Jelenti például azt, hogy Magyarországon a felnőtt lakosság harmadának semmi, további 43 százalékának kevés esélye van arra, hogy a munkaerőpiac változásait önképzéssel vagy továbbképzéssel követni tudja, ily módon reménytelenül leszakad.” (Uo.)

A dokumentum jellegű feladatok megoldásához térképeket, ábrákat, menetrendeket, jelentkezési lapokat, formanyomtatványokat kellett megérteni vagy kitölteni. Itt 33% teljesített azon a szinten, amit kissé vulgárisan úgy lehetne összefoglalni, hogy halvány fogalma sem volt az eléje kerülő dologról, és 8% oldotta meg a feladatot magas szinten. (…) Valamivel jobb képet mutattak az ún. kvantitatív feladatok, amelyeknél táblázatokat kellett értelmezni, kamatot kiszámítani, számlakönyvet vezetni stb., de mivel itt mindenki jobban teljesített, (…) ebben is hátul kullogtunk.” (Uo.)

„Megvizsgálták azt is, hogy az olvasási teljesítményt mennyire befolyásolja a szülők végzettsége. Az általában is legjobb teljesítményt nyújtó négy skandináv államban volt a legkisebb különbség a magas és az alacsony iskolai végzettségű szülők gyermekeinek teljesítménye között. (…) A hátul kullogó három közép-európai országban (Lengyelország, Magyarország, Szlovénia) is van közös vonás: ezekben a legnagyobb a különbség a magas és az alacsony iskolai végzettségű szülők gyermekeinek a teljesítménye között, és ezen belül is Magyarországon a legnagyobb.” (uo.)

A PISA-eredményekről készült első jelentést viszonylag hamar, 2001 őszén közzétették a Knowledge and Skills for Life című anyagban.

Forrás: 3.1. and 3.3. tables. Variation in student performance…
1. táblázat – A PISA-eredmények
  Olvasásértés Matematika Természettudomány
  átlag szórás átlag szórás átlag szórás
OECD 500 100 500 100 500 100
Magyarország 480 94 488 98 496 103

 

Az oktatási eredményeket általában 500-ra szokták standardizálni. Látható, hogy a magyar diákok teljesítménye mind a három területen az átlag alatt marad. A legmesszebb az átlagtól az olvasásértésben vagyunk.

Fontosabb azonban, hogy a 32 ország között három olyan ország van, ahol olvasásból a tanulók negyede nem éri el a legalacsonyabb országátlagot sem, miközben a tanulók egy másik negyede a legmagasabb országátlagot is túllépi. Ez a három ország Németország, Lengyelország és Magyarország. Matematikából is a legegyenlőtlenebb műveltségeloszlású 5 ország között vagyunk, és ezek közül is a között a négy közt, amelyik az OECD-átlag alatt teljesített (Németország, Görögország, Lengyelország és Magyarország)

Az egyenlőtlenség több forrása (vagyoni helyzet, jövedelem, foglalkozás stb.) közül nyilvánvalóan az egyik ősforrás az anya végzettsége. Nem ez az első mérés, amelyik egyértelmű összefüggést mutat a teljesítmények és az anya végzettsége között.

2. táblázat – Az anya végzettsége és a teljesítmény
Anya végzettsége Tanuló % Olvasásértés Matematika Term.tud.
OECD Mo. OECD Mo. OECD Mo. OECD Mo.
Forrás: Table 6.7. Percentage of students and performance on the combined reading, mathematical and scentific scales, by level of mother’s education
általános iskola, szakmunkásképző 32,3 16,8 467 424 464 426 465 435
gimnázium 41,1 62,1 511 481 510 486 510 496
főiskola 26,6 21,1 534 533 533 550 532 557

 

A táblázatról leolvasható a mérésben részt vevő középiskolások megoszlása az anya végzettségi kategóriái alapján. Látható, hogy a magyar diákok magasabb anyaivégzettség-kategóriába tartoztak az OECD-átlagnál; kevesebb az alapfokú és nagyobb a középfokú végzettségűek aránya a mintában. A következő oszlopokban azt olvashatjuk le, hogy az 500-as OECD-átlaghoz képest milyen eredményt értek el a különböző részcsoportok Magyarországon, és mennyi az adott részcsoport OECD-átlaga. Egyértelmű, hogy az anya végzettsége másutt is erőteljesen befolyásolja a teljesítményt. Látható, hogy a magyar diákok teljesítménye nem minden részcsoportban gyengébb az OECD-átlagnál. Még a leggyengébb területen, olvasásértésben is szinte eléri az átlagot a felsőfokú végzettségű anyák gyerekeinek teljesítménye. Matematikából és természettudományból pedig jóval az átlag felett van ez a részcsoport.

Minden tantárgyból megvizsgálták, hogy mekkora a teljesítménykülönbség egy-egy iskolán belül és mekkora az iskolák között. Az alábbi táblázat az olvasásértés területén mutatja, hogy az OECD-országokban az iskolák közötti különbség nem túlságosan nagy. Bármilyen típusú település bármelyik iskolájában nagyjából ugyanazt a kötelező műveltséget sajátíthatják el a gyerekek ezekben az országokban. Az iskolákon belüli különbségek viszont igen nagyok is lehetnek, hiszen minden gyerek a saját adottságai szerint – ebbe beleértve a társadalmi-kulturális örökségét és a szellemi adottságait is – teszi magáévá a tanultakat. Nálunk az arány fordított: az iskolán belül szinte nincs különbség, és óriási a különbség az iskolák között. Ez azt jelenti, hogy nálunk egyáltalán nem mindegy, hogy egy gyerek melyik iskolába jár.

3. táblázat – A kombinált olvasásértés teszteredmények szórása
  Iskolák között (%) Iskolán belül (%)
Forrás: Between-school and within-school variation in student performance on the combined reading literacy scale
Magyarország 71,2 34,8
OECD 36,2 65,1

Egyike a PISA legjelentősebb felfedezéseinek, hogy a tanulók otthoni háttere a legtöbb országban a szocioökonómiai diszparitásnak csak egy részét, a kisebbik részét magyarázza. Az iskola szocioökonómiai hatása társul ehhez, és általában ennek van nagyobb hatása a teljesítményre. A nagyobb forrással és gyakorlattal rendelkező iskolában jobb a teljesítménye azoknak a hátrányos helyzetű gyerekeknek is, akik egy kevesebb forrással és gyakorlattal rendelkező iskolában sokkal gyengébb teljesítményt produkálnak. Azokban az országokban, ahol a szegregáció magas fokú, a hátrányos helyzetű tanulók rosszabbul teljesítenek, mint ahogyan egy méltányosabb elosztású oktatási környezetben teljesíthetnének. A PISA-vizsgálat üzenete, hogy az oktatáspolitika és az iskolák szerepet játszhatnak a hátrányos helyzet teljesítményre való hatásának csökkentésében a források igazságosabb elosztásával, a szegregáció csökkentésével.

Az iskolák közti különbség mérőszáma az ún. RHO-index, amely a tanulókra számított szórás (standard eltérés) és az iskolai átlagokra számított szórás különbségének százaléka a tanulókra számított szórás (mint 100%) arányában. Az OECD átlagos RHO-indexe 36. Az 1970. évi IEA-felmérés idején a negyedikeseknél a magyar RHO-index 40, a nyolcadikos korosztálynál 34 volt. Az utóbbi felelt meg akkor az OECD-átlagnak. Látható, hogy az OECD-átlag az eltelt 30 év alatt alig változott, míg a mi átlagunk jóval nagyobb lett. Most a 15 éveseknél több mint 50 százalék.

„Akármik is az okok, egy biztos: sem az nem jó egy országnak, ha lakóinak tudásszintje alacsony, sem az, ha túl nagyok a társadalmon belüli különbségek, és ez a kettő többnyire együtt jár. Illúzió azt hinni, hogy a XXI. században bármiféle elitoktatás stabil fejlődési pályára tud állítani egy országot. Csak az ország egésze emelkedhet. Nem engedhetjük hát meg magunknak azt a luxust, hogy a magyar társadalom népes csoportjait hagyjuk tömegesen leszakadni, mert mi magunk, az egész ország fog leszakadni.” (Andor, 2001)

Mi derült ki ezeken a méréseken?

  • A magyar oktatási eredmények csökkenő tendenciája (még akkor is, ha tudjuk, hogy mást mértek, mint a korábbi felmérések).
  • Nagy és növekvő különbségek az iskolák között (vagyis a társadalom széttartása).

Mit kellene tenni, hogy megállítsuk ezeket a tendenciákat?

A következők látszanak rendkívül fontosnak és sürgősnek ezen a téren:

  • megfelelő belső önértékelési rendszer kialakítása az iskolákban;
  • a tanulók közötti különbségek alapján tervezett oktatás;
  • az egyéni kezdőponthoz mért fejlődés számontartása;
  • folyamatos és diagnosztikus értékelés;
  • objektív osztályozási kritériumok.

Ebben egyetértenek a legnevesebb oktatási szakértők, nemcsak Magyarországon. A Magyar Hírlap idén június 10-én Tíz diákból három lemorzsolódik című összeállításában (Szarka, 2002) például egy amerikai kutató oktatási alapelvei között olvashattuk a következő értékelésre vonatkozó elveket:

Legyen:

  • a tanítás tervezésének alapja a tanulók közötti különbségek feltárása;
  • az értékelés folyamatos;
  • egyéni kezdőponthoz mérve a fejlődés.

3. Az iskolai és regionális értékelés egy módszere – az ITEM szoftver használatában rejlő lehetőségek

Az Iskolai Teljesítmény Mérése (ITEM1 és ITEM2) programcsomagok a külső és belső értékelést úgy valósítják meg, hogy minden szinten az azon a szinten szükséges adatot szolgáltatják.

Az iskolai program a tudásszint- és kérdőíves vizsgálatok feldolgozására és adatbázis-kezelésére alkalmas. Az iskolából jutnak (lemezen, interneten vagy hálózaton) az adatok az oktatási rendszer magasabb szintjeire, ahol az alakuló adatbázisok későbbi vizsgálatok, oktatáspolitikai döntések alapjául szolgálhatnak. Ott a tanulók már nem névvel, csak azonosítóval szerepelnek. Az iskolákban azonban a programcsomagok a tanulók egyénenkénti követését teszik lehetővé és így a megfelelő időben történő beavatkozás lehetőségét biztosítják. A teljesítményeket a Bloom-taxonómia szintjei szerint is elemzik. A program az eredményeket itemenként és tanulónként őrzi és standardizálja az osztály- és évfolyamátlaghoz, illetve a regionális program a régióátlaghoz. A szocioökonómiai státuszként összefoglalt mutatók közül a település- és iskolatípus, a nem és a szülők végzettségi kategóriája azok a háttéradatok, amelyeket az ITEM-programcsomagok számításba vesznek. Utóbbit szó szerint kell érteni: a szülői végzettségek számmal kifejezett értékeinek átlaga a mérési adattal együtt jut el a regionális központba, hogy ott a teljesítmények ezek szerint legyenek feldolgozhatók.

A regionális program az iskolák teljesítményeit a mért csoport szülői végzettségének kategóriaátlaga (1 és 5 közötti tizedestört) szerint rendezi.

Az iskolák holisztikus értékelési gyakorlatának, különösen a most már általánosan megbízhatatlannak ítélt osztályozásnak az objektívebbé válását szolgálhatja, ha analitikus mérési eredményekkel rendszeresen összehasonlítjuk. A programrendszer segítségével a pedagógus megnézheti, hogy a tantárgyi osztályzatai mennyire következetesek, összehasonlíthatja a különböző osztályokban adott osztályzatait.

A kérdőíves vizsgálatok eredményei kiegészíthetik a tanulócsoportok, osztályok, intézmények teljesítményadatai alapján alkotott képet, mivel a légkörre, motivációra, neveltségre, attitűdökre vagy elégedettségre vonatkozó adatokat a program háttértényezők szerint is vizsgálja és az adatbázisban a kitöltők teljesítményadatai mellett tárolja.

A programcsomagok a pedagógiai értékeléssel kapcsolatos valamennyi feladat magas szinten történő megoldására képesek. Lehetővé teszik, hogy az iskolákban a tanulókat ne a csoportátlaghoz, hanem önmaguk korábbi eredményeihez viszonyítsuk, és így az esélyegyenlőséget szolgálják. A háttértényezők viszonyszámaival rendszeresen kiegészített mérési eredmények az intézmények, a pedagógus által hozzáadott érték feltárását segítik. Kezelésük nem igényel különösebb számítógépes kompetenciát, az eredmények értelmezéséhez szükséges minimális statisztikai ismeretet, a mutatók rövid magyarázata mellett azok optimális és elfogadhatatlan értékeit a felhasználói kézikönyvek tartalmazzák.

Az ITEM2 a (bármilyen szintű vagy nagyságú) központi mutatókat szolgáltatja. Az intézmények teljesítményét egymáshoz is viszonyítja és osztályzat, nem, iskola- és településtípus, valamint a szülők végzettsége szerint is elemzi és követi. A kérdőíves vizsgálatok százalékos eredményeit intézményenként és összesítve szolgáltatja és kezeli.

A programrendszer segítségével akár táblázatban, akár (az Excel segítségével készülő) többdimenziós diagramon követhetők időben is a különböző területek, akár tantárgyról, akár elégedettségről, akár valamilyen háttértényező alapján (például valamelyik szülő végzettsége szerint) kiválasztott csoport teljesítményéről van szó.

Az iskolai program segítségével a tanulók, a regionális program segítségével az iskolák eredményei követhetők. A területi RHO-index az iskolák közötti különbségek alakulásának egyetlen mérőszám segítségével történő nyomon követését teszi lehetővé.

Előadásomat azzal az idézettel fejezem be, amelyet Mihály Ildikó cikkében találtam a Pedagógiai Szemlében. Fitz-Gibbon angol oktatási szakértőtől származik, és nekem nagyon tetszik:

„…ha az oktatást jobbá tesszük, akkor nemcsak jobb technikákat tanulhatunk meg a többi probléma kezeléséhez, hanem e problémák nagy része valószínűleg nem is alakul ki.”

Felhasznált irodalom

Andor Mihály : Leszakadó ország. Népszabadság, Fórum, 2001. május 29. 12. p.
Báthory Zoltán: Tanulók, iskolák, különbségek. Okker Kiadó, Bp., 1997.
Csala Istvánné Ranschburg Ágnes: Az iskolai teljesítmény mérésére szolgáló programok, ITEM1 és ITEM2. Új Pedagógiai Szemle, 2002. 5.sz.
Jelentés a magyar közoktatásról 2000. Szerk.: Halász Gábor és Lannert Judit. OKI, Bp., 2000.
Knowledge and Skills for Life. online, http://www.oecd.org (2001)
Mihály Ildikó: Összehasonlító mérés és értékelés a nemzetközi pedagógiai gyakorlatban. Új Pedagógiai Szemle, 2000. 6. sz.
Neuwirth Gábor: A középiskolai munka néhány mutatója 2001. OKI, Bp., 2002
Szarka Klára: Tíz diákból három lemorzsólódik. Magyar Hírlap, 2002. június 10.

 

A honlapon található tanulmányok, egyéb szellemi termékek, illetve szerzői művek (a továbbiakban: művek) jogtulajdonosa az Oktatáskutató és Fejlesztő Intézet. A jogtulajdonos egyértelmű forrásmegjelölés mellett felhasználást enged a művekkel kapcsolatban oktatási, tudományos, kulturális célból. A jogtulajdonos a művekkel kapcsolatos anyagi haszonszerzést azonban kifejezetten megtiltja.