Aldo Visalberghi diceva sempre: attenti a non gettare il bambino con l’acqua sporca.
Mario Gattullo usava l’immagine del termometro per promuovere presso i docenti l’uso dei test nella valutazione scolastica.
A loro ho pensato quando lo letto l’articolo di Giorgio Israel sui test INVALSI.
La posizione di Giorgio Israel, ex docente di Storia della Matematica all’Università di Roma, è nota. Egli ha avuto un ruolo importante in alcune commissioni ministeriali, sotto il ministro Gelmini, che misero a punto quella riforma. Ne parla nel suo post. La sua autorevolezza e le buone ragioni che adduce le trovo pericolose in questo momento di sbandamento e di reazione emotiva al bailamme che le prove Invalsi combinate alla riforma renziana stanno producendo. Il rischio è di buttare il bambino con l’acqua sporca.
Sono d’accordo con Israel quando critica l’uso che si sta facendo dei test oggettivi, ad esempio i test nella scuola primaria, una vera aberrazione non perché siano fatti male ma perché sono inappropriati e producono disastrosi effetti secondari sulla didattica. Sono contrario all’uso dei test per selezionare i dirigenti scolastici e i docenti, per le selezioni di accesso all’università, l’elenco potrebbe essere lungo.
Trovo inaccettabile, pericolosa ed oscurantista la critica che lui fa sullo strumento in sé con la vecchia argomentazione che i test di profitto non possono essere assimilati alle misure effettuate in fisica. Il tono che usa imputa implicitamente ai pedagogisti che usano i test di essere un po’ ignoranti sul piano scientifico. Già solo leggendo il manuale di pedagogia di Mario Gattullo o quello di Lucia Boncori ‘Teoria e tecnica dei test’ si può constatare che i pedagogisti e gli psicologi sanno benissimo che non sono dei fisici e che le grandezze che loro usano per discriminare la preparazione in una scuola sono scale che godono di specifiche proprietà a seconda del metodo usato per calcolarle. Tutti, docenti universitari compresi, siamo abituati ad assegnare grandezze numeriche ad individui chiamandole voti senza porci il problema di che cosa siano, se siano misure fedeli e precise della preparazione dei nostri allievi o, a volte, una espressione del nostro risentimento o della nostra delusione. Non ci scandalizziamo se lo stesso studenti esaminato da un altro esaminatore ottiene un punteggio completamente diverso.
Il dibattito e la ricerca, che in questo campo sono stati realizzati soprattutto all’estero, hanno cercato di produrre strumenti e modelli di analisi dei dati tali da ottenere grandezze che hanno proprietà simili alle misure che hanno una metrica unica. Rasch propone un modello di analisi dei test che solo negli anni 80 sembrava impensabile. Tuttavia anche negli anni 80 l’analisi classica degli item consentiva di avere punteggi di cui era possibile stimare l’errore di misura e quindi il grado di attendibilità.
Nel nostro campo, quello della valutazione, l’oggettività corrisponde banalmente alla necessità che il punteggio assegnato non dipenda dal somministratore né dallo strumento usato per accertare ma solo dalla preparazione dell’allievo. Di questo noi siamo perfettamente consapevoli e i metodi per ottenere ciò sono molteplici: tradizionalmente il test retest che analizza la correlazione tra somministrazioni ripetute sulla stessa popolazione o lo split half che analizza la correlazione tra il punteggio ottenuto negli item pari con gli item dispari.
Insomma i test non sono una accozzaglia di domande strane messe in fila ma una struttura concettuale complessa progettata e validata sul campo con metodi statistici abbastanza sofisticati. Naturalmente ci sarà sempre qualcuno, che nutrendo un pregiudizio negativo, cercherà piccole o grandi falle in questa o quella domanda sostenendo che per accertare quella certa competenza ci vuole ben altro. E’ spesso l’atteggiamento dei matematici (io sono laureato in matematica) che a difesa del loro hortus conclusus hanno sempre da ridire se qualche non matematico si permette di entrarci ad indagare.
Israel ricorda la sua avversione ai test di matematica che accertano solo la capacità di risolvere problemi, non accertano compiutamente una competenza (abilità, conoscenza?) matematica. E’ l’obiezione che mi fu fatto da un importante accademico italiano, membro di una commissione di revisione dei primi risultati del PISA 2000: scelse un item e mi disse ‘questa non è matematica, è un problema applicativo, nemmeno tanto realistico’. Anche per questo quei risultati rimasero riservati e, mentre in Germania i dati OCSE PISA2000 determinarono una reazione anche politica, in Italia si dovette aspettare la seconda somministrazione tre anni dopo per avere un dibattito relativamente diffuso.
Israel usa nella sua polemica la tecnica del benaltrismo. Qualsiasi sarà il test dirà che la matematica è ben altro! lo sappiamo ma a scuola non abbiamo dei matematici, abbiamo dei ragazzi, carne ed ossa, hanno studiato un po’ di matematica che faticosamente un adulto insegna loro, possiamo segmentare questa competenza complessa in tante conoscenze o alcune semplici abilità o qualche barlume di attitudine? Con pazienza e metodo e con disponibilità a condividere strumenti, forse potremmo migliorare il modo con cui normalmente mettiamo i voti. Senza arrivare all’adamantina misura con il bilancino del fisico possiamo ridurre gli errori, le ingiustizie palesi, l’arbitrarietà di chi ha il coltello dalla parte del manico?
Visalberghi, che negli anni ’70 riteneva che l’introduzione dei test oggettivi nella pratica didattica sarebbe stato un fattore di modernizzazione della scuola, quando parlava a noi docenti secondari sosteneva che, pur con tutti i loro difetti, i test consentivano di risparmiare tempo per fare in classe cose intelligenti ed utili. Io mi attenni a questo insegnamento e nel giro di poco tempo avevo un mio set di prove scritte strutturate, (risposte chiuse ed alcuni quesiti aperti) se non ricordo male 6 prove scritte all’anno, che mi consentivano di evitare le interrogazioni sistematiche ma mi permettevano di discriminare in modo attendibile i ragazzi della classe. Naturalmente gli osservanti degli obblighi burocratici da una lato e il puristi che pensavano che i test erano robaccia svenduta dai positivisti americani, rendeva e rende questa posizione minoritaria.
In questo dibattito, non c’è solo la questione della precisione della ‘misura’ ma c’è anche quella della validità: siamo certi che il test misuri ciò che dice di misurare? se non dico chiaramente ciò che misuro come faccio a definire l’unità di misura? Israel ironizza pesantemente sulla risposta di altri suoi colleghi i quali dissero un po’ imbarazzati che l’unità di misura è il test stesso.
Il problema della circolarità delle definizioni non è nuovo, gli enciclopedisti se ne resero conto quando vollero strutturare in un unico libro lo scibile umano: ogni parola rimanda ad altre parole.
Nel nostro caso, in particolare nell’ambito della psicometria, un costrutto complesso A lo possiamo definire, descrivere, raccontare ma alla fine la procedura più affidabile per effettuare comparazioni è costruire un test, un reattivo che la comunità scientifica accetti come ben fatto e funzionante e cominci ad usarlo. A quel punto il costrutto diventa tautologicamente ciò che quel test misura. Successivamente per validare nuovi test con misurano il costrutto A dovremo misurare la correlazione tra il test originario (che diventa così il nostro metro di riferimento) e il nuovo test. Ciò è vero anche nell’ambito della valutazione scolastica, alcuni test possono diventare paradigmi di riferimento, i loro punteggi possono diventare degli standard condivisi per cui la comunità scientifica o la comunità dei docenti di scuola lo adotta come definitori di una determinata competenza ad un certo livello scolastico. L’analisi di Rasch riesce a fare di più ma questo blog non può entrare nei dettagli, ci sono libri ad hoc.
Torno con un cenno all’INVALSI: se invece di pretendere di misurare la febbre a tutti e tutti gli anni si fosse limitato a produrre efficienti termometri che ogni scuola in autonomia poteva usare per controllare il proprio stato di salute e si fosse limitato ad accertare livelli ed andamenti studiando campioni limitati rappresentativi dell’universo, non si sarebbe cacciato in questo ginepraio che sta producendo più crisi di rigetto che cultura condivisa sulla valutazione.
Ma perché ho speso un po’ del mio tempo a scrivere questo post un po’ polemico? Perché l’autorevolezza del personaggio e la sua indubbia abilità espositiva possono contribuire in modo irreversibile a far arretrare la scuola su posizioni sempre più reazionarie e antiscientifiche.
Le suo articolo, se leggete bene, c’è al fondo e costantemente un richiamo alla autorevolezza dell’accademia, del mondo universitario. Un test si può smontare, si può dubitare che sia affidabile, si può dubitare dell’esattezza dei suoi punteggi, nulla si può dire però dei voti, dei voti negli esami universitari, dei voti a scuola, dei voti sui pagellini. Guai a metterli in dubbio, l’autorità ha espresso quei giudizi e l’autorità non si discute. Nemmeno un giudice può cancellare i voti se non trova qualche vizio di forma, in questi casi la stessa commissione è invitata a rifare lo scrutinio e a regolarizzare il risultato che in genere è lo stesso. Il giudizio scolastico non consente un secondo o terzo grado di giudizio, ci mancherebbe altro! Scusate se esagero, ma le cose stanno più o meno così.
Dove sta il pericolo di regressione? Se nel campo delle scienze umane non sono possibili misure affidabili, se i test oggettivi non riescono a rilevare le cose veramente importanti ma solo aspetti di dettaglio allora tutto è lasciato all’approccio qualitativo-olistico alla narrazione, al caso singolo. Allora come ovvia estrema conseguenza inutili le graduatorie dei docenti in lista d’attesa, meglio un listone unico di idonei in cui l’autorità pesca a suo insindacabile giudizio agendo per il meglio. E’ evidente che sto parlando del caso Buonascuola con annessi e connessi.
Allora può capitare che con la scusa della sveltezza e della economicità si selezionino i futuri dirigenti scolastici con test improvvisati comprati dalla comunità europea che li usa per i suoi impiegati senza uno straccio di apparato scientifico e di validazione sul campo.
Insomma, può capitare che a forza di pretendere il massimo rigore si finisca per giustificare il massimo dello sbraco?
Categorie:Cultura e scuola, Valutazione
articolo (articolo, non post) molto bello, che condivido completamente, anche se poi credo di essere e di essere stato ancora piu` favorevole di te all’uso di questo strumento.
a cominciare dalla pratica didattica: insegnavo lettere, ma ho letto con piacere che negli anni Settanta abbiamo fatto esperienze parallele in campi disciplinari diversi: anche io fino all’85, quando superai il concorso a preside, usavo molti test in classe per la verifica periodica dell’apprendimento delle nozioni, e in questo modo liberavo tempo immenso per l’interazione in classe, che mi permetteva di valutare altri aspetti.
non capisco la posizione dei docenti universitari che si scandalizzano se si usano i test nella scuola superiore, ma loro poi li usano tranquillamente per decidere le ammissioni alle facolta` a numero chiuso.
pare poi, a sentir loro, che forse sono male informati, che i test a risposta chiusa non siano neppure una delle forme previste dalla normativa per la verifica della terza prova degli esami conclusivi della sciuola superiore.
naturalmente anche i test sono strumenti, con i loro limiti, e non vanno assolutizzati; ma di qui a pensare o a far credere che qualche giudizio estemporaneo di tipo olistico sia piu` valido!
occorrerebbe cancellare decenni di ricerca scientifica docimologica.
anche dove si ricorre ad altre prove, c’e` necessita` poi di definire griglie abbastanza oggettive di valutazione che riporti il giudizio a fattori ben definiti (come fa il test).
vorrei essere ben piu` drastico di te, oggi che non ho piu` nessun obbligo di diplomaticismo da collegio docenti: l’opposizione, tutta e soltanto italiana, alla cultura del test diffusa in tutta Europa, anziche` un dibattito su come migliorarli, non e` che uno dei tanti sintomi della nostra pesante arretratezza culturale e della nostra marginalita` rispetto alla modernita`.
purtroppo occorre anche dire, senza troppi peli sulla lingua. che dietro l’avversione ai test oggettivi si nasconde ANCHE l’avversione ad una verifica imparziale delle competenze e delle conoscenze e la predilizione per una scuola delle conoscenze e dei favoritismi.
ho ricordato di recente nel mio blog come gli esami finali di stato in Germania e in Francia si svolgano su prove scritte preliminari anonime valutate da commissioni provinciali.
proporre una cosa simile in Italia sarebbe una rivoluzione e scatenerebbe una controrivoluzione mafiosa.
e siccome i test si sforzano faticosamente di introdurre qualche elemento piu` oggettivo nella valutazione, eccoli diventati l’oggetto dell’esecrazione di chi ama il clientelismo, di destra o di sinistra!
"Mi piace""Mi piace"
Vero, sono stato diplomatico e prudente ma quando racconterò delle prove oggettive nell’esame di stato forse capirai perché.
"Mi piace""Mi piace"