martedì 22 febbraio 2011

Le prove nazionali INVALSI

Le prove di valutazione Invalsi sono ormai entrate a regime nella scuola primaria, nella secondaria di primo grado (fanno anche parte dell’esame di stato) e da quest’anno saranno proposte anche per la valutazione alla fine del biennio della scuola secondaria di secondo grado.
Mi sembra interessante conoscere le opinioni dei docenti sulla valutazione nazionale, sull’efficacia valutativa di queste prove. Le prove sono adeguate a valutare le competenze degli alunni rispetto alla lettura? La scelta dell’accertamento della comprensione del testo e dell’accertamento delle competenze grammaticali vi convince? Le prove sono confrontabili con le valutazioni o i risultati “interni”?

14 commenti:

Adriano ha detto...

Ho provato a mettere su carta qualche idea che da tempo vado rimuginando sulla questione delle valutazioni nazionali. Potrebbero questi punti essere una base di discussione?

Alcune tesi sulla valutazione di sistema

1. Una valutazione nazionale degli istituti scolastici è necessaria ai decisori politici, agli operatori, agli utenti. Un suo elemento importante (non unico) è la valutazione degli apprendimenti degli allievi. Tale valutazione deve tener conto dei dati in ingresso e in uscita (c.d. “valore aggiunto”): le scuole di base del centro delle città non sono “migliori” di quelle di periferia, né i licei “migliori” degli istituti professionali in ragione delle qualità dell’utenza in ingresso.
2. Una valutazione nazionale attendibile non può essere condotta che su campioni statisticamente significativi, Infatti è necessario un controllo capillare sulle condizioni di somministrazione delle prove, specie quando gli insegnanti ritengono che i risultati del proprio istituto possano avere qualche conseguenza per loro. Lo conferma l’esperienza dei “clamorosi” risultati comparativi delle prime prove nazionali INVALSI, che hanno contraddetto i risultati di ben più rigorose ricerche valutative internazionali.
3. Qualunque valutazione su larga scala deve fare ricorso a prove “oggettive” (in cui la misurazione sia prefissata e indipendente dal lettore dei protocolli). Pare utile ricordare che l’“oggettività” non è propria delle sole prove a scelta multipla, e neppure delle sole prove a risposta chiusa, come ha mostrato l’esperienza delle più recenti indagini OCSE-PISA.
4. Per quanto le prove “oggettive” possano essere variate e articolate, i dati che forniscono restano sempre indicatori parziali delle competenze raggiunte dagli allievi. Non è corretto identificare semplicisticamente i risultati complessivi di apprendimento con i risultati di prove.
5. La costruzione di prove attendibili e valide è estremamente difficile, le possibilità di errori, ambiguità, inserimento di presupposti impliciti sono infinite; lo conferma la qualità scadente di molto materiale valutativo in circolazione, a volte anche di fonte autorevole. Per questo ogni prova, prima di essere somministrata su larga scala, dovrebbe essere validata con le tecniche del “pre-testing” e dell’“analisi di item”. Naturalmente queste operazioni necessarie sono solo possibili in vista di un uso delle prove non a campione, e non generale per una certa fascia di allievi (conferma della tesi 2).

Adriano ha detto...

6. Nonostante il loro carattere intrinsecamente fallibile, parziale e approssimativo, le prove oggettive possono fornire dati attendibili su campioni numerosi; gli effetti degli inevitabili difetti, se non sistematici, si attenuano sui grandi numeri. Prove pensate per la valutazione su larga scala non dovrebbero invece essere usate come valutazione dei singoli, se non come un elemento parziale da triangolare con altri approcci valutativi. Gli effetti dei limiti intrinseci di tali prove possono infatti variare molto da individuo a individuo; inoltre i fattori esterni (circostanze di somministrazione, condizioni fisiche e psicologiche del soggetto al momento della prova ecc.) possono avere un’influenza decisiva sulla prestazione del singolo, mentre si neutralizzano nei risultati medi.
7. L’uso di prove formulate in sede nazionale, aperte o chiuse, negli esami conclusivi di un ciclo è opportuno per assicurare una certa omogeneità di obiettivi formativi. Il loro uso va però assoggettato alle condizioni sopra accennate:
- che la valutazione dei singoli avvenga in sede locale, senza punteggi predefiniti centralmente;
- che i risultati delle prove siano solo uno degli elementi di valutazione, da triangolare con altri ottenuti con strumenti diversi.
8. In ogni caso la formulazione di prove nazionali comporta una responsabilità delicatissima, perché esse condizionano l’attività didattica più di qualunque indicazione di obiettivi nazionali (basta pensare alla prova di grammatica per la terza media, con le sue scelte terminologiche e di contenuto). Per questo è necessario che essa sia accompagnata sempre da un ampio dibattito che coinvolga gli insegnanti, le associazioni, gli esperti e gli utenti.
9. Un’associazione come il GISCEL ha il diritto e il dovere di discutere e criticare i contenuti e le forme delle prove nazionali, così come ogni altra scelta di politica educativa.
10. Il riserbo a cui sono tenuti coloro che collaborano alla formulazione di prove nazionali pertiene alla loro responsabilità e non coinvolge l’associazione. Credo che l’esperienza che alcuni acquisiscono in tale sede possa essere messa a disposizione dell’associazione, nei suoi termini generali, e contribuire alla sua riflessione e alla sua crescita, senza violare il riserbo, il quale riguarda ragionevolmente soltanto le prove in preparazione.

Cettina Solarino ha detto...

Trovo alcune tesi di Adriano pienamente condivisibili.
Per quanto riguarda la n.3 mi sembra un po’ singolare sostenere che la oggettività delle prove dipende solo dalla misurazione: non dipende forse anche dalla formulazione delle domande e dalla solidità della teoria di riferimento?
Per la n. 7: ma se le prove sono formulate in sede nazionale perché i punteggi devono essere ‘elastici’? L’importante è che siano chiari i criteri di riferimento per l’attribuzione dei punteggi (specie per le risposte aperte).
Riguardo alle prove di grammatica: importante è definire il quadro di riferimento della grammatica proposta implicitamente dalle prove. In generale, alla sottoscritta è parso davvero insufficiente, dal punto di vista linguistico e testuale, tutto il quadro di riferimento dell’Invalsi.

Simonetta Rossi ha detto...

Aggiungo altri spunti di riflessione per la discussione.
Analizzando i materiali delle prove Invalsi che i docenti hanno sperimentato nelle proprie scuole, i docenti li hanno trovati esaustivi, comprensibili, efficaci?
Se questi tipi di prove non valutano efficacemente le competenze degli alunni, quali suggerimenti, proposte si possono dare per integrarli o modificarli?
Quali problemi didattici gli insegnanti hanno dovuto affrontare? In vista di tali prove i docenti hanno modificato la didattica della lingua?

Donatella Lovison ha detto...

Tra gli insegnanti, più che la consapevolezza del senso delle prove, si è diffusa la paura di essere valutati, quindi c'è la corsa a pubblicazioni di vario tipo e di infimo valore didattico, per allenare gli allievi e quindi fare in modo che l'insegnante faccia una "bella figura". Mi risulta addirittura che in qualche scuola, qui nel vicentino, i risultati interni (non quelli inviati all'INVALSI) siano stati anche gonfiati per raggiungere l'obiettivo del "dimostrare di essere un bravo insegnante".
A mio parere le prove camminano di fatto su due binari che nella testa dell'insegnante non sono ben distinti e che invece dovrebbero esserlo: la rilevazione di sistema e la valutazione interna alla scuola. La storia della valutazione di queste prove mostra una gradualità, per cui da un peso determinato percentualmente in maniera diversa dai singoli collegi docenti si è passati nel 2010 all'entrata dei risultati nella media della valutazione del singolo studente. Le prove quindi sono a tutti gli effetti finalizzate sia ad una rilevazione di sistema sia alla valutazione del singolo studente. Sono due tipi di valutazione diversa, che vanno ben chiariti e sui quali bisogna diffondere consapevolezza.
Riprendo infine un concetto già espresso precedentemente da Adriano: " la formulazione di prove nazionali comporta una responsabilità delicatissima, perché esse condizionano l’attività didattica più di qualunque indicazione di obiettivi nazionali". Se può servire come esempio a dimostrazione di quanto sia importante questo concetto: la riforma dell'esame di maturità voluta da Berlinguer a suo tempo ha trascinato tutta una didattica sulla scrittura e la diversificazione dei testi. Come Giscel credo sia opportuno chiedersi, quindi, come possano essere inseriti elementi di innovazione in queste prove, sia nella riflessione sulla lingua, sia nella qualità delle prove di comprensione. Si tratterebbe di focalizzare le nostre riflessioni oltre che sulla "validità" delle prove, sul farle diventare uno (non il solo, ma uno importante) degli strumenti di cambiamento dei contenuti della didattica.
Con i tempi che corrono, in cui tutto si sta "semplificando" e riducendo sia quantitativamente sia qualitativamente, in nome del risparmio di risorse, penso che i giscelini dentro l'INVALSI dovrebbero avere un ruolo propositivo, di "continuità nell'innovazione didattica".

Gabriele Pallotti ha detto...

In merito alle prove di valutazione alla fine delle medie, dove ci sono diverse domande sull'analisi grammaticale e logica.
Il mio parere è che un minimo di analisi grammaticale potrebbe anche starci, ma certo non tutta la valanga di etichette tradizionali, molte delle quali obsolete e fuorvianti. Sull'analisi logica invece la mia condanna è nettissima, e mi pare di essere in linea con decenni di riflessioni di colleghi molto più bravi di me. Possibile che si debba parlare ancora di 'complementi di causa', cosa che non si fa in nessun paese civile? La presenza dei malefici complementi nella prova Invalsi li rende di fatto obbligatori nei programmi didattici, con tutto quello che ci sarebbe da fare.
Come valutatori, dovrebbero conoscere benissimo il cosiddetto washback effect, cioè l'effetto che la valutazione, specie se nazionale e standardizzata, ha sulla didattica: si insegna perché gli alunni superino le prove, dunque chi fa le prove ha responsabilità curricolari fortissime, e un peso molto più rilevante di chi fa formazione (quando dico di abbandonare l'analisi logica mi rispondono 'ma poi c'è nelle prove invalsi', e alla fine prevale l'invalsi, non Pallotti e con lui 40 anni di critiche accademiche all'analisi logica). In secondo luogo, le rove Invalsi valutano ciò che insegnano i docenti' non è una buona ragiona perché se i docenti insegnano cose tipo 'il soggetto è chi compie l'azione' (e il 99% lo insegna così), vuol dire che dobbiamo aspettarci una prova Invalsi in cui si chiede 'cosa è il soggetto?' e la risposta corretta è 'chi compie l'azione'?

Adriano ha detto...

Credo che per ragionare sulla valutazione di sistema dovremmo ragionare prima di tutto sulla qualità delle prove attuali. Se le prove fossero scadenti, tutto il resto della discussione (prove "censuarie" o no, valutazione d'esame predeterminata o no, ecc.) diventerebbe superfluo.
Mi pare che siamo in molti ad avere l'impressione che da qualche anno la qualità delle prove sia migliorata, e che tuttavia sussistano delle sbavature.
Ho provato a verificare meglio queste impressioni con un'analisi sistematica delle ultime prove di terza media, pubblicata al sito nella sezione "Esperienze e strumenti".
Riassumo qui i problemi principali che ho notato:
- la qualità scadente del testo espositivo scientifico, che maschera la vaghezza dei concetti con la falsa precisione di un linguaggio astratto;
- il problema della distribuzione delle domande tra livelli di comprensione locale e più estesa, o globale;
- sul testo letterario l'errore, che coinvolge poche domande ma è gravido di conseguenze nefaste, di porre in termini di vero/falso questioni intepretative;
- il fatto che a volte si tratta, più che di comprendere il testo, di comprendere la domanda, o di indovinare che cosa avrà voluto chi la ha formulata. Questo può comportare il rischio più grave insito in ogni test nazionale: che per farlo bene importi imparare i trucchi del test, più che sviluppare le competenze che dovrebbero essere testate;
- nella prova di grammatica, il rischio di irrigidire in vero/falso questioni che sono in sé sfumate e richiedono di pensare; qualche domanda pare ispirata a una grammatica che non pensa.
Tutto questo riguarda solo un aspetto dei test, o solo alcune domande; credo che una discussione critica possa contribuire a un miglioramento. Credo che una certa capacità di lettura critica dovrebbe essere coltivata tra gli insegnanti. Ricordiamo che i test nazionali sono e saranno sempre più il vero curricolo della scuola.

Cettina Solarino ha detto...

Perché non proviamo a partire dalle cose su cui siamo d’accordo e ad elencare quelle che ci sembrano posizioni ragionevoli e condivisibili? Eccone alcune:
A. Si può anche accettare un sistema nazionale di valutazione a fini di monitoraggio generale della produttività della scuola ma non si può consentire che diventi la parte prevalente dell’esame finale di ogni ciclo di studi. A questo scopo esiste un corpo docente, da utilizzare in vario modo, alternandolo, mandandolo in missione fuori della propria sede ecc. Mi sembra inaccettabile che per decidere se una trentina di bambini o adolescenti ha raggiunto certe competenze e ha buone possibilità di seguire con successo il livello di istruzione successivo l’ indicatore cruciale sia il punteggio di un test a scelta multipla…
B. La comprensione dello scritto si costruisce su abilità precedenti che solo l’insegnante di italiano può curare, valutare (formativamente, si diceva una volta) e sviluppare. Queste sono le fondamenta di ogni percorso di sviluppo del linguaggio che voglia essere naturale ed efficace: pensare che tutta l’attività didattica debba essere orientata a superare i test Invalsi sarebbe un clamoroso autogol della scuola e degli insegnanti. Sono loro ad avere nelle mani la carta vincente dell’educazione linguistica: la comunicazione diretta, nel piccolo gruppo-classe. Le loro giuste osservazioni a proposito del rischio del loro ‘spodestamento’ non vanno però confuse con il rifiuto di ogni strumento nazionale di valutazione, ma in una chiara divisione dei compiti e delle funzioni
C. Le carenze riscontrate nelle prestazioni degli allievi non possono in alcun modo essere considerate una ragione per ‘punire’ le scuole. Anzi, in un sistema equilibrato dovrebbero essere un motivo per sostenere quelle scuole, con interventi mirati. Mi sembra che questa strada sia stata in parte imboccata con la distribuzione di finanziamenti (europei: e quando finiranno?) alle regioni più deboli e forse va in questa direzione anche il questionario di contesto distribuito quest’anno con le prove Invalsi: come associazione penso che non bisogna ‘mollare’ su questo concetto, non solo per difendere il solito Sud , ma anche realtà ‘minori’ del Nord o del Centro…
D. Non si può accettare che i test dell’invalsi siano costituiti quasi esclusivamente di test a scelta multipla. Si tratta di test farraginosi, difficili da costruire, di plausibilità talvolta discutibile, noiosi e insieme stressanti per gli allievi (provate a mettervi nei panni di alunni di seconda elementare che hanno 35 minuti per ‘processare’ 10 pagine di trabocchetti linguistici, tra cui istruzioni che dicono “devi mettere una crocetta nel quadratino accanto alla risposta (una sola) che ritieni giusta” e consegne che chiedono “che cosa ti viene di pensare”, salvo poi premiare il ‘pensiero unico’ dell’unica risposta esatta…). E poi, se non si vuole ricorrere alle risposte aperte con criteri (ma perché no? Si tratta di formare gli insegnanti-correttori e qui non è solo tecnicismo: entrano davvero in ballo le loro competenze…), esistono altre modalità ‘oggettive’ di accertamento delle competenze. Modalità alternative alla scelta multipla sono state impiegate in progetti nazionali rigorosi e standardizzati: perché non confrontarsi, almeno, con chi le ha utilizzate?
E. La scelta e il trattamento di testi espositivi (e, a maggior ragione, argomentativi) di ambiti disciplinari scientifici o comunque settoriali non dovrebbero essere affidati ad insegnanti di italiano, ma agli insegnanti delle discipline di riferimento o affini. Mi sembra un principio fondamentale. Se la comprensione della lettura è un’abilità trasversale non si vede perché, dato che la si vuole testare anche su testi non letterari (principio sacrosanto), le prove non debbano essere predisposte da esperti di quei tipi di testi.

Gabriele Pallotti ha detto...

Condivido l'approccio di elencare le cose che ci vanno bene, ma mi pare che l’ intervento di Cettina sia soprattutto una serie di 'non va bene fare X'. Molte cose sono condivisibili, ma sono sempre formulate come proscrizioni, più che come indicazioni. In positivo io la vedrei così:- vogliamo un sistema di valutazione nazionale?- se non lo vogliamo, discussione finita. Se sì, dobbiamo provare a fare proposte su come farlo funzionare. Certo, vanno bene anche tutte le note di cautela di Cettina, ma le proposte non possono essere solo questo.- Le scelte multiple sono inevitabili: non ci sono soldi per correggere tante prove aperte, o solo una piccola parte. Bisogna però spiegare bene come si interpretano gli esiti di un test a scelta multipla, i costrutti sottostanti e le conseguenze. Per essere concreti e propositivi, potremmo provare a formulare alcuni item-modello, oltre a indicare quelli già usati dall'invalsi che ci sembrano ok.- Potremmo formulare anche degli item a risposta aperta, avendo però un minimo di coordinate pratiche che ci riportino al principio di realtà: quante possono essere? di quale lunghezza? chi le corregge? I colleghi che collaborano con l'invalsi forse ci possono aiutare.- Potremmo anche esprimerci sugli usi di queste prove e su quando e dove secondo noi devono essere usate. Io trovo scandaloso questo accanimento sulla valutazione standardizzata fin dalle elementari, quando vedo che ci sono università che regalano lauree senza che nessuno controlli cosa ci sia dietro. Io formulerei la proposta di far intervenire l'invalsi, con le poche risorse che ha, prima nei livelli più alti, e poi a discendere fino ai più bassi, non viceversa. La valutazione ha i suoi vantaggi ma anche gli svantaggi. Avere dei periti elettronici o degli ingegneri che sappiano più o meno tutti le stesse cose è socialmente utile, verificare che tutte le seconde o quinte elementari siano allineate mi pare non solo demenziale, ma anche pedagogicamente sbagliato, perché spinge a una didattica orientata al prodotto inteso come esito del test a crocette, in un periodo in cui si devono invece formare competenze di base difficilmente valutabili con prove standard.- Se il sistema di valutazione deve valutare il sistema educativo, e non gli alunni, dobbiamo formulare proposte perché ciò funzioni. Certo, una scuola i cui alunni ottengono punteggi bassi non è da penalizzare automaticamente: non so come gli 'indicatori di contesto' servano a correggere i punteggi, forse la cosa più sensata sarebbe indicare dei delta tra i livelli di entrata e quelli di uscita. Credo però che prima o poi si debba valutare l'efficacia dell'insegnamento, non si può sempre dire 'è colpa del contesto'. In certi casi ciò è vero, in altri i bambini non imparano perché gli insegnanti non insegnano bene (e lo si vede nelle indagini: nella stessa scuola, quindi stesso contesto, certe classi eccellono mentre altri precipitano; da chi dipende se non dagli insegnanti?).
Mi rendo conto che questa è sempre una lista di 'punti su cui occorre lavorare' e non sono ancora proposte concrete. Però, se identifichiamo i punti, possiamo poi formulare proposte concrete e operative (nel senso di operativizzabili in item, punteggi, scale, interpretazioni).

Simonetta Rossi ha detto...

Il 24 giugno a Roma si svolgerà una giornata di studio Giscel sulle prove Invalsi. Possiamo provare a buttare giù la "lista dei punti" su cui lavorare e arrivare a quel giorno con un elenco di temi e/o proposte su cui discutere, o su cui si è già discusso nei diversi Giscel regionali e nelle scuole.

Enrica Ricciardi e Paola Iannacci ha detto...

Alcune osservazioni.
1. La difficoltà nel costruire le domande di comprensione è legata alla interrogabilità del testo: più ci si addentra nelle pieghe del significato vero, più questo sfugge. Rimangono allora domande sulla storia e sul suo svolgimento, sui personaggi, sugli avvenimenti( cronologia, causa -effetto, luoghi, descrizioni, ecc.) ma la vera comprensione non può essere racchiusa in domande a scelta multipla.
2.La terminologia usata per porre le domande deve essere particolarmente chiara e mai ambigua: cosa difficile da realizzare sempre.
3.Talvolta, nella costruzione dei quesiti c'è la tendenza a forzare o comunque orientare la risposta in una direzione piuttosto che in un'altra. Questa, forse è la difficoltà maggiore.
4. Nei quesiti di grammatica è difficile coprire i fenomeni linguistici fondanti con la terminologia della grammatica tradizionale, dell’analisi logica e del periodo, terminologia che implica una modalità di approccio alla lingua di tipo quasi esclusivamente classificatorio.
5. La modalità della domanda a risposta multipla banalizza le richieste e impedisce l’accertamento di una competenza linguistica in contesto situazionale vero. Pertanto ci sembra che si vada più a complicare la domanda o a inventare modalità astruse e sconosciute di esecuzione per trarre in inganno (vedi ultima prova per le prime).
6. Non so come e se sia realizzabile, ma vedrei i fenomeni linguistici più significativi calati in brevi e/o complessi periodi. Farei operare i ragazzi all’interno di questi per riconoscerli, riformularli, esplicitarli mostrando competenza tecnica , testuale, semantica, sintattica, pragmatico – comunicativa, rielaborativa e valutativa.
7. I tempi troppo limitati.

Fernando Cocciolo ha detto...

Le osservazioni fin qui emerse mi pare definiscano con sufficiente compiutezza il campo di discussione nel corso della giornata. I punti evidenziati da Adriano e Donatella sono tutti interessanti.
Assolutamente centrale, come Giscel, mi pare quello relativo alla ricaduta dei risultati delle prove SNV nei contesti reali di insegnamento/apprendimento: cosa ne fanno effettivamente le scuole? come viene organizzato l'eventuale successivo "processo di miglioramento"? quali "cambiamenti" si decidono o si sperimentano sul piano metodologico e didattico?
Parte tra poco, per altro, una iniziativa MIUR-INVALSI proprio su questo aspetto, rivolta ai docenti del primo ciclo e, successivamente, del biennio, e che mira anche al confronto/integrazione tra la tipologia di prove SNV e le indagini internazionali (IEA, OCSE PISA, ecc.).
Altro punto centrale è quello posto da Adriano su conoscenze, competenze e valutazione delle competenze. Qui c'è proprio da fare chiarezza, in presenza di quello che molte scuole e molti insegnanti hanno considerato un "esproprio" di competenza: il fatto cioè che il MIUR è entrato pesantemente nella valutazione finale degli studenti di terza media sia nella fase di ammissione all'esame sia nella modalità di attribuzione del voto d'esame. Quanto alla finale "certificazione delle competenze", ci sarebbe solo da stendere un pietosissimo velo, viste le contraddizioni e la faciloneria che la connota e le furberie e gli "arrangiamenti" a cui - direi inevitabilmente - costringe gli insegnanti: ma proprio per questo è indispensabile parlarne.

Adriano ha detto...

Ieri ho sentito in parte un intervendo di Ricci, attuale direttore dell'INVALSI, a un convegno dell'ANDIS (dirigenti scolastici). Ha detto alcune cose condivisibili; ad esempio che gli insegnanti non dovrebbero preoccuparasi di come si risponde alle prove (con annesso circolazione di libretti appositi), ma di "insegnare bene".
Questo è un punto centrale, ma soggetto a una condizione centralissima: la qualità dei quesiti. In proposito, mi sembra che ci sia ancora della strada da fare. Ho analizzato gli esempi pubblicati dal sito INVALSI in vista dell'introduzione di prove di Italiano per la seconda del biennio, sto per mandare i miei commenti in "Notizie e commenti".
A proposito delle prove per il biennio, non ho chiaro se l'intenzione sia di farne immediatamente delle prove di valutaizone dei singoli, o limitarle per alcuni anni a prove "SNV". La prima alternativa sarebbe grave:
- non darebbe ai costruttori delle prove il tempo di aggiustare progressivamente il tiro;
- incoraggerebbe tra gli insegnanti il panico, il rifiuto di qualunque valutazione esterna, la corsa a "come si risponde" invece che a "insegnare".

Cinzia Sammartano ha detto...

Quest'anno ho seguito molto da vicino il piano PQM in quanto Tutor di Progetto di un network di 5 scuole in 4 province diverse. Alla luce anche di questo, oltre che di insegnante della secondaria di primo grado, non credo che il test di comprensione sia esaustivo. Ho forti perplessità sull'affidabilità di una scelta siffatta. Non si tiene conto di innumerevoli esperienze linguistiche che i ragazzi fanno negli anni.

Inoltre, le risposte sono spesso molto ambigue, per non dire difficili per gli alunni; io spesso mi sentirei di accettare le motivazioni delle loro scelte che invece le chiavi di correzione indicano come errate.

Quanto alla grammatica, non mi sento assolutamente di poter dire che misura le competenze grammaticali degli studenti. Perché 10 domande non possono valutare un percorso lungo 3 anni; perché si "stacca" la competenza grammaticale da quella testuale; perché la nomenclatura può non coincidere con quella usata in classe o sul libro (esempio: le prove parlano di analisi del periodo, io in classe parlo analisi della frase complessa... Come la mettiamo?). Io credo di avere una bella classe, che ha fatto nel triennio una esperienza grammaticale gratificante, eppure, nelle 4 simulazioni di prova Invalsi che ho fatto fare, sono emersi risultati eccessivamente altalenanti: o troppo bravi o troppo ignoranti. Dove sta la verità?

Le rilevazioni Invalsi influenzano la didattica dell’italiano nel senso che si rischia di andare verso il teaching to test tipico dei paesi anglosassoni, ingolfati dai test e da tempi-gabbia, a scapito della creatività e delle esperienze linguisticamente divergenti e formative. In generale noto che la fobia delle prove Invalsi genera minore preoccupazione verso la didattica della comprensione dei testi; si interviene invece sull'insegnamento della grammatica, generando forse un po' di confusione: c'è chi fa morfologia e sintassi dalla prima, chi fa morfologia in prima e sintassi in seconda e in terza, ecc. In ogni caso, batterie di esercizi e uccisione della voglia di capire.

Devo però precisare che il PQM si discosta un po' dal quadro che ho provato a delineare, proprio perché a partire da una rilevazione iniziale, si imposta un percorso didattico che consente di intervenire sulle criticità rilevate, il tutto utilizzando materiali di una certa qualità, che si basano su una didattica laboratoriale e sull'apprendimento cooperativo. Alla fine, altra rilevazione. In questo quadro, tutto assume a mio parere un senso. Ambizione: rivoltare le abitudini didattiche della scuola come un calzino. Dove sta il problema? Sono principalmente due: gli insegnanti coinvolti sentono le attività PQM come un di più da aggiungere al "programma" e non come una reale opportunità di cambiamento delle proprie abitudini; coloro che hanno dato la disponibilità a lavorare all'interno del piano con le proprie classi sono già insegnanti aperti alla discussione e ai cambiamenti.