Indice
In Italia si insegna a scrivere soprattutto alla scuola elementare; un certo lavoro in questa direzione si svolge anche alla scuola media, mentre in generale alla scuola superiore si celebra esclusivamente il possesso – o il non possesso – di tale abilità.
Se escludiamo le eccezioni, poco rilevanti dal punto di vista quantitativo, possiamo verificare il fenomeno anche solo osservando la quantità di scritti valutati che vengono prodotti dagli studenti dei diversi livelli scolastici; oppure considerando la quantità di quaderni riempiti dai bambini delle elementari, in cóntrasto con il fatto che nelle scuole superiori, e in partico-lare al triennio, spesso i quaderni non vengono neppure acquistati.
L’assunto da cui muoviamo è invece che bisogna insegnare a scrivere in ciascun ciclo scolastico e che, come è ovvio, in ciascun ciclo questo insegnamento deve assumere caratteristiche specifiche.
L’approccio suggerito in questo articolo nasce dallo studio IIEA (International Association for the Evaluation of Educational Achievement) (1) -IPS (Indagine sulla Produzione Scritta), esperienza che si è consolidata negli anni e che mette al centro del processo di insegnamento dello scrivere un approccio basato sulla valutazione (2).
Il discorso sulla valutazione consente infatti di richiamare problemi ben presenti a chi insegna, ma che tuttavia fatica a integrare nella propria programmazione (3). É bene essere consapevoli delle difficoltà di questo approccio e al tempo stesso della sua rilevanza: se infatti è noto che le valutazioni di un elaborato variano in modo considerevole in relazione a chi lo corregge, è altrettanto evidente che l’elaborato scritto costituisce la prova fondamentale in numerose situazioni concorsuali e all’interno della scuola stessa conserva un peso rilevante nelle prove d’esame.
Uno dei punti di forza di questo approccio è nella sua concretezza. Partire dalla valutazione vuol dire partire dal lavoro degli studenti. Può sembrare troppo ovvio dire che si può insegnare a scrivere solo facendo scrivere e che la riflessione sulla scrittura può proporsi solo sulla esperienza di scrivere. Tuttavia non di rado si ha l’impressione che l’aggiornamento, che avviene soprattutto su modelli teorici, perpetui nella scuola l’insegnamento teorico del “come si dovrebbe fare” separato dal fare. E se, almeno nelle fasce più consapevoli degli insegnanti (di cui è difficile stimare l’entità), sembrano superati il tradizionale approccio grammaticale e l’analisi logica, con la sua proliferazione di complementi di tutto, guardando alcuni libri di testo tra i più avanzati emerge il dubbio che a queste si stiano semplicemente sostituendo modelli algoritmici e metacognitivi, la cui consapevolezza può nascere solo dalla pratica, e che invece rischiano di essere utilizzati in sostituzione della pratica, fornendo secondo l’uso della scuola risposte a domande non poste. Risposte che non essendo richieste risultano incomprensibili e poco utili.
Il primo problema che si deve affrontare in un lavoro di ricerca che voglia giungere a una valutazione valida e affidabile è una definizione operativa dell’oggetto della ricerca.
Che cosa vuol dire che uno studente di scuola secondaria superiore sa scrivere? La risposta elaborata nell’indagine IEA sulla produzione scritta fa riferimento a un modello (4) nel quale vengono identificati i diversi tipi di testo che lo studente potrebbe voler/dover produrre nella scuola e nella sua esperienza extrascolastica. La capacità di scrittura viene quindi definita come la capacità di risposta, in termini di prodotto, a richieste diverse e dunque come capacità di produrre tipi di testo diversi (5). Un approccio basato sulla valutazione vede dunque una definizione operativa del saper scrivere, fondata su prodotti testuali che lo studente deve riuscire a realizzare. La definizione dei prodotti da richiedere è una prima indicazione di ciò che è necessario far fare allo studente per raggiungere la padronanza dell’abilità così definita: se è vero che si impara facendo, allora lo studente deve potersi esercitare con frequenza sui tipi di testo in questione ed esercitarsi fino ad avere raggiunto una accettabile pa-dronanza.
Scrivere di cose che si conoscono
Una seconda indicazione che nasce da esigenze di valutazione è che le prove che consentono l’accertamento della capacità di produzione scritta debbono svolgersi su argomenti noti agli studenti. Questo sembra coincidere con un suggerimento di buon senso: delle cose che non si conoscono è certamente bene tacere, ma è ancor meglio non scrivere.
In realtà, la pratica didattica corrente dei compiti in classe tende a unificare e confondere in una sola prova l’accertamento delle capacità di scrittura e quello delle conoscenze disciplinari, con il risultato di non riuscire poi a distinguere l’una cosa dall’altra.
Questa pratica si scontra con ciò che in senso tecnico definiamo validità di una misura. Una misura è valida quando misura ciò che vuole misurare, per cui non si possono misurare con una sola operazione due cose diverse e che peraltro si confondono fra loro: la capacità di scrivere e la conoscenza di argomenti specifici.
Del resto anche osservazioni ricavate dal lavoro didattico ci aiutano a capire come la pratica corrente sia di poco aiuto. Non è raro, infatti, trovare nei compiti scritti escursioni di punteggio inaccettabili se la misura si riferisse a un solo oggetto ben definito. Ad esempio, se uno studente ha 7 al primo compito scritto, poi prende 4 dopo poche settimane e poi di nuovo 7 al terzo tema, cosa si può pensare? Che abbia avuto un momento di totale smarrimento della sua capacità di scrivere o che, piuttosto, la seconda volta non fosse preparato sull’argomento del tema?
E se la prima volta ho misurato la capacità di scrivere e la seconda la preparazione, è legittimo calcolare la media delle due misure? No di certo, perché sarebbe come calcolare la media di peso e altezza.
Bisogna allora distinguere gli elaborati finalizzati a esercitare e verificare le abilità di produzione scritta da quelli che legittimamente possiamo utilizzare per verificare la preparazione dei ragazzi, e per questo i primi vanno fatti svolgere solo su contenuti noti.
Scrivere sulla base di istruzioni precise
Se le istruzioni di una prova scritta non sono più che precise è difficile valutare il prodotto, che nasce appunto come risposta alle richieste. Non è facile produrre istruzioni precise poiché chi scrive le istruzioni tende a dare per scontate molte cose. Scrivere istruzioni precise tuttavia ha una grande rilevanza didattica, poiché esse funzionano da guida per lo studente.
Nelle istruzioni per le prove scritte dovrebbero essere specificati:
a) lo scopo (il perché scrivere);
b) il destinatario (a chi scrivere);
c) il contenuto (che cosa scrivere);
d) il tipo di testo (come scrivere);
e) i criteri di valutazione (quello che analizzerà l’insegnante che valuta la prova);
f) il tempo a disposizione.
La formulazione di istruzioni, come qualsiasi operazione di valutazione, non può essere svolta da una singola persona.É evidente che per ciascuno di noi è chiaro ciò che intendiamo dire: solo l’altro fornisce una verifica del significato del nostro testo, in prima approssimazione un altro collega, ma è sempre necessario passare anche per la verifica dell’altro studente e dunque sperimentare le istruzioni, correggerle dopo l’esperienza e realizzare un ampio bagaglio di materiali didattici sperimentati.
All’interno di un lavoro di ricerca sulla prova persuasiva, ad esempio, avevamo utilizzato come istruzione per lo studente quella di scrivere una lettera al preside, che ha vietato le gite scolastiche, per presentargli il proprio punto di vista e convincerlo. La prova è stata sperimentata sia in classi di terza media sia in classi di biennio superiore. L’analisi degli elaborati mostrava una grande difficoltà degli studenti a considerare il punto di vista del preside. In una prova successiva abbiamo aggiunto nelle istruzioni “cerca di tenere conto del punto di vista del preside”, ottenendo negli elaborati un rilevante sforzo per stabilire quel contesto condiviso che è alla base di un testo persuasivo (6).
Il tempo da utilizzare per le prove
Un fattore importante nella programmazione di una didattica della produzione scritta è il tempo da assegnare per lo svolgimento delle prove.
Nella maggior parte delle scuole secondarie superiori italiane si dedica alle prove “canoniche” di produzione scritta una quantità di tempo eccessiva, con due esiti negativi: il primo è che i ragazzi non si abituano a programmare in modo corretto i tempi del loro lavoro, il secondo è che non rimane tempo per altre forme di esercitazione scritta.
Nella prima indagine sulla produzione scritta il tempo massimo assegnato alle prove di composizione è stato di un’ora, ma molte delle prove previste avevano durata inferiore. I risultati hanno largamente confermato che non c’è significativa differenza nei prodotti utilizzando tempi maggiori.
Di conseguenza, se le ore disponibili per le esercitazioni di produzione scritta sono nove a quadrimestre, un conto è utilizzarle per svolgere quattro esercitazioni di un’ora e dieci esercitazioni da mezz’ora, diverso è ridurre il tutto a tre compiti scritti di tre ore. Tre compiti a quadrimestre non possono avere evidentemente efficacia formativa.
Uno dei fattori che comporta una grande necessità di tempo nei compiti in classe tradizionali è il tempo per cercare le idee. Ma le idee non si cercano di fronte a un foglio bianco: debbono essere, come si è detto in precedenza,cercate prima.
La sola eccezione ammissibile è quella di compiti a carattere riflessivo, nei quali il tempo può essere utilizzato per l’introspezione. Questo tipo di compiti è estremamente utile, ma non si presta a una valutazione dei contenuti se non in termini di forme di “valutazione solo in positivo”. É inaccettabile infatti che a uno studente che cerca di esprimere le proprie idee o i propri vissuti si assegni un voto, e magari un voto di insuf-ficienza.
Un’altra causa di perdita di tempo è il passaggio dalla brutta copia alla bella copia. E più vantaggioso invece insegnare ai ragazzi a produrre una prima stesura del testo leggibile e valutabile, perché il lavoro di revisione è di grande utilità, ma porta frutti maggiori quando segue a un feed-back da parte dell’insegnante. Il testo viene allora revisionato e posto in bella copia come lavoro definitivo: in una esercitazione di questo tipo l’obiettivo è portare la maggior parte degli studenti a produr-re un testo aceettabile. L’insegnante dovrebbe assumere l’atteggiamento di un caporedattore che riceve un testo inadeguato e che vuole portare il suo giornalista a scrivere un pezzo pubblicabile.
La scelta di un metodo di valutazione
Un ulteriore aspetto del nostro discorso sull’insegnamento della scrittura che parta dalla valutazione riguarda la scelta di un metodo di valutazione degli elaborati. Possiamo classificare i diversi metodi che la letteratura su questo argomento presenta in un continuo che va dai metodi olistici a quelli analitici (7). Parliamo di metodi olistici per indicare quei metodi che considerano il testo come un tutto, e il testo è certamente un tutto che non può semplicemente essere fatto risalire ad una somma di parti.
I metodi analitici, al contrario, tendono a scomporre il testo in singoli aspetti sui quali è possibile compiere operazioni di misura. Calonghi, ad esempio (8), utilizzando numerose rilevazioni empiriche basate su metodi analitici, ha proposto un modello che ha tre dimensioni fondamentali: quantità e qualità dell’informazione, organizzazione del saggio, correttezza e proprietà linguistica. Ciascuna di queste dimensioni è poi specificata in diversi aspetti dell’elaborato, che consentono una rilevazione analitica in termini di presenza/assenza di elementi e, quando è possibile, in termini quantitativi.
Il limite degli approcci analitici è nella loro complessità d’uso.
Si tratta di approcci estremamente utili alla correzione in alcuni momenti di formazione degli insegnanti, e probabilmente in alcuni interventi didattici mirati, ma che presentano limiti notevoli per un uso nella didattica quotidiana e nella stessa ricerca su campioni ampi.
Nelle nostre indagini abbiamo utilizzato due approcci: il primo basato sulla “valutazione di prima impressione” o “valutazione globale” dell’elaborato come risposta alle istruzioni, e il secondo sulla “valutazione dei tratti principali”, cioè sulla valutazione sintetica di singoli aspetti dell’elaborato accuratamente descritti.
Per quanto riguarda il primo approccio, i suoi sostenitori ritengono che dopo una rapida lettura di insieme si è ingrado di esprimere un giudizio (9), e che la misurazione del profitto si basa dunque sulle capacità intuitive e sull’esperienza dell’insegnante.
Ma anche la valutazione dei tratti principali rimane, nella sostanza, un approccio “sintetico”: il valutatore viene indirizzato a esaminare alcuni aspetti della prova scelti sulla base di un modello teorico ed evidenziati nelle istruzioni, e quindi a formulare un unico giudizio che consideri assieme le diverse componenti della prova relative a ogni tratto.
La scelta degli aspetti da valutare e la griglia di valutazione
La definizione degli aspetti, o tratti, da considerare nella valutazione di un elaborato è oggetto di numerose ricerche. I tratti da osservare nella indagine IEA sono stati definiti sulla base di un modello di validità del costrutto messo a punto da Takala (10).In questo modello la competenza nello scrivere viene ad articolarsi in due componenti principali: la competenza nella strutturazione del discorso e la competenza nella produzione del testo.
La competenza nella costruzione del discorso richiede competenze cognitive e sociali, dove la competenza cognitiva è intesa come la capacità di produrre o identificare contenuti rilevanti e di organizzarli in un testo coerente e coeso. La rilevanza dei contenuti che lo studente riesce a comunicare è sempre relativa e può essere valutata solo in riferimento a istruzioni che definiscano in modo preciso il contesto del di-scorso, ne precisino lo scopo e consentano una chiara identificazione del destinatario. Questa competenza comprende l’abilità di produzione di idee, e l’abilità di organizzare i contenuti in modo coerente e tale da rendere il testo comprensibile.
Dal momento che lo scritto è generalmente indirizzato a un destinatario diverso da se stesso, la competenza nello strutturare un discorso presuppone una competenza sociale. Lo scrittore deve essere consapevole delle aspettative del destinatario (norme) e quindi deve essere capace di usare uno stile e un tono appropriato. A questa abilità corrisponde il terzo tratto della griglia di valutazione IEA-IPS: “stile e adeguatezza del registro”.
La competenza nel produrre testi può essere a sua volta divisa in competenza linguistica e competenza motoria. La competenza linguistica consiste nell’abilità di produrre frasi usando una forma grammaticale e un’ortografia corretta e rispettando la punteggiatura(grammatica e ortografia).
La competenza motoria si riferisce alla capacità di produrre un testo facilmente leggibile (calligrafia).
A questi aspetti, nella ricerca svolta inItalia, sono stati aggiunti altri due tratti:
– il “lessico”, intendendo in questa dimensione solo la componente relativa ai veri e propri “errori” lessicali, mentre la scelta del lessico in termini di padronanza, ricchezza e adeguatezza viene valutata nello stile;
– l'”impaginazione”, cercando di misurare sotto questa voce l’uso funzionale dello spazio pagina. In Italia questo aspetto, nelle sue componenti di maggior rilievo, quali l’evidenziazione dei capoversi o il rispetto di norme di impaginazione nelle lettere, normalmente non viene insegnato. La scelta di una misurazione distinta presenta il vantaggio di evidenziare questa carenza separandone gli effetti dal giudizio sugli altri tratti.
L’analisi fattoriale dei risultati svolta con i dati dell’indagine IEA-IPS ci consente di convalidare il modello proposto da Takala. In effetti, come si può vedere dalla tabella qui sotto, emergono due fattori: uno relativo agli,aspetti più propriamente cognitivi e l’altro relativo alla capacità di produr-re testi. Notiamo inoltre che la competenza nella grammatica presenta correlazioni dello stesso ordine di grandezza con i due fattori identificati. La grammatica non è dunque isolabile come un aspetto puramente tecnico, ma ha a che fare con l’organizzazione del testo e con lo stile.I tratti da valutare possono essere schematizzati in una griglia di valutazione. Molte sono le esperienze presenti nella scuola e moltissimi i modelli di griglia che abbiamo avuto modo di conoscere. É difficile esprimere una preferenza tra questi: spesso le differenze risiedono in articolate distinzioni sull’uso di termini tecnici che generano scontri tra insegnanti non meno feroci di quelli che si svolgevano nell’alto Medioevo tra i diversi ordini religiosi.
Una griglia funziona come strumento di misura solo quando c’è accordo tra coloro che la utilizzano sul significato dei termini che questa propone.
Nella nostra esperienza abbiamo verificato l’utilità di ridurre all’essenzialel e singole voci della griglia, rinunciando alle aggettivazioni per rendere la griglia utilizzabile in relazione a elaborati che rispondono a diverse istruzioni. Allo stesso tempo abbiamo verificato la necessità di esplicitare che cosa ci si aspettava per ciascuna voce della griglia in relazione ad una specifica istruzione. Di fatto solo questo, cioè un accordo esplicito tra i valutatori, garantisce una certa affidabilità nelle operazioni di accertamento dei livelli.
I modelli di riferimento e la scala di misura
Le difficoltà nella misurazione di quanto un elaborato o un suo aspetto risponda alle istruzioni non si risolve solo sulla base della predisposizione di un apparato di strumenti. Istruzioni dettagliate. metodi di valutazione costituiscono senz’altro una base, ma sono tuttavia ancora necessari alcuni elementi: il primo è di carattere oggettivo ed è costituito da una scala di misura. Il secondo è invece legato alla necessità di addestrarsi alla valutazione. Quale che sia la forma utilizzata per indicare gli intervalli della scala di misura utilizzata (numeri, lettere o frasi) ciò che è necessario stabilire è una corrispondenza tra questi indici e dei modelli di riferimento.
Di solito a un insegnante anche esperto mancano modelli che indichino che cosa rappresenti una buona prestazione, una prestazione media, una prestazione inadeguata. Ciascuno ha come riferimento la propria esperienza e ciascuno tende a usare una sua propria scala, che ha come riferimento la classe che ha di fronte, attenuando eventualmente l’effetto della classe sulla base della propria esperienza sul piano diacronico. Questa situazione fa sì che un voto dato in una classe non corrisponda allo stesso voto dato in un’altra classe.É dunque necessario che si giunga a un accordo sui modelli, almeno a livello delle classi parallele di una singola scuola, poi a livello di distretto. Si riesce a risolvere queste difficoltà solo identificando dei modelli di elaborati di diversa qualità.
La procedura di definizione dei modelli non è semplice, ma permette di rendere più chiare, in termini valutativi, le indicazioni contenute nelle istruzioni per valutare le prove. La definizione di modelli è comunque un’operazione che può essere svolta da qualsiasi gruppo di insegnanti (non il singolo docente), poiché si basa sul confronto dei punteggi assegnati su un campione rappresentativo di prove (due o tre classi in genere sono sufficienti). L’operazione completa il lavoro di valutazione-addestramento illustrato in precedenza: vengono selezionati gli elaborati su cui c’è stato un chiaro accordo e che possibilmente presentano una serie di punteggi omogenei per i diversi criteri analitici. Su ogni elaborato selezionato deve essere steso un breve commento, per ogni voce della griglia analitica, che illustri le motivazioni (errori, passaggi brillanti, improprietà ecc.) che hanno condotto al punteggio assegnato, motivazioni ricavate dal dibattito del gruppo di insegnanti che ha valutato la prova.
Gli elaborati devono essere almeno tre,uno per ogni fascia di rendimento (bassa, media, alta), ma se necessario possono essere aggiunti elaborati-modello specifici per ogni criterio: ci possono essere diversi modi per ottenere un punteggio eccellente nello stile di una composizione narrativa, per cui è meglio una esemplificazione basata su diversi esempi stilistici. Naturalmente il pacchetto dei modelli non deve essere troppo ampio, e probabilmente sarà difficile reperire elaborati rappresentativi di tutte le variabili indicate nelle istruzioni; ma la lettura di almeno cinque, sei elaborati commentati renderà notevolmente più chiare a un insegnante che intende utilizzare quel tipo di prova le istruzioni relative, permettendogli di realizzare un confronto dei punteggi più attendibile.
Tuttavia è utile riflettere sui problemi che comporta la misura di oggetti qua1i un prodotto scritto.
In primo luogo è da dare per scontato che la precisione di queste misure non può essere assoluta. La precisione assoluta non esiste neanche per le cosiddette scienze esatte, dove si parla più propriamente di valore vero di una misura come media di molte misure di uno stesso oggetto. Ogni qual volta at-tribuiamo un punteggio a un elaborato operiamo una approssimazione, utilizzando una definizione puntuale che pe-rò definisce una fascia di prestazioni piuttosto che un singolo livello di qualità. In altre parole, se diamo 1, su una scala a cinque, a un compito, questo 1collocherà l’elaborato all’interno di una fascia di elaborati diversi tra loro e tuttavia accomunati da un livello basso. In teoria, sarebbe possibile riclassificare gli elaborati in una scala più precisa e poi di volta in volta pren-dere gli elaborati raggruppati, ad esempio, nella categoria più bassa e procedere di nuovo a una classificazione. In realtà il nostro sistema di misura deve essere adatto ai nostri scopi. E dunque è inutile utilizzare troppe categorie; l’insieme delle cinque fasce che vengono utilizzate nella maggior parte dei sistemi di valutazione risulta infatti più che sufficiente. La scala da 1 a lO è invece troppo ampia, tanto che nella pratica comune si usano soprattutto i voti da 4 a 8, salvo poi fare ricorso, per specificare il senso, ai vari più, meno,meno meno, e mezzo.
Affidabilità delle valutazioni
L’esercitazione di gruppo sulla valutazione permette anche di verificare l’affidabilità degli insegnanti-valutatori attraverso l’analisi comparata delle loro valutazioni.
Esistono procedure abbastanza sofisticate (11), che si basano sul confronto delle valutazioni di ogni insegnante con quelle dei colleghi e che definiscono degli indici di accordo (stessa valu-tazione) e consenso (differenza di un solo punto) della valutazione. Tali indici devono essere utilizzati nell’ambito di indagini su campioni vasti, per accertare l’effettiva qualifica dei valutatori: la loro affidabilità è un requisito indispensabile per il successo dell’indagine. Ma anche senza arrivare all’utilizzo di tali procedure, qualsiasi gruppo di insegnanti che decide di valutare insieme un gruppo di prove può controllare l’affidabilità dei suoi membri semplicemente tabulando su un cartellone le proprie valutazioni, verificando in quali prove e in quali criteri i propri punteggi si staccano dalle medie del gruppo, se si tratta di differenze casuali (legate al singolo elaborato) o sistematiche (un criterio sempre sottovalutato in tutti gli elaborati). Conseguentemente è anche possibile perogni insegnante comprendere i motivi di queste differenze, dopo un serio confronto con i colleghi sui punteggi assegnati.
In caso di differenze casuali (non rilevazione di alcuni errori ortografici, con conseguente innalzamento del punteggio) sarà semplice risolvere la questione, riflettendo sugli oggettivi problemi umani legati a un’operazione di correzione/valutazione (stanchezza, ripetitività, momenti di suscettibilità).
Se gli scarti sono invece sistematici il dibattito potrà appuntarsi sulle istruzioni per la valutazione, probabilmente interpretate in modo diverso, oppure sulla soglia di inadeguatezza o eccel-lenza, cioè quando si può assegnare il punteggio minimo o massimo. Oppure il dibattito può diventare ancora più sostanziale, per esempio sulla collocazione di errori linguistici in cui si può sovrapporre l’aspetto grammaticale e quello stilistico. Il dibattito, se accompagnato da una buona dose di disponi-bilità a prendere in considerazione le ragioni dei colleghi, permetterà di risolvere la maggior parte dei problemi,fermo restando l’obiettivo di raggiungere almeno una valutazione di consenso, cioè una differenza di un solo punto (l2).
Dai punteggi dei tratti principali a un giudizio di sintesi
Molti insegnanti che hanno utilizzato la valutazione dei tratti principali ci hanno chiesto di ricavarne un giudizio complessivo, un voto singolo. Questo passaggio può essere effettuato sia attraverso una sintesi personale dell’insegnante sia attraverso una ponderazione dei punteggi attribuiti ai singoli tratti.
I dati dell’indagine IEA consentono infatti di ricavare a posteriori il peso che i singoli tratti degli elaborati hanno avuto nella determinazione della valutazione globale da parte delle giurie che hanno valutato le prove e alcune indicazioni empiriche su quale peso hanno assunto i diversi tratti nella valutazione globale di un elaborato (13). Utilizzando un procedimento statistico, che si chiama regressione lineare multipla, abbiamo ricavato dei coefficienti che, moltiplicati per i punteggi attribuiti ai singoli tratti, consentono di costruire, con un alto grado di probabilità, quella che dovrebbe essere la valutazione globale di un elaborato. L’analisi della regressione rende infatti possibile la predizione di valori sconosciuti della variabile dipendente (nel nostro caso il punteggio di valutazione globale) in base alla conoscenza dei corrispondenti valori delle variabili indipendenti (punteggi dei tratti principali). Questi valori si riferiscono al modo di valutare degli oltre cento insegnanti che hanno collaborato all’indagine e variano in relazione ai diversi ordini di scuola. I coefficienti per cui moltiplicare i punteggi dei tratti per avere il valore di valutazione globale sono riportati nella tabella 1 riportata qui sotto relativa alla IV classe delle superiori.
I tratti “lessico “e “impaginazione” restano fuori dalla tabella perché non sembrano aver contribuito in modo evidente alla formulazione della valutazione globale dei valutatori IEA. Per quanto riguarda il “lessico” questo è dovuto alla natura stessa del tratto, che riguardava i soli errori nell’uso dei vocaboli e non le scelte lessicali. Infatti questi errori di lessico sono relativamente rari, presenti solo nei compiti peggiori e talvolta nei compiti migliori.
Per quanto riguarda l'”impaginazione”, probabilmente lo scarso peso nella valutazione globale è dovuto alla non abitudine degli insegnanti italiani a considerare questo aspetto degli elaborati.
Dovendo formulare una proposta di pesi da attribuire ai punteggi dei diversi tratti delle prove si è ritenuto dimodificare i dati ricavati sulla base dialcune cosiderazioni legate al nostromodello teorico, dando un peso maggiore allo “stile e adeguatezza del registro” nella scuola secondaria superiore e attribuendo un piccolo valore anche all'”impaginazione”.
Si tratta di indicazioni di massima e i coefficienti possono essere fatti variare in relazione al tipo di prova proposto. Un esempio di come i coefficienti proposti possono essere utilizzati per riportare a un voto unico i punteggi dei diversi tratti di un elaborato di uno studente di scuola secondaria superiore è nella tabella 2
Questi dati possono essere utilizzati dall’insegnante per aumentare la consapevolezza del proprio modo di valutare (14).
Qualche idea dai risultati delle indagini sulla produzione scritta degli studenti italiani
I risultati delle nostre ricerche sulle competenze nella produzione scritta degli studenti di scuola secondaria su-periore forniscono indicazioni di un certo interesse. In particolare emerge che i punti critici nella capacità di scrivere dei nostri studenti riguardano soprattutto le competenze cognitive e, in modo assai più relativo, gli aspetti formali (15).
Sia nella indagine IEA sia nella ricerca che abbiamo svolto in Molise sulle classi di biennio abbiamo verificato la percezione degli studenti dell’insegnamento ricevuto tramite l’analisi dei contenuti di una delle prove che richiedeva di scrivere una lettera a uno studente più giovane, con dei consigli per poter essere ben valutato dagli stessi insegnanti nelle prove scritte. La metodologia di analisi si basa su una griglia che raccoglie in diverse categorie tutti i consigli che gli studenti in genere forniscono, consentendo analisi molto dettagliate (16). In questa sede presentiamo solo i dati di sintesi confrontando i risultati del campione nazionale di terza media e di quarta superiore dell’indagine IEA con quelli del campione di secondo anno del ciclo superiore del Molise.
Le indicazioni relative alla “presentazione” (consigli relativi all’aspetto del testo, alla sua lunghezza, all’impaginazione, alla grammatica e all’ortografia) perdono via via di importanza pur continuando anche in quarta superiore a ricevere un’attenzione considerevole (tabella 3). In linea di massima una direzione inversa hanno i consigli relativi al contenuto e allo stile, mentre è interessante notare che i consigli relativi all’organizzazione del testo sono poco rappresentati in tutti e tre i campioni. Relativamente meno rappresentati sono i consigli sulle procedure (scelta e adeguamento al destinatario, scelta dell’argomento, preparazione preventiva, impostazione, stesura, revisione, uso del tempo). Mentre merita sottolineare che i consigli che abbiamo definito di tattica relativi al comportamento da tenere durante lo svolgimento della prova e a come piacere all’insegnante adeguandosi alle sue aspettative crescono significativamente nel passaggio tra i diversi ordini di scuola.
Insegnare a scrivere
Proviamo a sintetizzare dunque quali sono le indicazioni che nascono da un approccio all’insegnamento della scrittura basato sulla valutazione (17).
1) É necessario definire con precisione gli obiettivi in termini di prodotti testuali. É necessario variare le prove da proporre agli studenti, perché la capacità di scrivere in lingua madre deve essere considerata piuttosto come la capacità di far fronte alla vasta gamma dei possibili compiti di scrittura che non come la capacità di produrre buoni temi.
2) Nella didattica dello scritto un ruolo fondamentale deve essere assegnato alla formulazione delle istruzioni per gli studenti. Le istruzioni devono mettere lo studente in grado di capire che cosa gli è effettivamente richiesto e il valutatore in grado di verificare se le risposte rispondono alle richieste.
3) Perché si valuti la capacità di scrivere è necessario realizzare prove su contenuti che siano già noti a tutti gli studenti.
4) Per una valutazione affidabile occorono molte misure. É utile proporre prove di produzione scritta in tempi assai più contenuti di quelli utilizzati correntemente. Questo comporta la possibilità di far svolgere agli studenti un numero superiore di scritti e di dare un feed-back più immediato.
5) É necessario definire ed esplicitare il metodo con il quale si valutano le prove, e definire in anticipo i criteri con i quali sarà valutata ogni singola prova. La costruzione di griglie di valutazione così articolate consente anche una maggiore consapevolezza della complessità della richiesta che proponiamo allo studente.
6) Misurazione e valutazione sono processi che si basano sull’accordo, dunque non è possibile fare valutazioni corrette lavorando da soli. É possibile raggiungere una buona affidabi-lità nelle valutazioni attraverso un lavoro di continuo confronto con i colleghi e sulla base di una metodologia rigorosa. É possibile, dunque, esercitandosi con i colleghi, stabilire degli standard di prestazione a livello di classi parallele, scuola e anche a livelli più ampi.
Tabella 1
pesi ricavati dalla regressione | adattamento | |
qualità del contenuto | .48 | .40 |
organizzazione e presentazione del contenuto | .23 | .23 |
stile e adeguatezza del registro | .21 | .16 |
grammatica | .05 | .O5 |
impaginazione | — | .04 |
ortografia | .04 | .04 |
calligrafia | .04 | .04 |
Tabella 2
tratti | punti | pesi | punti pesati | |
contenuto | 4 | X | .40 | 1,20 |
organizzazione | 3 | X | .23 | 0,69 |
stile | 4 | X | .21 | 0,62 |
grammatica | 4 | X | .05 | 0,20 |
impaginazione | 3 | X | .04 | 0,12 |
ortografia | 5 | X | .04 | 0,20 |
calligrafia | 5 | X | .04 | 0,20 |
puneggio di sintesi | 3,23 |
Tabella 3
tratti | III media IEA | II sec.sup. Molise | IVsec. sup. IEA |
contenuto | 23,5 | 21,5 | 28,1 |
organizzazione | 9,7 | 12,8 | 12 |
stile | 14,9 | 16,6 | 18,5 |
forma | 5 | 4,6 | 4,5 |
presentazione | 31,1 | 23,4 | 16,1 |
procedure | 12,2 | 17,3 | 13,9 |
tattica | 3,3 | 3,8 | 6,9 |
Note
(1) Sulle indagini condotte dalla IP.A si può consultare la Rassegna bibliografica curata da P. Lucisano e M.T. Siniscalco, “Cadmo”, anno II, 5-6,1994, pp. 164-186
(2) L’indagine IEA-IPS svolta nella prima metà degli anni Ottanta è stata la prima ricerca internazionale sulla valuta-zione delle capacità di produzione scritta, alla quale hanno partecipato quattordici paesi (cfr. T.P. Gorman, A.C. Purves, R.E. Degenhart (a cura di), The IEA Study of Written Composition I: Writing Tasks and Scoring Scales, Pergamon Press/IEA, Oxford, 1988; A.C. Purves, The IEA Study of Written Composition II: Education and Performance in Fourteen Countries, Pergamon Press, Oxford, 1992). Negli anni che hanno seguito la ricerca internazionale, la metodologia IEA-IPS è stata sperimentata in diversi corsi di aggiornamento, da ricercatori e insegnanti che collaborano con le cattedre di Pedagogia del Dipartimento di Ricerche Storico-filosofiche e Pedagogiche dell’Università “La Sapienza”; in particolare, devono essere citati quelli condotti insieme all’IRRSAE, Molise a Termoli, Isernia e Campobasso. (cfr. IRRSAE Molise La produzione scritta nel biennio supe-riore. Ricerca nelle scuole superiori del Molise, “Quaderni dell’IRRSAE Molise” Campobasso, 1993) e il Progetto Saper scrivere del Provveditorato di Bergamo (cfr. P. Lucisano, La indagine sulle capacità di produzione scritta dei ragazzi di quinta elementare e terza media, in “Quaderni del Provveditorato agli studi di Bergamo” 2,199O); cfr. nota 17.
(3) Cfr. P. Lucisano, G. Benvenuto, Insegnare a scrivere: dalla parte degli insegnanti, “Scuola e città”, 6, 1991, pp. 265-279
(4) Cfr. A. Vahapassi, On the Specification of the Domain of Written Composition in S. Takala, A. Purves (a cura di), An International Perspective on the Evaluation of Written Composition (Special issues) Evaluation in Education: An In-ternational Review Series, 5 (2) Pergamon Press, Oxford, 1982.
(5) Nella indagine IEA-IPS furono utilizzate nove prove diverse, di cui alcune erano ulteriormente specificate in diverse forme.
Prova 1: Stesura di un messaggio informativo, prevista in cinque forme:
la) lettera con descrizione di una bicicletta
lb) lettera con descrizione di se stesso.
1c) biglietto ai familiari.
ld) biglietto di giustificazione
le) domanda di impiego.
Prova 2: Riassunto
Prova 3: Ristesura di una storia
Prova 4: Descrizione, prevista in due forme:
4a) descrizione di un oggetto;
4b) descrizione di un procedimento
Prova 5: Composizione narrativa
Prova 6: Composizione persuasiva
Prova 7: Composizione riflessiva
Prova 8: Composizione libera
Prova 9: Lettera di consigli.
(6) Cfr. M. Dolfin, F. Fucili, E. Tribalto Il testo persuasivo, “La ricerca”, l°ottobre 1988 e 1°.novembre 1988; M. Dolfin, F.Fucili, E. Tribalto Il testo persuasivo: un’ipotesi didattica, “La ricerca” 1° ottobre 1989
(7) M.T. Serafini, Come si fa un tema in classe, Bompiani, Milano, 1985, pp. 185 sgg.; M.T. Serafini, Come si scrive, Bompiani, Milano, 1992
(8) L. Calonghi, Valutare. Risultati docimologici e indicazioni per la scheda, De Agostini, Novara, 1983, pp. 216-218
(9) S. Wiseman, The Marking of English Compositions in Grammar School Selection, “British Journal of Educational Psychology”, 19, 1949, pp. 2OO-2O9; M. Della Casa, La produzione del testo, in AA.VV., Il filo del discorso, La Nuova Italia, Firenze, 1982
(10) Cfr. S. Takala-P. Lucisano, La misurazione delle abilità di produzione scritta, “Ricerca educativa”, 2-3, 1988, pp. 15-34
(11) Cfr. G. Benvenuto, L’affidabilita delle valutazioni, in IRRSAE, Molise, La produzione scritta nel biennio superiore, op.cit.
(12) D. Albertoni, L’addestramento dei valutatori delle prove IEA-IPS, in “Ricerca educativa”, anno V, 2-3, 1988, pp. 95-106
(13) É necessario ricordare che durante questa indagine sono state somministrate tre prove scritte a un campione probabilistico stratificato di circa cinquemila studenti dell’anno terminale di ciascun ciclo scolastico. I quindicimila elaborati così ottenuti sono stati sottoposti a due valutazioni indipendenti da parte di insegnanti esperti e appositamente formati. Nella ricerca IEA si è chiesto agli insegnanti di svolgere prima la valutazione di prima impressione dell’elaborato e successivamente procedere alla valutazione dei tratti principali senza modificare sulla base di questa la prima valutazione. Utilizzando le trentamila valutazioni degli elaborati del nostro campione abbiamo confrontato i punteggi attribuiti dagli insegnanti nella valutazione di prima impressione con quelli che gli stessi insegnanti hanno in seguito attribuito ai tratti principali degli elaborati.
(14) Cfr. P. Lucisano, La valutazione delle prove scritte di italiano: un metodo costruito nell’amblto di una ricerca inter-nazionale, in “La ricerca”, 1° febbraio1991
(15) Cfr. P. Lucisano, Appunti sui primi risultati dell’indagine IEA-IPS, in “Ricerca educativa”, 2-3, 1988, pp. 211-239, e P. Lucisano, Come scrivono gli studenti italiani: un primo sguardo ai risultati della indagine IFA sulla produzione scritta, in “La ricerca”, 1° novembre1988 e 1° dicembre 1988; P. Lucisano, La ricerca IEA sulla produzione scritta, “Ricerca educativa”, 2-3, 1988, pp. 3-13
(16) G. Asquini, G. De Martino, L. Menna, Analisi dei consigli della prova 9, in IRRSAE Molise, La produzione scritta nel biennio superiore, op. cit., pp. 77-lOO e 131-141.
(17) Le prove utilizzate nell’indagine hanno stimolato diversi studi di approfondimento, tra cui ricordiamo il lavoro sul riassunto (cfr. G. Benvenuto, Insegnare a riassumere: proposte per un itinerario didattico, Loescher, Torino, 1987), sulla ristesura di una storia (cfr. G. Benvenuto-A. Allerhand, Insegnamento e valutazione delle abilità di produzione scritta, in G. Asquini, P. Lucisano (a cura di), L’italiano nella scuola elementare: aspetti psicopedagogici e didattici, La Nuova Italia, Firenze, 1991), sulla descrizione (cfr. F. Pietrobelli, La prova di descrizione scritta, in AA.VV., Lettura e scrittura: proposte didattiche, Loescher Torino, 1989, pp. 217-131) e sul testo persuasivo (cfr. M. Dolfin, F. Fucili, E. Tribalto, Il testo persuasivo, op. cit.); la metodologia IEA-IPS è stata poi ripresa in diverse ricerche tra cui ricordiamo: il Monitoraggio Scuola Elementare curato dal CENSIS (cfr. P. Lucisano Le competenze linguistiche, vol. I, pp. 104-173 e La rilevazione delle competenze linguistiche, vol. II, pp.21-44 e Appendice della prova di italiano, vol. II, pp. 166-214 Monitoraggio della Scuola Elementare, CENSIS, Roma, 1992) per il Ministero della Pubblica Istruzione, e la ricerca “Definizione di standard linguistici nel biennio secondario superiore” curata dal CARSFI di Roma e dalla FNISM (in attesa di pubblicazione). Per queste indagini sono state create delle nuove prove scritte. Nel progetto REDIS per ii recupero della dispersione scolastica svolto in un gruppo di scuole superiori dell’area romana, sono state utilizzate le metodologie tipiche IEA-IPS per un percorso di recupero delle abilità di base (cfr.G. Benvenuto, C. Bettoni, P. Lucisano, Cenni sui primi risultati delle rilevazioni relative agli esiti e alle prove oggettive di profitto al termine del primo anno di sperimentazione, in G. Benvenuto, C. Bettoni, E. Boldi (a cura di), il Progetto REDIS per il recupero della dispersione scolastica, Istituto dell’Enciclopedia Italiana, Roma, 1993). cfr. anche P. Lucisano, Come valutare le competenze linguistiche: dalla costruzione delle prove agli indicatori di profitto, “Cadmo”, anno I, 2, 1993, pp. 25-42.