Come leggono gli studenti di quarta primaria?

di Maria Teresa Siniscalco

Il 16 maggio sono stati pubblicati i risultati di PIRLS 2021 a livello internazionale e nello stesso momento l’Invalsi ha pubblicato e presentato il rapporto nazionale. L’Italia continua ad avere risultati medi comparativamente buoni nel quadro internazionale.

 

Questa pubblicazione deve essere citata come segue: M. T. Siniscalco, Come leggono gli studenti di quarta primaria?, ADi, 21 giugno 2023, https://adiscuola.it/pubblicazioni/come-leggono-gli-studenti-di-quarta-primaria/

Questa pubblicazione deve essere citata come segue: M. T. Siniscalco, Come leggono gli studenti di quarta primaria?, ADi, 21 giugno 2023, https://adiscuola.it/pubblicazioni/come-leggono-gli-studenti-di-quarta-primaria/

Come è definita e misurata la reading literacy in PIRLS

PIRLS – lo ricordiamo – è l’acronimo che sta per Progress in International Reading Literacy, l’indagine della IEA [1] che verifica con periodicità quinquennale la reading literacy degli studenti del quarto anno di scuola primaria. All’edizione del 2021 hanno partecipato 57 Paesi e 8 “entità subnazionali” [2].

Che cosa si intende per reading literacy? La definizione che ne dà PIRLS, in linea con  numerose teorie, sottolinea come la lettura sia un processo costruttivo e interattivo: “la literacy in lettura è l’abilità di comprendere e utilizzare le forme di linguaggio scritto richieste dalla società e/o apprezzate dall’individuo. I lettori sono in grado di costruire significato dai testi in una varietà di forme. Leggono per imparare, per partecipare a comunità di lettori a scuola e nella vita quotidiana e per piacere personale” [3].

Un quadro concettuale di riferimento chiarisce come si passi da questa definizione di competenza di lettura alla sua misurazione [4]. La prova di PIRLS è costruita tenendo conto di due dimensioni, che hanno guidato la scelta dei testi e la costruzione dei quesiti: gli scopi della lettura e i processi di comprensione.
I testi sono scelti in relazione a due scopi di lettura:

– leggere per fruire di un’esperienza letteraria
– leggere per acquisire e utilizzare informazioni.

I quesiti sono costruiti intorno a quattro processi: 1) riconoscere e reperire informazioni fornite in modo esplicito; 2) fare inferenze dirette; 3) interpretare e integrare idee e informazioni; 4) valutare e porsi criticamente nei confronti di contenuti e aspetti formali del testo.

.
Questi quattro processi sono stati aggregati in due gruppi, così che risultati degli studenti sono riportati in riferimento a due processi:

– reperire informazioni e fare inferenze dirette;
– interpretare, integrare (informazioni) e valutare (contenuto e forma del testo).

In PIRLS 2021 ci sono alcune novità rispetto alle precedenti edizioni:

  • si è passati alla rilevazione digitale, scelta da 26 Paesi su 57, tra cui l’Italia, con tutti i vantaggi di flessibilità e interattività che questa comporta [5];
  • si è introdotto un disegno adattivo delle prove, che permette di migliorare la misurazione, grazie a una maggiore corrispondenza tra livello di difficoltà delle prove e livello abilità degli studenti [6].

I risultati dell’Italia in PIRLS 2021

La pandemia ha reso più difficile la rilevazione, ma la maggior parte dei Paesi, 43 per l’esattezza, è riuscita ciononostante a svolgere la rilevazione alla fine della quarta primaria (nel 2021 o nel 2022) [7], e sono questi i Paesi che l’Invalsi ha considerato per confrontare i risultati dell’Italia in un quadro internazionale comparato.

Quali sono i risultati dell’Italia nel contesto internazionale?

In PIRLS 2021, l’Italia ha avuto un punteggio di 537 punti

  • significativamente più basso solo di quello di Singapore, Hong Kong, Federazione Russa, Inghilterra, Finlandia, Polonia, Taipei e Svezia,
  • analogo a quello di Australia, Bulgaria, Repubblica Ceca, Danimarca, Norvegia e Macao
  • e significativamente più alto di quello dei restanti 29 Paesi, tra i quali Austria, Francia, Germania, Nuova Zelanda e Paesi Bassi.

Fonte: https://www.invalsi.it/invalsi/ri/pirls2021/documenti/RappNaz/PIRLS2021_Presentazione_M_Emiletti.pdf

 

  • Il risultato dell’Italia è anche significativamente più alto della media dei 18 Paesi dell’Unione Europea partecipanti all’indagine (pari a 527, vedi immagine sottostante).
Fonte: https://www.invalsi.it/invalsi/ri/pirls2021/documenti/RappNaz/PIRLS2021_Presentazione_M_Emiletti.pdf
  • L’8% degli studenti raggiunge il livello più alto della scala di competenza di lettura di PIRLS (il livello “avanzato”),
    • una percentuale analoga a quella di Austria, Germania e Repubblica Slovacca;
    • superiore a quella di Paesi europei come Belgio (3%), Francia (5%) e Paesi Bassi, Portogallo e Spagna (6%);
    • e più bassa di quella di Finlandia (18%), Bulgaria (16%), Svezia (15%), Polonia (14%), Danimarca e Repubblica Ceca (11%),
    • mentre la percentuale più elevata si registra a Singapore, dove il 35% degli studenti raggiunge il livello avanzato
  • All’estremo opposto della scala, la percentuale di chi non raggiunge nemmeno il livello più basso della scala di PIRLS in Italia è bassa (3%),
    • in modo analogo a quanto rilevato in Inghilterra, Hong Kong e Singapore,
    • contro percentuali più alte negli altri Paesi europei e doppie (6%) nel Belgio fiammingo, in Francia, in Germania, in Portogallo, nella Repubblica Slovacca e in Slovena.

I risultati dell’Italia sono dunque positivi e lo sono ancora di più se si tiene conto che alla fine della quarta primaria i nostri studenti sono in media 6 mesi più giovani degli studenti dei Paesi che hanno avuto risultati medi analoghi all’Italia e hanno un anno in meno degli studenti di alcuni dei Paesi con risultati più alti dell’Italia (Bulgaria, Danimarca, Finlandia, Norvegia, Polonia e Svezia).

Zoomando dentro i dati nazionali: dispersione dei punteggi e differenze per sottogruppi della popolazione

La media è il frutto di una dispersione dei punteggi relativamente contenuta in Italia, a confronto con quella degli altri Paesi con una media simile alla nostra.

  • La differenza tra i punteggi degli studenti con i risultati più alti (95° percentile) e quelli degli studenti con i risultati più bassi (95° percentile) – pari a 219 punti – è minore in Italia rispetto a Paesi con una media simile, che va dai 240 fino a 292 punti.
  • La minore dispersione corrisponde a risultati comparativamente alti per gli studenti con i risultati peggiori;
  • All’estremo più alto della scala però si rilevano risultati comparativamente più bassi per gli studenti italiani migliori (quelli al 95° percentile).

Un dato che compare sistematicamente fin dalle prime indagini internazionali negli anni ’70 del secolo scorso, rilevato oggi anche da quelle nazionali, è costituito dalle differenze tra aree geografiche dell’Italia, già visibili alla fine della scuola primaria, che non diminuiscono nel tempo.

  • Considerando le differenze territoriali, si rileva – già a livello di scuola primaria – una differenza significativa tra le aree di Nord Ovest (550), Nord Est (542) e Centro (543) e le aree del Sud (527) e Sud Isole (513), con risultati – in quest’ultima area – particolarmente bassi per gli studenti che si trovano nel quarto più basso della distribuzione.
  • Queste differenze medie si precisano nella distribuzione degli studenti sulla scala di lettura. La percentuale di studenti che affronta con successo i testi più difficili, quelli al livello avanzato della scala di lettura, nell’area del Sud Isole è la metà (4%) rispetto a quella rilevata nel Nord Ovest, nel Nord Est e nel Centro (8%-11%) mentre nel Sud è pari al 7%.
  • Nelle aree del Nord e del Centro solo l’1-2% degli studenti non riesce ad affrontare con successo neppure le domande più facili della prova, cioè si colloca al di sotto del livello più basso della scala, mentre la loro percentuale sale al 5% nelle aree di Sud e Sud-Isole.
  • La differenza legata al genere (7 punti a favore delle femmine) è tra le più contenute nel confronto internazionale (tra i Paesi europei si va da 2 punti in Spagna a 20 punti in Polonia), anche se è significativa.
  • Invece per l’Italia, come per circa metà dei paesi partecipanti, non ci differenze significative tra le diverse scale parziali, né quelle degli scopi di lettura/tipi di testi (lettura di testi letterari e di testi informativi), né rispetto ai processi di comprensione (reperire informazioni + fare inferenze dirette e interpretare, integrare e valutare).

Confronto dei risultati del 2021 con quelli del 2016

Per i Paesi che dispongono di dati comparabili tra il 2016 e il 2021 sono considerati i dati di tendenza, cioè la presenza di cambiamenti o meno, tra le due rilevazioni. Dei 32 Paesi considerati, 21 – cioè i due terzi – hanno avuto risultati più bassi nel 2021 – e l’Italia fa parte di questo gruppo – in 8 Paesi non si sono registrate differenze significative, mentre i risultati sono migliorati solo in 3 Paesi. Singapore è l’unico Paese che è migliorato costantemente in ogni ciclo di PIRLS, dal 2001 al 2021.

Fonte: https://www.invalsi.it/invalsi/ri/pirls2021/documenti/RappNaz/PIRLS2021_Presentazione_M_Emiletti.pdf

Nel considerare i dati di tendenza dell’Italia, va ricordato che il nostro è uno dei 26 Paesi – tra i 57 partecipanti all’indagine – che nel 2021 è passato dalla rilevazione cartacea a quella digitale, mentre gli altri 31 Paesi hanno riproposto i fascicoli cartacei.

Nel 2016 il punteggio dell’Italia nella prova cartacea era stato di 548, mentre nella prova digitale ePIRLS era stato più basso (532) [8].

  • Nel 2021 nella prova digitale – che comprende sia la prova di comprensione della lettura tradizionale trasposta dal formato cartaceo a quello digitale, sia la prova ePIRLS – il punteggio dell’Italia è risultato più basso di 11 punti rispetto alla prova cartacea del 2016 e più alto di 5 punti se si prende come punto di confronto il punteggio del 2016 in ePilrs.

Sull’abbassamento dei dati, per altro più contenuto rispetto a quello di molti altri Paesi, giocano una pluralità di fattori, tra i quali come si è detto lo sconvolgimento provocato dalla pandemia e presumibilmente – nel caso dell’Italia – la stessa componente ePIRLS – nella quale gli studenti erano risultati meno competenti nel 2016 –inclusa nel punteggio complessivo del 2021 accanto alla componente delle prove di lettura classiche trasposte in formato digitale.

I cambiamenti nel risultato medio si riflettono nella percentuale di studenti che si collocano ai 4 livelli della scala di competenza di lettura di PIRLS (avanzato, alto, intermedio e basso).

  • La quota di studenti al livello avanzato è diminuita di 3 punti percentuali tra il 2016 (11%) e il 2021 (8%), in modo analogo a quanto rilevato in Bulgaria, Finlandia, Germania e Norvegia,
  • ma la quota di studenti che al di sotto del livello più basso è aumentata solo di 1 punto percentuale tra il 2016 (2%) e il 2021 (3%), un aumento più contenuto rispetto a quello di diversi altri Paesi europei.
  • Il gap tra le aree geografiche che hanno il risultato migliore e peggiore (Nord Ovest e Sud Isole), non è cambiato tra il 2016 (37 punti) e il 2021 (36 punti), mentre è leggermente aumentato rispetto al 2011 (33 punti).

Le differenze tra aree geografiche nei risultati scolastici sono in gran parte “spiegate”, in termini statistici, dalle disparità nel background socio-economico e culturale a livello dei singoli studenti, delle scuole e del territorio. Dalle analisi effettuate sui dati di un’altra indagine internazionale, PISA, infatti, è risultato che quasi metà della differenza tra il Nord e il Sud è spiegata dal background socio-economico e culturale di studenti e scuole [9] e che tre quarti delle differenze tra il Nord e il Sud scompaiono quando – oltre al background degli studenti e delle scuole – si tiene conto anche dei contesti scolastici (condizioni delle infrastrutture) e territoriali (livello di istruzione della popolazione e caratteristiche del mercato del lavoro) [10].

Queste analisi, se aiutano a capire le disparità dei risultati, non risolvono però il problema dello svantaggio in cui si trova una parte dei giovani del nostro Paese, ed evidenziano anzi la necessità di continuare a cercare soluzioni mirate che contrastino le disparità territoriali.

Fattori in relazione con i risultati

Come sempre il fattore che maggiormente gioca sui risultati è lo status socio-economico e culturale (SES) della famiglia di provenienza [11]. Nel caso dell’Italia l’impatto del background è più contenuto che a livello internazionale.

  • A livello internazionale gli studenti con SES alto hanno un punteggio (543 punti) che è 86 punti più alto di quelli con un SES basso (457 punti).
  • Hong Kong, dove la differenza tra gli studenti con un background elevato e basso è di soli 47 punti, è il Paese che riesce meglio a coniugare risultati elevati con un basso impatto del background
  • In Italia la differenza legata al background è di 64 punti, più contenuta non solo della media internazionale ma anche di quella di Paesi che ottengono risultati medi analoghi a quelli dei nostri studenti

Un altro dato che ricorre sistematicamente nelle indagini sulla lettura è l’impatto della frequenza con cui i genitori leggono ad alta voce ai loro figli in età prescolare. che i bambini coinvolti spesso dai genitori in attività di lettura, cioè i bambini a cui i genitori leggono spesso ad alta voce racconti e libri,  hanno risultati più alti dei bambini a cui questo non succede.

  • I bambini a cui i genitori leggono spesso libri ad alta voce in età prescolare hanno in media un punteggio più alto di 23 punti, rispetto ai bambini a cui i genitori leggono solo qualche volta ad alta voce.
  • In Italia la differenza tra i due gruppi è più contenuta, 16 punti, ma significativa.

Alcune osservazioni conclusive

I dati di PIRLS mostrano alcuni punti di forza e di debolezza della scuola primaria italiana. Cominciando dai primi, il  punteggio medio è buono nel confronto internazionale, dal momento che l’Italia si colloca non solo ben al di sopra del punto di centraggio della scala internazionale PIRLS (500), ma anche significativamente sopra alla media dei Paesi dell’Unione Europea e questo nonostante gli studenti italiani coinvolti in PIRLS siano più giovani, in media, dei loro omologhi negli altri Paesi europei a un’età in cui scarti anche ridotti di età possono avere un impatto sensibile sui risultati.

Inoltre in Italia le differenze tra gli studenti agli estremi della scala sono relativamente contenute e i risultati nella parte bassa della distribuzione sono comparativamente buoni. Inoltre solo il 3% degli studenti in Italia non raggiunge il livello più basso della scala e l’83% degli studenti raggiunge il livello intermedio – una percentuale più alta di quella media dei Paesi UE partecipanti all’indagine. Questi dati sembrano confermare la fibra inclusiva della scuola italiana e l’attenzione che viene data agli studenti più deboli.

I risultati delle scale parziali sono omogenei. Come già nel 2016 anche nel 2021 non vi sono differenze significative nei risultati delle scale parziali relative agli scopi di lettura “lettura per scopo letterario” e “lettura per scopo informativo”, come anche delle scale relative ai processi “Individuare informazioni e fare inferenze dirette” e “Interpretare, integrare e valutare”. Questo sembra indicare che testi narrativi e testi espositivi così come i diversi processi, in parte comuni in parte specifici di ciascuna tipologia, ricevono un’attenzione analoga. Tra i fattori che contribuiscono a questo risultato vi sono presumibilmente le prove Invalsi e le Indicazioni Nazionali del 2012, che – entrambi – sollecitano a lavorare su diversi tipi di testo e su un’ampia gamma di processi di lettura, anche impegnativi dal punto di vista cognitivo, fin dai primi anni di scuola.

Come nella maggioranza dei Paesi partecipanti i risultati sono diminuiti dal 2016 al 2021 – meno però per l’Italia (11 punti) che per molti altri Paesi. Questa diminuzione corrisponde a un aumento di solo un punto percentuale degli studenti che non arrivano al livello più basso della scala – di nuovo testimoniando la capacità della scuola primaria di prendersi cura degli studenti più deboli – mentre la percentuale di studenti eccellenti, che si collocano al livello avanzato, è diminuita di 3 punti percentuali.

Proprio questo ultimo dato ci porta a evidenziare un punto debole della nostra scuola, che è quello di sostenere e promuovere l’eccellenza. Gli studenti nella parte alta della distribuzione hanno risultati comparativamente bassi nel quadro internazionale. E la percentuale di studenti che risponde correttamente ai quesiti più difficili di PIRLS 2016 è meno della metà rispetto a quella riscontrata nei Paesi migliori ed è più bassa di quella di diversi Paesi con punteggio medio simile all’Italia. Questi dati, confermati per i quindicenni dai dati di PISA, convergono nell’evidenziare che, senza rinunciare a sostenere gli studenti più fragili, occorrono ambizioni più elevate e strategie appropriate per gli studenti migliori.

Proprio il confronto tra i dati di PIRLS e quelli di PISA mostra inoltre che il “vantaggio” in lettura degli studenti italiani a 9-10 anni si perde nei 5-6 anni successivi. Se si considerano i Paesi che partecipano a entrambi le indagini, si osserva che a 9 anni gli studenti italiani hanno risultati superiori alla media internazionale, mentre a 15 anni i loro risultati sono inferiori ad essa. Tra i fattori che contribuiscono a spiegare questo andamento vi è il livello di istruzione della popolazione adulta, che – anche per la tranche di età dei genitori dei 15enni – è comparativamente più basso in Italia rispetto a quello di molti degli altri Paesi cosiddetti sviluppati. Questo incide sulla capacità dei genitori di seguire e aiutare i figli man mano che progrediscono nel sistema scolastico e affrontano studi di maggiore difficoltà. Accanto a questo dato, vi sono le considerazioni avanzate da più parti circa l’inadeguatezza della scuola secondaria di I grado, che – tra il resto – sarebbe già proiettata verso la scuola secondaria superiore, senza tenere conto della specificità dell’età dei ragazzi che la frequentano.

***

NOTE

[1] La IEA (International Association for ther Evalutation of Educational Achievement) è un’associazione internazionale – indipendente e senza scopo di lucro – di istituti di ricerca nazionali, agenzie di ricerca governative, studiosi e ricercatori che lavorano per valutare, comprendere e migliorare l’istruzione in tutto il mondo.
[2] L’Italia ha partecipato a PIRLS fin dalla prima edizione, del 2001, che misurava i progressi nella reading literacy rispetto al Reading Literacy Study, del 1991. L’Italia aveva partecipato anche a quell’indagine, la cui sigla era stata tradotta in italiano con IEA – SAL (Studio Alfabetizzazione Lettura). L’Indagine era stata condotta dall’allora CEDE e dall’Università di Roma La Sapienza, con la direzione scientifica di Maria Corda Costa, Tullio De Mauro e Aldo Visalberghi, e la ccordinazione nazionale di Piero Lucisano.
[3] Invalsi, PIRLS 2021: La comprensione della lettura in quarta primaria – Rapporto Nazionale 2023, p.9, https://www.invalsi.it/invalsi/ri/pirls2021/documenti/RappNaz/PIRLS2021_RapportoNazionale.pdf (ultima consultazione 19-6-2023).
[4] Mullis I. V. S., Martin M. O. (eds.), Pirls 2021 Assessment Frameworks, TIMSS & PIRLS International Study Center, Lynch School of Education, Boston College and International Association for the Evaluation of Educational Achievement (IEA), 2019.
[5] Chi è passato alla versione digitale della prova ha somministrato a un campione “ponte” di scuole/studenti anche i testi trend cartacei utilizzati in PIRLS 2016 per rilevare l’impatto del passaggio al digitale
[6] Per una spiegazione esauriente si veda il rapporto nazionale invalsi di PIRLS 2021, op. cit. pp. 15-17.
[7] Alcuni Paesi invece l’hanno svolta all’inizio dell’anno scolastico successivo (all’inizio quindi del quinto anno delle primaria) e altri un anno dopo, cioè hanno somministrato le prove agli studenti di quarta primaria, ma alla fine del 2022.
[8] Le prove ePIRLS sono costruite su ipertesti che simulano siti web, sui quali gli studente deve svolgere compiti di tipo scolastico su argomenti sociali o scientifici.
[9] Martini A. e Ricci R. (2007), “I risultati PISA 2003 degli studenti italiani in matematica: un’analisi multilivello per tipologia di scuola secondaria”, Induzioni. Demografia, probabilità, statistica a scuola, n. 1, 2007, pp. 73-93.
[10] Bratti M., Checchi D., Filippin A., Territorial Differences in Italian Students’ Mathematical Competencies: Evidence from PISA 2003, Discussion Paper No. 2603 February 2007 IZA, disponibile su https://docs.iza.org/dp2603.pdf [data ultimo accesso: 19-6-2023].
Bratti M., Checchi D., Filippin A., Da dove vengono le competenze degli studenti ? I divari territoriali nell’indagine OCSE PISA 2003, Bologna, Il Mulino, 2008;
L’indice di status socio-economico e culturale (SES) è costruito a partire dai dati circa il livello di istruzione e l’occupazione dei genitori, il numero di libri presenti a casa e il possesso di una serie di beni in relazione con lo studio (quali una stanza tutta per sé, una connessione a internet, ecc).
[11] L’indice di status socio-economico e culturale (SES) è costruito a partire dai dati circa il livello di istruzione e l’occupazione dei genitori, il numero di libri presenti a casa e il possesso di una serie di beni in relazione con lo studio (quali una stanza tutta per sé, una connessione a internet, ecc) .

Precedente Successiva

You cannot copy content of this page