Il Consiglio Scientifico dell’Unione Matematica Italiana ha approvato un documento di riflessioni sui risultati degli studenti italiani nella parte matematica dei test OCSE-PISA. L’UMI ritiene infatti opportuno utilizzare questa occasione per una riflessione su quanto è emerso nella passata edizione che vada al di là di un’impressione, o di un titolo, più o meno allarmistici, con l’obiettivo di individuare indicazioni significative per l’importante dibattito sulla formazione matematica dei nostri studenti.
Puntualmente ogni tre anni, in occasione della diffusione dei risultati della rilevazione internazionale OCSE-PISA (volta a testare le competenze degli studenti quindicenni in tre ambiti: Lettura, Matematica e Scienze), la matematica e il suo insegnamento guadagnano le prime pagine degli organi d’informazione con titoli d’effetto come … “Ocse, è un analfabeta matematico un ragazzo italiano su quattro”, “Troppi 15enni italiani asini in matematica” ecc. È successo recentemente anche con i risultati di PISA 2012, che ha avuto come ambito principale di rilevazione proprio la Matematica. Il dibattito che ne è seguito come sempre si è concentrato sulla comunicazione di alcuni risultati negativi particolarmente eclatanti e sulle possibili strategie per migliorarli.
L’UMI (Unione Matematica Italiana) ritiene opportuno utilizzare questa occasione per una riflessione su quanto è emerso nella passata edizione che vada al di là di un’impressione, o di un titolo, più o meno allarmistici, con l’obiettivo di individuare indicazioni significative per l’importante dibattito sulla formazione matematica dei nostri studenti.
Riteniamo che un contributo costruttivo a tale dibattito possa partire dal fare un po’ d’ordine nei temi che entrano in gioco, che sono tanti e vari, e spesso rimangono impliciti anche nelle discussioni più accese. Proviamo a individuarne qualcuno:
– C’è un dato per così dire ‘oggettivo’ che riguarda le risposte date dagli studenti italiani, ed il confronto di tali risultati con quelli di altri paesi.
In realtà qualsiasi rilevazione ha come oggetto solo alcuni aspetti dell’apprendimento della matematica. A leggere i documenti su cui si basano i test PISA, distillati ormai da circa vent’anni di esperienza e da successivi raffinamenti, appare evidente che l’idea di competenza matematica di cui l’OCSE si fa portatrice è alquanto sbilanciata sulla capacità di utilizzare la matematica nelle situazioni di realtà, o più precisamente in testi che simulano situazioni reali, piuttosto che su quella di astrazione e controllo di architetture logico-formali. Si può essere più o meno d’accordo su questa visione dell’obiettivo prioritario dell’insegnamento della matematica: sta di fatto che è la principale capacità ad essere rilevata da questi test, e dunque su questa si basano soprattutto le varie classifiche. Ne segue che un paese, come l’Italia, che, piaccia o no, nella sua tradizione culturale ha da sempre privilegiato la seconda visione, risulta penalizzato.
– Collegato a quanto detto sopra è il passo successivo, che spesso rimane implicito tanto viene considerato ovvio, cioè il valore che si attribuisce ai risultati dei nostri studenti.
Senza nulla togliere all’importanza di tale tipo di quesiti e soprattutto del saper utilizzare conoscenze matematiche per risolvere problemi reali, ci si può chiedere se l’obiettivo dell’educazione matematica si debba ridurre solo a questo, o se invece abbia senso puntare (e dunque opportunamente considerare nella valutazione) anche sul valore formativo e culturale, che consiste nello sviluppare nell’allievo un pensiero rigoroso e produttivo, spendibile in una incredibile varietà di situazioni, concrete o astratte. Naturalmente una posizione come questa apre nuove domande, piuttosto che dare risposte, ad esempio si pone la seguente questione: possiamo ancora sostenere, e su quali basi, che l’Italia in questo senso vanta una tradizione maggiore di altri paesi?
– Il miglioramento dei risultati a volte viene visto come un valore a sé, ma un intervento finalizzato semplicemente o soltanto a tale miglioramento ci vede molto scettici, in questo come in altri casi, perché ignora i possibili motivi di una mancata risposta o di un errore, concentrando l’attenzione sull’effetto piuttosto che sulle cause.
È invece solo a partire da un’accurata e approfondita riflessione sulle possibili cause, e quindi da un’interpretazione dei risultati, che ha senso valutare l’importanza degli stessi – in positivo o in negativo – e individuare strategie mirate di intervento.
– L’interpretazione dei risultati apre scenari estremamente variegati, che dipendono in modo significativo dalla visione che si ha della matematica e del suo insegnamento che si ha. Alcune di queste possibili interpretazioni possono essere fra loro compatibili, ma ognuna di esse suggerisce l’opportunità di ulteriori approfondimenti, e indica piste diverse d’intervento. Ecco alcune possibili interpretazioni:
-
Le prove PISA sono caratterizzate, come si è detto, da quesiti che intendono porre lo studente di fronte a problemi reali da risolvere. Gli studenti italiani non sono in genere educati ad affrontare problemi di questo tipo, e non solo gli studenti: da molte parti viene la raccomandazione a muoversi in un’ottica di maggiore collegamento con la realtà, ma spesso con esiti maldestri o addirittura comici, quando ci si limita a camuffare da situazioni concrete problemi matematici astratti.
-
Più in generale il fatto che le prove PISA rappresentino situazioni non note agli studenti suggerisce l’interpretazione che gli studenti italiani non siano abituati ad affrontare situazioni nuove: in particolare una pratica didattica appiattita sull’esecuzione di esercizi dello stesso tipo, in cui viene richiesta l’applicazione di formule precedentemente memorizzate, può avere come conseguenza la difficoltà o addirittura il rifiuto a priori di risolvere quesiti percepiti come diversi.
-
I quesiti PISA mettono lo studente di fronte a problemi ‘realistici’, e il passaggio dal ‘reale’ al ‘realistico’ presenta di per sé elementi di complessità che non si possono ignorare nell’interpretazione dei risultati, e che sono legati alla necessità di un testo o di rappresentazioni attraverso i quali comunicare all’allievo la situazione da risolvere. Questo pone in particolare il problema della comprensione del testo e addirittura della sua lettura. Studenti che abbiano sviluppato un atteggiamento nei confronti della lettura di un testo di matematica basato sull’individuazione dei dati numerici e di alcune parole o espressioni chiave si troveranno in notevole difficoltà di fronte ad un testo articolato, in cui le informazioni rilevanti dal punto di vista matematico pervadono il testo stesso.
-
Le prove PISA richiedono agli studenti un impegno i cui risultati non vengono valutati dall’insegnante: una pratica didattica che, al contrario, sia troppo centrata sulla valutazione, o comunque lo scarso valore attribuito alle prove possono spingere quindi l’allievo a prendere poco sul serio tale impegno.
In definitiva ci sembra che i risultati delle prove siano utili soprattutto a evidenziare possibili criticità e quindi a indicare direzioni in cui operare. Per contro, non è secondo noi per niente scontato che risultati positivi alle prove siano indice di un’educazione matematica di qualità. Riteniamo inoltre che per avere informazioni interessanti non ci debba limitare alla semplice analisi degli esiti delle prove, ma vadano presi in considerazione anche i questionari per la rilevazione delle variabili di contesto relative alla provenienza socio-economica, alle caratteristiche dell’indirizzo di studi seguito e alla motivazione nei confronti dello studio della matematica. Tali questionari prevedono anche alcune domande per rilevare le opinioni e gli atteggiamenti nei confronti della matematica e delle relative attività di studio.
Ci sembra meritevole di attenzione che alla luce di tutti i dati raccolti il rapporto OCSE concluda: “In Italy, the likelihood of low performance in mathematics is higher for students who are socio- economically disadvantaged, girls, speak a different language at home from the language of assessment, had no pre-primary education (or only a year or less of it), had repeated a grade and are enrolled in a vocational programme”.
A prescindere dalle possibili interpretazioni dei risultati si tratta di una conclusione importante, che meriterebbe interventi e investimenti altrettanto importanti, e un’attenzione continua da parte degli organi di informazione e dei decisori politici. In definitiva, riteniamo che una discussione serena ed efficace sui risultati degli studenti italiani nelle prove PISA debba tener conto dei seguenti aspetti:
– Qualsiasi test, per sua stessa natura, è in grado di accertare alcune competenze, ma non tutte: nel caso delle prove OCSE-PISA s’indaga più sulla capacità di risolvere problemi realistici o presunti tali che non su competenze logico-formali-argomentative.
– Di conseguenza, buoni risultati nei test non sono necessariamente indicatori delle molteplici capacità necessarie per essere o diventare un buon matematico, così come cattivi risultati non sono necessariamente indicatori di analfabetismo matematico o di mancanza totale delle suddette capacità.
In merito a questi due punti è nostra opinione che sia importante fornire agli allievi una molteplicità di strumenti sia di natura logico-formale sia di capacità applicative. Per raggiungere questo obiettivo è necessario però fare delle scelte oculate, evitando di sommergere gli studenti di nozioni e di opprimerli con compiti ripetitivi.
– In generale riteniamo che in un test diano più informazioni i risultati negativi che quelli positivi, se si accompagna l’osservazione della risposta mancata o scorretta con un’analisi attenta delle possibili cause. Tale analisi suggerisce che un fallimento può essere determinato da molti fattori, che non si escludono a vicenda e che possono anche essere trasversali rispetto alla matematica, quali ad esempio le competenze linguistiche.
– Appare quindi fondamentale che i risultati dei test non siano letti e diffusi in modo sbrigativo e superficiale, ma analizzati e interpretati in modo serio e scientifico affinché possano contribuire all’individuazione di difficoltà significative e dunque a suggerire eventuali interventi su tali difficoltà.
– Ci sembra importante sottolineare che il mero obiettivo di migliorare i risultati degli studenti nei test in questo come in altri casi non è significativo in sé, e anzi può produrre pratiche didattiche poco coerenti con gli obiettivi di un’educazione matematica di qualità.
– Per meglio accertare e per superare eventuali criticità evidenziate c’è bisogno di investire risorse, anche di tipo economico, mirate: il problema della qualità dell’insegnamento della matematica merita un’attenzione costante, in particolare per riuscire ad offrire le stesse opportunità a tutti gli studenti e a ridurre i fenomeni di dispersione che penalizzano i singoli e la nostra società.
Quest’ultima analisi è interessante e realistica. Mette in gioco, tra l’altro, questioni sempre abbastanza trascurate e a volte ignorate nei contesti scolastici. Invece la sfasatura tra i due risultati così diversi potrebbe avvalorare l’ipotesi che è bene approfondire le tematiche degli atteggiamenti e delle emozioni in matematiche: sia degli studenti che dei docenti.
scrivete:
Le prove PISA sono caratterizzate, come si è detto, da quesiti che intendono porre lo studente di fronte a problemi reali da risolvere. Gli studenti italiani non sono in genere educati ad affrontare problemi di questo tipo, e non solo gli studenti: da molte parti viene la raccomandazione a muoversi in un’ottica di maggiore collegamento con la realtà, ma spesso con esiti maldestri o addirittura comici, quando ci si limita a camuffare da situazioni concrete problemi matematici astratti.
ma allora come si spiega che nel Problem solving di PISA 2012 gli stessi nostri studenti sono andati molto bene?
Nell’ultima rilevazione di cui si sanno i risultati (2012), gli studenti italiani hanno effettivamente ottenuto un punteggio alto nella competenza problem solving: 510 (la media OCSE è 500).
La cosa ha destato molta meraviglia, non solo per il pregresso, ma anche perché nella stessa rilevazione la valutazione nella competenza “matematica” è stata bassa.
Il punto è che la competenza problem solving nelle prove OCSE-PISA, che noi quasi automaticamente associamo alla matematica, è pensata come valutazione di abilità di risoluzione di problemi anche “non matematici”, o meglio di problemi di vita quotidiana per cui la formazione, nel suo complesso, dovrebbe aiutare il ragazzo a rispondere. Ad esempio saper usare un lettore MP3 dopo averne lette le istruzioni di uso (vedi esempi prove pubbliche).
E proprio con questa idea del problem solving come competenza completamente trasversale che si giustifica nel framework un ambito separato dagli altri (“The chapter concludes by presenting the test interface and sample items from the PISA computer-based assessment of problem solving”).
Ora si può discutere di questa idea del problem solving come competenza trasversale, per la quale tutte le discipline devono contribuire a formare la competenza (io sono pienamente d’accordo), ma qui il punto è un altro. Il documento dell’UMI discuteva il connubio matematica/problem solving in contesto tipico delle prove OCSE-PISA ambito matematico.
Comparando i due risultati viene fuori che i nostri studenti sono in difficoltà nelle prove in contesto che siano “chiaramente” collegate alla matematica (per risolverle sia evidente che serva qualche conoscenza matematica), mentre sono bravi in quelle in cui questo legame immediato non c’è.
Tanti degli studi in didattica della matematica, ed in particolare quelli sulle difficoltà in matematica partono proprio dalla constatazione che l’insegnamento della matematica sembra bollare come irrazionali bambini/ragazzi che in altri contesti sembrano tutto fuorché irrazionali.
Insomma il documento UMI secondo me descrive una situazione problematica, la comparazione con i risultati nell’ambito problem solving aggiunge altri spunti di riflessione. Alcuni, come scritto sopra, noti nella ricerca in didattica della matematica: ad esempio l’influenza dell’atteggiamento diffuso (tra ragazzi, ma anche tra adulti) di paura nei confronti della matematica: una ipotesi è che i ragazzi non riconoscano come “matematica” le domande inserite nell’ambito problem solving, e questo – è la mia personalissima opinione – fa sì che molti degli studenti in difficoltà in matematica si mettano più in gioco.
(Commento postato anche su ROARS)
Chiaramente esiste un “bias” di fondo in questi test, che sono stati prodotti da una multinazionale come la Pearson https://www.pearson.com/news/announcements/2014/december/pearson-to-develop-pisa-2018-student-assessment-21st-century-fra.html
il cui metro di giudizio è basato su una maggiore o minore aderenza ai prodotti educativi che questa società commercializza. Esiste un quasi monopolio di questa società, nei paesi anglosassoni, nel medio oriente e in America Latina, l’espansione in Italia è stata limitata dalla barriera linguistica e da una radicata tradizione diversa. Un articolo del Guardian ha sollevato seri problemi sul ruolo della multinazionale sui sistemi educativi
http://www.theguardian.com/education/2012/jul/16/pearson-multinational-influence-education-poliy
Un metro chiaro di giudizio è il livello penoso degli undergraduate students inglesi in matematica rispetto ai loro coetanei italiani, tanto che le migliori graduate schools inglesi preferiscono poi arruolare massicciamente studenti che sono stati formati in sistemi educativi non anglosassoni.
Un ultimo commento riguarda l’insegnamento della matematica nella scuola italiana, dove si fa troppo uso di persone non laureate in matematica o in fisica, quindi con una scarsa preparazione disciplinare. Altro errore grave è non separare nelle scuole medie inferiori l’insegnamento delle scienze naturali da quello della matematica, in un momento cruciale per la formazione.