Gigerenzer, Quando i numeri ingannano

by Francesca on 24/03/2010

Gerd Gigerenzer

Quando i numeri ingannano (Calculated Risks, 2002) di Gerd Gigerenzer è un testo istruttivo e divertente – due doti che non è certo facile trovare insieme. Il libro tratta dei problemi relativi alla comprensione dei dati probabilistici: illustra, attraverso una serie di esempi, gli errori più comuni e fornisce delle indicazioni per risolverli.

Il c.d. analfabetismo statistico, ossia la difficoltà di ragione con dati espressi in percentuali, è una malattia diffusa, di cui, all’inizio del libro, ho scoperto di essere affetta anch’io – trovando non poca difficoltà nel risolvere i casi proposti da Gigerenzer, finché erano espressi in percentuali. Ed è una malattia non trascurabile, basti pensare al ruolo che la probabilità riveste in settori centrali della nostra vita, quali la medicina o il diritto.

La vostra fiducia nei medici sarà completamente devastata da questo libro, che fornisce non pochi esempi di come anche questi professionisti non siano in grado di decifrare dati probabilistici relativi alla loro stessa professione – ad esempio, non siano in grado di capire quante probabilità ci siano di avere una data malattia, qualora l’esame clinico per individuarla dia esito positivo. Ma anche avvocati, giornalisti, giudici e periti non ci fanno certo una figura migliore.

numeri

Un esempio illuminante.  In (quasi) tutti gli esami clinici per l’accertamento di una data patologia esiste la possibilità che risultino sia dei falsi positivi (positivi all’esame, ma che non hanno realmente la malattia) sia dei falsi negativi (negativi all’esame, ma che, invece, hanno la malattia). Nella statistica medica la percentuale di soggetti sottoposti ad un esame correttamente classificati come positivi è detta sensibilità, mentre la percentuale di quelli correttamente valutati come negativi è detta specificità. Supponiamo di fare il test per l’HIV, e che questo risulti positivo. Premesso che la sensibilità di questo test è 99,9% e la sua specificità è del 99,99%, quante probabilità abbiamo di essere davvero sieropositivi?

Il senso comune sembrerebbe suggerire che ne abbiamo parecchie, intorno al 99,9 % (che è la sensibilità del test). Supponiamo, però, che il tasso di base dell’HIV (cioè la proporzione delle persone affette da HIV in un dato momento) sia di 1 su 10.000 (ossia che sia affetta da tale patologia 1 persona su 10.000), e, per semplificare l’esposizione, immaginiamo che l’esame sia ancora più accurato di quello che realmente è e che la sensibilità sia del 100%, ossia che non ci siano falsi negativi. In tal caso, ogni 10.000 individui ci sarà un soggetto affetto dall’HIV il cui test risulterà positivo (avendo noi immaginato che l’esame abbia una sensibilità del 100%). Tra gli altri 9.999 individui non sieropositivi ce ne sarà però un altro che risulterà positivo all’esame, a causa della specificità del 99,99%, ossia dalla presenza di un falso positivo ogni 9.999 esami.

Ciò significa che, ogni 10.000 individui, ci saranno due esiti positivi: quello dell’individuo effettivamente malato (dato dal tasso di base di 1 su 10.000) e un falso positivo (dato dalla specificità del 99,99%,). Ne segue che, se il nostro test è positivo, ciò non significa che abbiamo il 99,99% di probabilità di essere malati, ma molte, molte, meno, ossia il 50%, 1 su 2.

Sorprendente, vero? Ed è sconvolgente il fatto che nemmeno la maggior parte dei dottori lo sappia!

quando i numeri ingannano

La cura per l’analfabestismo statistico proposta da Gigerenzer è tanto facile, quanto efficace – come ci si rende conto quando, andando avanti con la lettura, si riesce a risolvere con semplicità ogni nuovo caso proposto. Consiste semplicemente nel tradurre i dati percentuali in frequenze naturali – proprio come abbiamo fatto con l’esempio del test del HIV: non pensare in termini del 99,99%, bensì di 9.999 su 10.000 e così via.

Un libro davvero imprescindibile: capire la probabilità è essenziale per prendere scelte importanti e per evitare di essere manipolati da quanti sfruttano a loro vantaggio l’ignoranza diffusa – perché, come ben si comprende dai numerosi esempi di Gigerenzer, spesso i numeri spesso inganno “volontariamente”.

{ 1 trackback }

Convenzioni, neuroscienze e metriche aziendali | Massimo Milleri
24/05/2012 at 10:17 am

{ 2 comments… read them below or add one }

Maurizio Curti 13/06/2010 at 7:14 pm

“Sorprendente, vero? Ed è sconvolgente il fatto che nemmeno la maggior parte dei dottori lo sappia!”

Ancora più sconvolgente è che in realtà lo sanno!

Mi spiego. Quando ho letto la domanda sui sieropositivi ho provato a dare la risposta che era appunto “mi sembra99,99%”, dove il “mi sembra” era dovuto al fatto che il contesto avvertiva che la risposta ovvia era in realtà sbagliata.
Poi ho letto la soluzione.
Poi ho portato a spasso i cani e mi è venuto in mente che questo esempio è un classico esercizio sul teorema di Bayes, che è espresso da una formuletta facile da derivare ed applicare, tanto che sono riuscito a riottenerla a mente mentre tiravo un fresbee ai miei rumorosi amici, nonostante non abbia avuto modo di usarla da diversi anni.
Ora, non esiste corso introduttivo di statistica, compresa statistica per medici, che non presenti il teorema di Bayes con dovizia di esempi, casi particolari, avvertimenti sugli errori che si commettono trascurandolo e sul fatto che si ritrova in pressochè tutte le analisi statistiche.
Tutte cose che conosco benissimo, al punto da riottenere il risultato presentato nel post a mente, usando la formula del teorema, mentre tornavo a casa.

Tutto questo però, dopo che avevo fornito la risposta sbagliata, e letto la soluzione spiegata nel post.

In definitiva è sufficiente sapere che la sensibilità così come la specificità deve essere almeno un ordine di grandezza superiore all’incidenza del fenomeno che si misura. Ad esempio, una sensibilità di 1 falso positivi su 10000 è adeguata per un incidenza di 10 infezioni di HIV su 10000. In questo caso la probabilità di essere realmente infetti quando si risulta positivi è del 90%.

Però, nonostante tutta questa sapienza, ho sbagliato la risposta.
E mi chiedo perchè …

diana 04/12/2011 at 9:17 pm

anche a ingegneria (famigerato corso MPSPS, ossia MetodiProbabilisticiStatisticieProcessiStocastici, ora non so come si chiami..) ci avevano spiegato molto bene questo tema, e mostrato con esempi pratici come sia di fatto inutile lo screening di massa per esami a bassa specificità/sensibilità.

Leave a Comment

Previous post:

Next post: