Appunti per Scuola e Università
humanisticheUmanistiche
Appunti e tesine di tutte le materie per gli studenti delle scuole medie riguardanti le materie umanistiche: dall'italiano alla storia riguardanti le materie umanistiche: dall'italiano alla storia 
sceintificheScientifiche
Appunti, analisi, compresione per le scuole medie suddivisi per materie scientifiche, per ognuna troverai appunti, dispense, esercitazioni, tesi e riassunti in download.
tecnicheTecniche
Gli appunti, le tesine e riassunti di tecnica amministrativa, ingegneria tecnico, costruzione. Tutti gli appunti di AppuntiMania.com gratis!
Appunti
scientifiche
Astronomia cosmologiaChimicaEconomiaEducazione fisicaFisica
MatematicaStatistica


AppuntiMania.com » Scientifiche » Appunti di Matematica » La nascita della teoria delle probabilità

La nascita della teoria delle probabilità




Visite: 1998Gradito:apreciate 4-stela [ Grande appunti ]
Leggi anche appunti:

Metodi numerici per i sistemi dinamici


Metodi numerici per i sistemi dinamici Come si è visto un PLL

Validazione Algoritmo


Validazione Algoritmo 1 Implementazione software Tra i vari problemi affrontati

Le equazioni di Maxwell in forma differenziale (III)


Le equazioni di Maxwell in forma differenziale (III) Il nostro punto di partenza
immagine di categoria

Scarica gratis La nascita della teoria delle probabilità

La nascita della teoria delle probabilità






Lunedì 24 agosto 1654 un celebre matematico francese scrisse una lettera che contava meno di tremila parole, ma che avrebbe cambiato per sempre la vita dell'umanità: per la prima volta veniva infatti esposto un metodo che permetteva all'uomo di "predire" il futuro. Prima di allora, il domani era considerato qualcosa di completamente imprevedibile, al di fuori di ogni possibilità di controllo. Oggi invece siamo in grado di calcolare le probabilità del verificarsi di svariati eventi, pianificando di conseguenza le nostre attività e le nostre stesse vite; siamo in grado di gestire il rischio e consideriamo ciò una cosa scontata. Lo stesso autore della lettera incontrò però un'enorme difficoltà nell'afferrare anche solo l'idea stessa della probabilità degli eventi futuri, oltre ovviamente a come predirla. Ciò a dimostrazione di quale sforzo intellettuale richiese quella conquista che è la teoria delle probabilità, un grosso passo avanti non solo nella matematica, ma anche nel pensiero umano.

I PRIMI PASSI

Ciò che mosse la ricerca che sfociò nella teoria delle probabilità fu la volontà di trovare dei modi per migliorare le possibilità di vincere al tavolo da gioco, in particolare in quei giochi d'azzardo che richiedevano l'uso dei dadi e che erano molto diffusi già nell'antichità: basti pensare alla mitologia greca, nella quale gli dei decidevano i destini dell'uomo attraverso il lancio di astragali (dadi fatti con le ossa delle caviglie degli animali). Il primo tentativo a noi noto di identificare le regolarità numeriche nei giochi di fortuna risale al 960 d.C.: il vescovo Wibold di Cambray enumerò i 56 diversi risultati che si possono ottenere lanciando simultaneamente 3 dadi: 1,1,1; 1,1,2; 2,3,4; 3,5,6, eccetera. Successivamente, nel poema latino De vetula del XIII secolo, troviamo l'elenco dei 216 () risultati ottenibili lanciando 3 dadi uno dopo l'altro. Arriviamo poi al 1494, quando nel libro Summa de aritmetica, geometria, proportioni et proportionalita, Luca Pacioli formulò il "problema dei punti", noto anche come "problema del gioco incompiuto". Egli si chiese come i giocatori avrebbero dovuto spartirsi la posta qualora fosse stato necessario abbandonare prima del termine una partita suddivisa in più mani, ragionando su un incontro nel quale il gioco dovrebbe essere portato avanti fino a che un giocatore abbia vinto 6 mani. La sua soluzione fu quella di dividere la posta in base alla situazione raggiunta; se per esempio la partita fosse stata interrotta sul punteggio di 5 a 2, la posta avrebbe dovuto essere divisa secondo un rapporto di 5 a 2. Tale ragionamento è sbagliato. Lo dimostrò chi dopo di lui tentò di risolvere questo problema, ossia Girolamo Cardano. Nato a Pavia il 24 settembre 1501, era figlio di un avvocato e professore universitario di geometria, col quale si consultava Leonardo da Vinci. Girolamo si laureò in medicina a Padova, facendosi notare per la brillantezza negli studi ma anche per la sua estrema schiettezza e mancanza di diplomazia. Quando era ancora giovane il padre morì, lasciandogli una piccola eredità; egli non ci mise molto a sperperarla tutta, e nel tentativo di mantenere il tenore di vita a cui era abituato si rivolse ai tavoli da gioco. Per tutta la vita fu un giocatore compulsivo che per vincere aveva bisogno di ogni aiuto che potesse trovare e che era pronto a ricorrere a qualsiasi mezzo: durante una partita sfregiò con un coltello il volto di un avversario perché sospettava avesse imbrogliato a carte; i quesiti relativi ai tavoli da gioco, perciò, lo interessavano particolarmente. Riguardo il problema dei punti, egli notò, correttamente, che la ripartizione della posta non dipendeva dalle mani già vinte ma da quelle che ciascun giocatore doveva ancora vincere per aggiudicarsi la partita. Nonostante questa osservazione neanche Cardano riuscì a risolvere il problema; diede comunque un contributo importante per l'avvio della teoria delle probabilità, anche grazie ad un suo manoscritto, steso nel 1564 ma pubblicato quasi un secolo dopo (1653): il Liber de ludo aleae, ossia il Libro sul gioco dei dadi. Si tratta del primo studio scientifico del lancio dei dadi, fondato sulla premessa che esistono dei principi fondamentali che governano la probabilità (indicata però da lui con il termine "possibilità") di particolari risultati. Nelle sue pagine troviamo la regola per le situazioni in cui è possibile sommare diverse probabilità, oltre all'importantissima regola di moltiplicazione per combinare le differenti probabilità quando un gioco viene ripetuto più volte. Con la prima regola possiamo così, ad esempio, calcolare la probabilità di ottenere un 1 oppure un numero pari lanciando un solo dado.

Con la seconda invece possiamo calcolare l'analoga probabilità nel caso in cui però il dado venga lanciato per due volte:

Queste regole non furono generalmente accettate da subito, così come non fu accolta la considerazione di Cardano riguardo al problema dei punti: un grande matematico italiano, Niccolò Tartaglia, dichiarò che esso era assolutamente irrisolvibile. Cardano ebbe un'accesa disputa con quest'ultimo riguardo uno dei suoi libri più famosi, l'Ars magna, relativo all'algebra: Tartaglia infatti gli aveva mostrato una formula, alla condizione che la mantenesse segreta; tuttavia, egli la inserì nel suo libro. La personalità eccentrica di Cardano emerse anche negli ultimi anni della sua vita: si dice che egli abbia predetto correttamente la data esatta della                      propria morte il 21 settembre 1576, ottenendo questo successo suicidandosi.

Diede una soluzione ancora diversa al problema del gioco incompiuto nel 1603 un altro matematico italiano, Lorenzo Forestani, nel suo libro Pratica d'arithmetica e geometria. Egli sostenne che i giocatori avrebbero dovuto spartirsi la posta sulla base delle vittorie conseguite fino a quel momento da ognuno in relazione al numero di mani giocate, dividendo il resto in parti uguali, dato che l'ultima parte del gioco non avrebbe favorito nessuno dei due partecipanti. Rivedendola oggi, questa soluzione è un disastro, ma si deve tenere conto del fatto che in quegli anni era ancora diffusa l'idea di futuro come qualcosa di puramente casuale, e lo sarà ancora per molto.

PASCAL E FERMAT

Arriviamo quindi al 1654. In quell'anno, il giocatore d'azzardo Antoine Gombaud, conosciuto anche come Chevalier de Mèrè, rivolse al suo amico Pascal alcune domande sui giochi di fortuna, incluso il problema del gioco incompiuto. Aveva rivolto l'enigma alla persona che finalmente sarebbe riuscita a risolverlo.

Blaise Pascal nacque il 19 giugno 1623 a Clermont, in Francia. Perse presto la madre e fu cresciuto dal padre, funzionario del fisco e matematico dalle idee bizzarre, che decise che suo figlio non avrebbe dovuto studiare matematica prima di aver raggiunto 15 anni. Questa proibizione, però, accrebbe nel giovane la curiosità verso la materia ed egli iniziò a 12 anni a lavorare in segreto sulla geometria, scoprendo da solo che la somma degli angoli interni di un triangolo corrisponde a due angoli retti; quando il padre lo venne a sapere, iniziò a portarlo con sé agli incontri di un'Accademia che raccoglieva matematici e scienziati di Parigi. Per aiutare il padre nel lavoro di riscossione delle tasse, Blaise inventò la Pascalina, un prototipo di calcolatore meccanico, ma, riuscendo a venderne un numero ridotto, ne abbandonò la produzione. Da adulto si occupò non solo di matematica, ma anche di scienze naturali e religione, formulando la famosa scommessa su Dio. In termini matematici è ricordato, oltre che per il suo contributo fondamentale alla nascita della teoria della probabilità, anche per gli studi sul "triangolo" che porta il suo nome; la sua importanza sta nel fatto che i numeri presenti in ogni riga sono i coefficienti binomiali che compaiono nell'espansione dell'espressione . Ad esempio:

=

=

=

E così via.

Intorno ai vent'anni Blaise si ammalò e non si rimise mai in salute, morendo a 39 anni nel 1662 a causa di un cancro al cervello.

Interrogato dal Chevalier de Mèrè, egli iniziò a riflettere sul problema dei punti, trovando una soluzione che riteneva potesse essere giusta. Egli non era però del tutto sicuro della correttezza del suo ragionamento e scrisse quindi le proprie idee, inviandole ad un altro grande matematico francese dell'epoca, per vedere se avrebbe condiviso la sua linea argomentativa: Pierre Fermat.

Pierre Fermat nacque il 17 agosto 1601. Studiò matematica e legge all'università di Tolosa, divenendo giurista e avvocato; la matematica rimase solo una passione che però caratterizzò tutta la sua vita. L'agiatezza economica in cui si trovava non lo spinse a pubblicare libri: egli portò invece avanti il proprio lavoro attraverso un'assidua corrispondenza con i più brillanti matematici dell'Europa di quegli anni, tra i quali anche Pascal. Anche se i quattro mesi della corrispondenza con quest'ultimo avrebbero cambiato il mondo, i due non si conobbero mai di persona, perché le condizioni di salute di Pascal non gli permettevano di affrontare lunghi viaggi. Il metodo di corrispondenza di Fermat era alquanto particolare: egli mandava infatti ad altri lettere nelle quali scriveva gli ultimi risultati che aveva ottenuto, guardandosi bene però dall'inviare con essi anche qualche dimostrazione. Fu così anche per quelli che vengono chiamati "numeri di Fermat", indicati generalmente con , dei quali il matematico parlò in una lettera indirizzata proprio a Pascal:

"se lo trovate opportuno, riflettete su questo teorema. Le potenze quadrate di 2 aumentate di una unità sono sempre numeri primi. Il quadrato di 2, sommato a 1, fa 5, che è un numero primo. [.] e così via, all'infinito. [.] La sua dimostrazione è estremamente difficile e vi assicuro che non sono ancora riuscito a trovarla completamente. Non intendo lasciarvi il compito di trovarla prima di esserne venuto a capo io stesso."

Fermat quindi afferma che tutti i numeri

sono primi. Egli arriva ad elencare i casi fino a , ed effettivamente anche questo, come i casi che lo precedono ( ) dà come risultato un numero primo. Da ciò deduce che tutti i numeri che hanno questa forma sono primi. Di fatto, però, nessun numero di Fermat successivo ad si è rivelato essere un numero primo: grazie all'uso di un calcolatore è stato appurato che tutti i numeri di Fermat da a non sono primi. Fortunatamente egli non ha preso questo abbaglio anche discutendo con Pascal sul problema dei punti.

LA LETTERA DI PASCAL

"Monsieur, nell'ultima lettera non sono riuscito a dirvi tutto quello che penso riguardo alle partite con più giocatori [.] vorrei ora esporvi il mio ragionamento, aspettandomi che mi facciate il favore di correggermi se sono in errore."

Inizia così la lunga lettera che Pascal invia a Fermat, e che contiene la riflessione sulle "partite con più giocatori", ossia sul problema dei punti. Proseguendo, Pascal suppone di avere tre giocatori che utilizzano un dado a tre facce, ognuna delle quali è associata ad un giocatore. Presume che il gioco venga interrotto quando al primo giocatore (a) manca un punto per aggiudicarsi la partita, al secondo (b) due punti e al terzo (c) due; quindi si chiede come vada suddivisa la vincita tra i giocatori. Per trovare una risposta egli sa che è necessario prima di tutto capire in quante mani la partita si sarebbe conclusa, e afferma correttamente che "essa sarà decisa in 3 mani, dato che è impossibile che i partecipanti disputino tre mani senza che esca necessariamente il vincitore." Occorre poi comprendere quali sono le possibilità che possono accadere, perciò Pascal (che non conosceva la teoria del calcolo combinatorio) in maniera rudimentale costruisce la seguente tabella dei casi:

RISULTATO DEI TRE TIRI

VINCITORI

a

a

a




a

a

b




a

a

c




a

b

a




a

b

b




a

b

c




a

c

a




a

c

b




a

c

c




b

a

a




b

a

b




b

a

c




b

b

a




b

b

b




b

b

c




b

c

a




b

c

b




b

c

c




c

a

a




c

a

b




c

a

c




c

b

a




c

b

b




c

b

c




c

c

a




c

c

b




c

c

c





Egli, servendosi del suo intuito, afferma: "è facile vedere quante combinazioni ci sono in tutto. Il numero che cerchiamo è 3 alla terza potenza, ossia 27. Infatti se si lanciassero insieme tre dadi è evidente che questi 3 dadi lanciati insieme possono fermarsi in 27 modi differenti. [.] Dato che al primo manca soltanto un punto, ne segue che tutti gli esiti in cui c'è almeno una a sono a lui favorevoli. Ce ne sono 19. Al secondo mancano due punti, cosicché tutti gli esiti in cui ci sono almeno due b, sono a lui favorevoli. Ce ne sono 7. Al terzo mancano due punti, cosicché gli esiti in cui compaiono almeno due c sono a lui favorevoli. Ce ne sono 7. Da questo si conclude che è necessario spartire la posta dando a ciascuno secondo il rapporto di 19-7-7." In questo ragionamento è evidente, però, che Pascal commette alcuni errori. Innanzitutto egli parla di combinazioni, quando in realtà si tratta di disposizioni di 3 elementi a gruppi da tre con ripetizione:

Sono disposizioni in quanto l'ordine in cui escono i risultati è importante, conta per stabilire chi è il primo a vincere. Il matematico francese è in errore poi quando ipotizza che i dadi vengano lanciati insieme, contemporaneamente. Se così fosse, il caso abb, per esempio, sarebbe favorevole sia al primo giocatore, al quale manca un punto, sia al secondo, al quale mancano due punti; si dovrebbe allora spartire la posta a metà fra i due. L'errore principale che complicava i suoi ragionamenti era proprio quello di confondere le disposizioni con le combinazioni. Infatti nella teoria delle combinazioni con ripetizione l'esito abb sarebbe uguale all'esito aba, analogamente all'esito bba, ma nel gioco dei dadi è importante stabilire l'ordine con cui escono i risultati, perché nella realtà essi vengono lanciati uno alla volta. Ne segue che se analizziamo i tre casi, tenendo conto dell'ordine in cui si trovano, otteniamo un risultato diverso:

a

b

b

Vince il primo giocatore

b

a

b

Vince il primo giocatore

b

b

a

Vince il secondo giocatore


È necessario perciò rifare la tabella nel seguente modo:

RISULTATO PRIMO TIRO

RISULTATO SECONDO TIRO

RISULTATO TERZO TIRO

VINCITORE

a

a

a


a

a

b


a

a

c


a

b

a


a

b

b


a

b

c


a

c

a


a

c

b


a

c

c


b

a

a


b

a

b


b

a

c


b

b

a


b

b

b


b

b

c


b

c

a


b

c

b


b

c

c


c

a

a


c

a

b


c

a

c


c

b

a


c

b

b


c

b

c


c

c

a


c

c

b


c

c

c



Se contiamo i casi in cui realmente vincerebbe il primo giocatore, troviamo che in tutto sono 17. Quindi la probabilità che vinca il primo giocatore è:

Di conseguenza, contando i casi in cui vincerebbe il secondo giocatore (che sono 5) si ha che:

contendo anche i casi in cui vincerebbe il terzo giocatore si ha che:

Pascal può quindi arrivare alla conclusione della sua lettera, affermando che la vincita dovrà essere suddivisa secondo il rapporto di 17-5-5. E Fermat, nella sua lettera di risposta, il 29 agosto 1654, confermerà l'esattezza di questo risultato, scrivendo:

"la vostra soluzione è quella corretta e la spartizione della posta dovrebbe essere di 17 a 5 a 5. La ragione è di per sé evidente e si appella sempre al medesimo principio, dato che le combinazioni rendono chiaro che il primo giocatore ha 17 possibilità di vincere mentre ognuno degli altri due ne ha soltanto 5."

E così, dopo 160 anni, il problema del gioco incompiuto era stato risolto.


DALLE SALE DA GIOCO ALLA REALTÁ QUOTIDIANA

Chi fece uscire la teoria della probabilità di Pascal e Fermat dalle sale da gioco per portarla nella quotidianità fu John Graunt. Londinese nato nel 1620, condusse una vita molto rispettabile e ordinaria, con un'unica eccezione: la pubblicazione di un pamphlet di 85 pagine, intitolato Natural and Political Observations Made Upon the Bills of Mortality, che gli portò grande fama. In esso Graunt, nel tentativo di aiutare re Carlo II a creare un sistema che allertasse dello scoppio e della diffusione delle epidemie di peste bubbonica in città, organizzò ed analizzò i dati dei registri mortuari londinesi dell'epoca. Tali registri erano stati stilati a partire dal 1604 dalle parrocchie di Londra per rispondere all'interesse di chi voleva sapere se nel suo quartiere c'erano stati decessi dovuti alla peste; allora si pensava infatti che la malattia fosse conseguenza dell'aver respirato aria contaminata (quando, in realtà, essa è trasmessa dalle pulci portate, ad esempio, dai topi). Graunt fu il primo quindi a farne un utilizzo diverso: egli analizzò le masse dei dati che erano stati raccolti e organizzò i numeri in tabelle per evidenziare le regolarità ad essi sottese. Per esempio, basandosi sui dati di nascite, sepolture e numero delle case, riuscì ad affermare che la popolazione di Londra si aggirava intorno a 403.000 abitanti, mentre in quegli anni era convinzione diffusa che tale cifra superasse il milione! Scoprì che la dimensione media di una famiglia londinese era di otto persone, che ragazzi e ragazze nascevano grossomodo in pari numero, che c'era un costante flusso migratorio dalla campagna alla città (in quanto a Londra i decessi annuali superavano le nascite, ma la popolazione non diminuiva). Ma il merito di Graunt va oltre: per soddisfare la necessità del governo di conoscere il numero di uomini londinesi in età militare (dai 16 ai 56 anni) egli calcolò gli indici di mortalità correlati all'età. Calcolando per esempio il tasso di mortalità per i bambini al di sotto dei sei anni, egli prese in considerazione il numero delle morti complessive (229.250), dei decessi dovuti a malattie infantili e aborti (71.124) o ad altre malattie al di fuori della peste (6.015; egli arriva a questo dato partendo dal numero delle morti totali per varie malattie, ossia 12.120, e supponendo che la metà di esse potrebbero aver riguardato bambini al di sotto dei sei anni), e delle morti dovute alla peste (16.000); valuta queste ultime in quanto considera la peste un caso eccezionale del quale non si deve tenere conto nei suoi calcoli. La sua operazione, una volta definiti i dati, è la seguente:

Nonostante ai giorni nostri il suo lavoro lasci molto a desiderare per l'accuratezza e per il metodo (basti osservare che egli suppone che la metà dei morti per malattia appartengano al campione da lui esaminato), esso segnò l'introduzione di quelle tabelle delle aspettative di vita che oggi stanno alla base dell'industria delle assicurazioni sulla vita. Con Graunt quindi non solo si assiste ad uno sviluppo della teoria della probabilità, ma anche alla nascita della statistica moderna: egli non si è limitato a riportare numeri, ma ha ragionato con i dati a sua disposizione. Dopo di lui ciò che mancava all'umanità per conquistare un certo controllo sul proprio futuro era che anche la matematica del calcolo delle probabilità fosse sviluppata ad un livello tale da poter essere applicata ai dati statistici sugli eventi che accadono nel mondo. Ma non si dovette aspettare molto.

Nel 1657 apparve il primo resoconto di quella che può essere riconosciuta come la moderna teoria delle probabilità: un saggio di sedici pagine intitolato De ratiociniis in ludo aleae (Sul calcolo del gioco dei dadi). L'autore era l'olandese Christiaan Huygens. Egli stabilì le regole basilari per il calcolo delle probabilità, discutendo l'aspetto molto importante del "guadagno atteso". Esso era già implicitamente presente nella "scommessa su Dio" di Pascal, ma Huygens ne riconobbe l'importanza, rendendolo esplicito. Il guadagno atteso, o aspettativa, è la misura oggettiva corretta del valore di una particolare scommessa per la persona che la fa. Per calcolarla bisogna moltiplicare la probabilità di ciascun esito per la somma che con esso verrà vinta (oppure persa). Facciamo un esempio, riferendoci alla roulette, ruota che ha 36 caselle numerate dall'1 al 36, metà colorate di rosso e metà di nero, più due zeri colorati di verde. Supponiamo di scommettere 100 euro sul rosso. La probabilità che esca è di , quindi , mentre la probabilità dei casi contrari (quindi che esca nero o verde) è , ossia . La nostra aspettativa è quindi:

Ciò significa che, giocando ripetutamente, scommettendo ogni volta 100 euro sul rosso, perderemo, in media, 5,26 euro a partita. Huygens applicò questo metodo anche al lavoro svolto in precedenza da Graunt: interrogato dal fratello sulle aspettative di vita delle persone, egli concepì una propria tabella delle aspettative di vita come una lotteria con 100 biglietti di diverso valore, corrispondenti alle caselle della tabella. Non possiamo certo considerare freddo o insensibile questo esercizio matematico, in quanto una versione identica, seppur più sofisticata, viene applicata alle nostre aspettative ogni volta che stipuliamo una polizza di assicurazione sulla vita: le compagnie assicurative, infatti, le vedono come una scommessa su quanto a lungo vivremo, e devono saper scommettere in modo che la loro aspettativa sia sufficientemente positiva da permettere loro di trarne un adeguato profitto. È una speculazione sulle nostre vite, ma ciò oggi non ci colpisce minimamente, in quanto è un procedimento che nel nostro modo di pensare rientra nella normalità.

Oggi noi usiamo i calcoli probabilistici non solo nel campo delle assicurazioni, ma anche per misurare la probabilità della correttezza dei tentativi di predire un determinato evento. Anche se per diventare concretamente utilizzabile ha dovuto attendere l'avvento dell'era dei computer, l'ultimo passo matematico nel cammino che ha portato dalla soluzione del problema dei punti all'odierna società della gestione del rischio consiste in una formula sviluppata da un ministro presbiteriano inglese del XVIII secolo, che studiava la matematica come passatempo: Thomas Bayes. Egli nacque a Londra nel 1702 e studiò logica e teologia all'università di Edimburgo. Dopo l'ordinazione, nel 1733 divenne ministro nella cappella presbiteriana di Tunbridge Wells, una ricca città a circa 50 chilometri da Londra. Lì prestò servizio fino alla pensione e successivamente vi rimase fino alla morte, avvenuta nel 1761. Quando morì, Bayes lasciò in eredità i propri scritti (che non aveva mai pubblicato) al suo amico matematico Richard Price. Uno di questi in particolare catturò la sua attenzione: il titolo era Essay Towards Solving a Problem in the Doctrine of Chances (Saggio per la risoluzione di un problema nella dottrina degli azzardi). Esso delineava un modo del tutto nuovo di considerare e calcolare le probabilità, un approccio rivoluzionario e largamente applicabile. Le probabilità calcolate con questo metodo sono quelle legate alla conoscenza che una persona ha di un qualche evento, indicandoci il grado di sicurezza di una certa informazione; è quindi un modo per rivedere la stima di una probabilità alla luce di nuove informazioni. La formula riportata nello scritto, chiamata "formula di Bayes" o "regola di Bayes", è la seguente:

Dove:

v                     = probabilità a posteriori, che indica la probabilità che l'ipotesi H sia vera alla luce dei dati osservati A;

v                     = probabilità a priori, si riferisce alla stima iniziale che un'ipotesi H sia vera;

v                     ) = probabilità condizionale, ossia la probabilità di ottenere i dati A supposto che l'ipotesi H sia vera;

v                     = rapporto di verosimiglianza, che si ottiene dividendo la probabilità di ottenere i dati A supposto che l'ipotesi H sia vera per la probabilità di ottenere comunque A a prescindere dalla verità di H.

Facciamo un esempio. Abbiamo tre urne, U1, U2 e U3, tali che:

U1 contiene 12 palline rosse e 8 palline verdi. Totale = 20

U2 contiene 10 palline rosse e 15 palline verdi. Totale = 25

U3 contiene 9 palline rosse e 6 palline verdi. Totale = 15


Si getta un dado. Se dal dato esce un numero:

n ≤ 3, si effettua l'estrazione dall'urna U1 (evento H1)

n > 4, si effettua l'estrazione dall'urna U2 (evento H2)

n = 4, si effettua l'estrazione dall'urna U3 (evento H3)


Calcoliamo quindi l'evento A:<< probabilità che sia estratta una pallina rossa>>:



Ossia:


Ora ci chiediamo: se è uscita una pallina rossa, con che probabilità essa proviene, per esempio, dall'urna U1?

Indichiamo con:

P(H/A) la probabilità che vogliamo calcolare;

P(H la probabilità che dal dado si verifichi n 3 e quindi la pallina rossa si estragga dall'urna U1(=

P(A/H) la probabilità che dall'U1 si estragga una pallina rossa (12 su 20 presenti in U1 =

P(A) la probabilità completa (già calcolata =

Inseriamo quindi questi valori nella formula di Bayes:

Abbiamo così trovato che la probabilità di estrarre una pallina rossa proveniente dalla prima urna è pari a .

Il metodo di Bayes ha portato il concetto di probabilità dentro la mente umana, applicandolo alla nostra conoscenza di un singolo, unico evento. Nonostante la sua grande importanza, però, per duecento anni dalla sua scoperta venne in larga parte ignorato dagli statistici e dai teorici delle probabilità, acquistando popolarità solo a partire dagli anni Settanta del Novecento. Ciò è dovuto in gran parte alla disponibilità crescente in quegli anni di potenti computer, che hanno reso possibile eseguire iterativamente il processo con enormi quantità di informazioni. Oggi la formula è riconosciuta e utilizzata universalmente. Nel maggio 2001, per esempio, venne consegnato a tutte le installazioni militari statunitensi sparse per il mondo un sistema informatico chiamato "Site Profiler", che offriva alcuni strumenti per aiutare i comandanti a valutare i rischi di attentati terroristici, così da poter mettere a punto contromisure adeguate. Esso funzionava combinando diverse fonti di dati e facendo ripetuto uso della formula di Bayes. Prima del dispiegamento del sistema, gli sviluppatori avevano eseguito numerose simulazioni basate su ipotetici scenari di minaccia. Riassumendo i risultati dei test, essi notarono che molti fattori che influenzavano il rischio tendevano ad essere eccezionali: risultava, ad esempio, che il Pentagono era un obiettivo primario dei terroristi. Comprensibilmente, né il comando militare né il governo americano presero sul serio le indicazioni del "Site Profiler"; si trovarono perciò impreparati quando, l'11 settembre dello stesso anno, il Pentagono fu uno dei siti colpiti dal purtroppo celebre attacco terroristico. È vero che esso costituiva un bersaglio secondario al quale passare nel caso l'aeroplano non fosse riuscito a colpire la Casa Bianca, ma il grado di precisione con il quale la matematica ha saputo fornire una stima accurata di un rischio futuro è davvero grande. Il "Site Profiler" non è l'unico sistema che si basa sulla formula di Bayes: una tecnica sostanzialmente uguale viene utilizzata per elaborare il livello di minaccia terroristica giornaliero degli aeroporti di tutto il mondo e per combinare evidenza tratte da diverse fonti di dati: immagini riprese dai satelliti, intercettazione dei messaggi, informazioni raccolte dall'intelligence, modelli analitici, simulazioni, dati storici e giudizi umani. I sistemi di questo tipo non eliminano il rischio, ma possono ridurlo, aiutandoci nella gestione del pericolo nella vita di tutti i giorni.

MA QUANDO DECIDIAMO?

Cardano, Pascal, Fermat, Graunt, Huygens e Bayes hanno consegnato alla storia un metodo per calcolare quello che può essere definito il "grado di certezza" attribuibile al verificarsi di un evento; ma oggi, quando ci troviamo a dover decidere quale sia questo grado di fronte ad un problema della vita quotidiana, seguiamo davvero sempre quello che essi ci hanno insegnato? In realtà, ciò non avviene. Siamo individui, come affermato dallo psicologo Simon, razionalmente limitati, a causa dei limiti della nostra mente (di attenzione, di memoria, ecc.), delle energie che un processo interamente razionale richiede e del ruolo che sempre giocano in noi le emozioni (si pensi, ad esempio, al wishfull thinking, la tendenza a farsi guidare nel pensiero dai desideri, che induce a volte a considerare più probabili gli eventi desiderabili), e questo ci ostacola nel formulare quotidianamente dei giudizi di probabilità ogni volta corretti. Se fossimo razionali seguiremmo procedure matematico-statistiche affini al teorema di Bayes, con il quale si possono produrre stime e valutazioni corrette dal punto di vista formale; di fatto invece utilizziamo euristiche, strategie particolari che ci consentono di risolvere i problemi compatibilmente con la complessità del compito e la limitatezza dei nostri sistemi di immagazzinamento e di elaborazione delle informazioni. Nei compiti di giudizio l'euristica produce prestazioni non sempre accurate, che però ci permettono di azzardare probabilità rapidamente e senza troppo lavoro. Tversky e Kahneman (1972-1974) le hanno studiate, individuandone diversi tipi:

Euristica della disponibilità: valuta la probabilità che si verifichi un determinato evento sulla base della facilità con la quale ricordiamo o siamo in grado di pensare ad esempi relativi. Generalmente elementi che appartengono ad un'ampia classe sono ricordati meglio e più velocemente di elementi che appartengono a classi più ristrette, così come sono memorizzati meglio gli eventi più frequenti dei quali abbiamo esperienza diretta.


dobbiamo rispondere alla domanda: le famiglie che in Italia hanno almeno un animale in casa sono più o meno del 50%? Se non conosciamo statistiche al riguardo, passiamo in rassegna le famiglie con o senza animali domestici che conosciamo e facciamo un rapido calcolo sulla base dei dati che ricaviamo. La risposta esatta è più del 50% delle famiglie ha animali; risponderemo correttamente se il campione da noi esaminato presenta un alto numero di famiglie che possiedono un animale domestico, mentre in caso contrario la nostra risposta tenderà all'errore.


Euristica della rappresentatività: è una strategia ingenua, una scorciatoia di pensiero che consente di ridurre la soluzione di un problema ad una operazione di giudizio particolarmente semplice. Induce a valutare la probabilità di un'ipotesi in base ad un giudizio di similarità, a come noi ci rappresentiamo le cose.


prendiamo in considerazione la domanda: in sei lanci di una moneta è più probabile che testa e croce escano nell'ordine TTTTTT o TCTCCT? Per il calcolo delle probabilità queste due sequenze hanno esattamente la stessa probabilità di verificarsi; se però non abbiamo sufficienti basi in materia, quasi sicuramente sceglieremo la seconda sequenza. Questo perché ci raffiguriamo il caso come qualcosa di disordinato e la prima sequenza ci sembra improbabile, in quanto non casuale. Ma l'ordine e il disordine sono idee dell'uomo che non rientrano nel caso, quindi l'euristica della rappresentatività ci porta all'errore.

Di questa euristica fa parte l'illusione del giocatore, legata alla legge dei grandi numeri di Jakob Bernoulli. Essa garantisce che solo campioni molto ampi siano altamente rappresentativi della popolazione dalla quale sono stati tratti: afferma infatti che all'aumentare del numero di volte nel quale si ripete un esperimento, la probabilità statistica dell'evento E che da esso risulta tende ad approssimare sempre più la probabilità matematica dell'evento stesso. Ad esempio, sappiamo che la probabilità matematica di ottenere croce nel lancio di una moneta è del 50%; nella pratica, però, il risultato che noi otteniamo si avvicinerà a questa percentuale solo con l'aumentare del numero di lanci, mentre vi si discosterà se lanceremo la moneta un piccolo numero di volte. L'errore commesso consiste nel credere che anche un piccolo campione di casi comporti e segua le stesse leggi della popolazione dalla quale è tratto; il giocatore confonde la frase della regola "all'aumentare del numero di volte" con la frase "dopo un elevato numero di volte".

Si pensi ad esempio al gioco del lotto. Su una data ruota, in ogni estrazione, ogni numero ha sempre la stessa probabilità di uscire, pari a 5 su 90 (ovvero = 5,5%), essendo 5 i numeri estratti e 90 i numeri contenuti nell'urna; il fatto che un numero non esca per molte estrazioni non aumenta in nessun modo la probabilità che esso venga estratto alla successiva estrazione: essa rimane sempre del 5,5%. Molti giocatori puntano però sui numeri "ritardatari" perché sono convinti che, per sopperire alla sua prolungata assenza nell'estrazione e riequilibrare le cose, un numero debba uscire con maggiore probabilità. Così accade che, ogni volta che restano ritardi significativi (come il 53 sulla ruota di Venezia, uscito dopo 182 turni), il lotto diventa un vero e proprio fenomeno di costume, capace di catalizzare i mass media e di aumentare in modo considerevole le giocate, portando con sé anche episodi di cronaca nera. Il tutto perché commettiamo un grosso errore di valutazione.

Euristica dell'ancoraggio: si verifica quando, dovendo emettere giudizi in condizioni di incertezza, le persone riducono l'ambiguità ancorandosi ad un punto di riferimento stabile per poi operare degli aggiustamenti che portano alla decisione finale.

Tversky e Kahneman hanno chiesto a dei soggetti di stimare la percentuale dei paesi africani presenti nell'ONU, dopo aver estratto a caso da un'urna un numero da 0 a 100. Sorprendentemente le percentuali date non si discostavano di molto dal numero uscito, nonostante le due cose siano razionalmente prive di nesso.



La scelta di trattare questo tema è stata dettata dalla sorpresa che ha provocato in me l'aver scoperto come la nascita di una teoria matematica che ora noi consideriamo abbastanza semplice abbia influenzato in modo considerevole la storia dell'umanità, contribuendo a farla diventare ciò che oggi è. La cosa che più mi ha colpito è che gli effetti della scoperta del calcolo delle probabilità non si ritrovano solo nelle attività che richiedono l'uso delle varie operazioni che ne derivano, ma anche in molti gesti della vita quotidiana: quante volte nella nostra vita diciamo, ad esempio, che è probabile che il giorno seguente piova? E non ci rendiamo conto che tutto ciò è possibile grazie alla matematica e a coloro che hanno saputo svilupparla: da Pacioli a Bayes, ognuno dei grandi matematici che ha migliorato la teoria del calcolo delle probabilità ha contribuito anche a cambiare la nostra mentalità, insegnandoci a gestire il rischio.



















BIBLIOGRAFIA

LIBRI DI TESTO CONSULTATI:


Keith Devlin, La lettera di Pascal, Rizzoli editore 2008

A. Bianchi - P. Di Giovanni, Psicologia oggi, Paravia

J. Graunt, Osservazioni naturali e politiche fatte sui bollettini di mortalità, La Nuova Italia, Scandicci 1987, p.15

P.M. Gianoglio - P. Arri - G. Ravizza, Matematica attiva, Il Capitello


SITI VISITATI:


www.calogeromartorana.it/DOWNLOAD/LEZIONI/classi%203/BAYES.pdf

www-1.unipv.it/webpsyco/bacheca/materiale/ferrettieuristiche.ppt

www.wikipedia.org/wiki/Lotto

www2.scform.unibo.it/docenti/Cicogna-ES-VII.doc









Scarica gratis La nascita della teoria delle probabilità
Appunti su:



Scarica 100% gratis e , tesine, riassunti



Registrati ora

Password dimenticata?
  • Appunti superiori
  • In questa sezione troverai sunti esame, dispense, appunti universitari, esercitazioni e tesi, suddivisi per le principali facoltà.
  • Università
  • Appunti, dispense, esercitazioni, riassunti direttamente dalla tua aula Universitaria
  • all'Informatica
  • Introduzione all'Informatica, Information and Comunication Tecnology, componenti del computer, software, hardware ...

Appunti Geografia Geografia
Tesine Contabilita Contabilita
Lezioni Fisica Fisica