Come la percezione, i bias cognitivi e l'incertezza influenzano le decisioni


Quasi tutte le nostre azioni implicano la necessità di assumere decisioni. Di conseguenza, lo studio del processo decisionale coincide in larga misura con l'analisi del comportamento umano. La teoria delle decisioni non si occupa, tuttavia, di ogni aspetto dell'agire: focus principale è su come utilizziamo la nostra libertà di scelta. In ogni situazione considerata dai teorici delle decisioni esistono infatti alternative tra cui scegliere, e le scelte non sono casuali, ma orientate a uno scopo e dirette al raggiungimento di un obiettivo tra le diverse opzioni.
Le decisioni possono fondarsi su condizioni di certezza, quando ogni azione conduce a un esito determinato; di rischio, quando gli esiti possibili sono accompagnati da una distribuzione di probabilità nota; di incertezza, quando tale distribuzione non è conosciuta. La teoria opera sia in ambito teorico, dove si esamina il comportamento di agenti idealmente razionali e si studiano le implicazioni logiche delle regole di scelta, sia in ambito applicativo, orientato all'osservazione dei processi decisionali così come si manifestano nella realtà.

Rischio e incertezza

L'ambiguità è un fenomeno centrale in economia e nella teoria delle decisioni. Si manifesta quando non è possibile conoscere con certezza le probabilità degli esiti, perché le informazioni necessarie sono incomplete o assenti. In tali contesti, un decisore può sapere quali condizioni influenzano i risultati delle proprie azioni, ma non può prevedere con sicurezza quali si verificheranno.

Nel 1921, nel libro Risk, Uncertainty and Profit, l'economista americano Frank Knight ha formalizzato la distinzione tra rischio e incertezza. In condizione di rischio gli eventi futuri hanno probabilità misurabili, consentendo di calcolare il valore atteso degli esiti; in condizione di incertezza gli eventi futuri hanno probabilità indefinibili o incalcolabili, rendendo impossibile fare previsioni affidabili. Questa distinzione rappresenta la prima concettualizzazione moderna dell'ambiguità, motivo per cui si parla ancora oggi di "Incertezza di Knight". [1]

Anche John Maynard Keynes, economista britannico, criticò la teoria classica della scelta razionale, sottolineando che spesso non disponiamo di informazioni sufficienti per prevedere il futuro. Secondo Keynes, l'incertezza può essere vista come il grado di fiducia che il decisore ripone nelle proprie stime: nelle situazioni di rischio, le stime sono affidabili; nelle situazioni di incertezza, la mancanza di dati genera dubbi e sfiducia.[2]

Queste considerazioni trovano conferma empirica nel Paradosso di Ellsberg, un esperimento in cui gli individui devono scegliere tra due urne contenenti palline di colori diversi, con probabilità note in un'urna e ambigue nell'altra. I partecipanti mostrano una netta preferenza per la situazione con probabilità note, evidenziando la loro avversione all'incertezza e i limiti della teoria classica dell'utilità attesa nel descrivere il comportamento reale.[3]

Dopo aver visto come l'ambiguità influenzi le decisioni, è utile considerare un caso in cui il rischio è pienamente definito, ma gli esiti previsti dalla teoria risultano comunque paradossali.

Il Paradosso di San Pietroburgo

In condizioni di rischio noto, il criterio matematico classico suggerisce la massimizzazione del valore atteso, calcolato come la somma dei possibili esiti ponderati per le rispettive probabilità, rappresentativo di ciò che ci si aspetta "in media". Tuttavia, questo criterio, pur formalmente corretto, non descrive sempre il comportamento reale degli individui: alcuni sono disposti ad assumere rischi per potenziali profitti (risk-loving), mentre altri li evitano anche di fronte a payoff attesi più elevati (risk-averse).

Il Paradosso di San Pietroburgo, enunciato da Nicolaus Bernoulli nel 1713, descrive un gioco d'azzardo in cui la vincita raddoppia a ogni lancio di moneta fino alla comparsa della prima "testa", producendo un valore atteso teoricamente infinito. Secondo il calcolo oggettivo, un giocatore razionale dovrebbe essere disposto a pagare qualsiasi cifra per partecipare; nella realtà, invece, nessuno lo farebbe, evidenziando la discrepanza tra modello teorico e comportamento reale. La soluzione qualitativa fu proposta da Daniel Bernoulli nel 1738, che introdusse il concetto di utilità marginale decrescente: la soddisfazione derivata da ogni unità aggiuntiva di ricchezza diminuisce con l'aumentare del totale. Grazie a questa intuizione, spiegò perché la somma ragionevole da pagare per partecipare al gioco è finita, pur in presenza di un valore atteso matematico infinito.[4]

John von Neumann e Oskar Morgenstern, nel 1944, formalizzarono matematicamente queste intuizioni nella funzione di utilità attesa, pubblicata nel volume Theory of Games and Economic Behavior. Essi svilupparono un modello assiomatico per le scelte in condizioni di rischio, in cui l'individuo razionale non massimizza più il semplice guadagno, ma sceglie l'opzione che garantisce la massima soddisfazione percepita, ponderata in base alle probabilità degli esiti. In questo modo, la funzione di utilità attesa formalizza l'idea di Bernoulli, rendendola operativa e spiegando coerentemente il comportamento osservato nel Paradosso di San Pietroburgo.

Decisioni osservate: tra percezioni, bias e risultati attesi

Queste formalizzazioni teoriche offrono strumenti potenti per prevedere scelte in condizioni di rischio noto. Nella realtà, tuttavia, gli individui non si comportano sempre secondo la razionalità prevista dai modelli. La percezione soggettiva dei risultati, i punti di ancoraggio psicologici e altri bias cognitivi influenzano le decisioni, generando spesso scostamenti significativi rispetto a quanto suggerirebbe la teoria.

Per comprendere queste dinamiche, si può considerare una controversia tra due parti, dove la scelta non si limita a stabilire cosa sia "giusto" o "sbagliato", ma implica valutazione dei rischi, probabilità e risultati attesi. Spesso i decisori perseguono il "risultato massimo teorico", trascurando alternative certe. In questo contesto, ogni proposta percepita come inferiore al "100% del diritto" viene vissuta come una perdita. A questa dinamica si aggiungono tre comuni distorsioni cognitive: sovrastima della probabilità di successo (overconfidence), sottovalutazione dei costi cumulativi — economici, emotivi e reputazionali — e svalutazione dei risultati futuri nel tempo. Questi fattori generano una discrepanza tra valore atteso matematico e valore atteso percepito, portando a scelte subottimali, poiché il decisore valuta le opzioni sulla base di percezioni distorte piuttosto che di calcoli oggettivi.

Se le distorsioni cognitive influenzano già le scelte in contesti di rischio noto, dove le probabilità sono definite, è naturale aspettarsi che in condizioni di incertezza, con probabilità ignote, tali deviazioni siano ancora più marcate. Come evidenziato dal Paradosso di Ellsberg, l'assenza di informazioni certe amplifica l'avversione all'ambiguità e accentua le distorsioni nella valutazione delle opzioni, confermando i limiti dei modelli classici dell'utilità attesa nel descrivere il comportamento umano.

Conclusioni

L'analisi dei processi decisionali mostra come il comportamento reale degli individui spesso si discosti dalle previsioni della teoria classica. Il valore atteso percepito, influenzato da bias cognitivi, punti di ancoraggio e percezioni soggettive dei risultati, può portare a scelte subottimali rispetto al valore atteso matematico.

L'introduzione della funzione di utilità da parte di Daniel Bernoulli e la formalizzazione di von Neumann e Morgenstern hanno permesso di modellare la valutazione soggettiva dei risultati, rendendo più realistico il confronto tra opzioni in condizioni di rischio. Tuttavia, come evidenziato da Knight e Keynes, non tutti gli eventi possono essere associati a probabilità note: l'incertezza non misurabile amplifica le distorsioni cognitive, come dimostra il Paradosso di Ellsberg.

Comprendere le differenze tra rischio e incertezza, il ruolo dell'utilità soggettiva e l'influenza dei bias è fondamentale per interpretare e migliorare i processi decisionali, adottando strategie più efficaci e coerenti con il comportamento reale, andando oltre la semplice teoria matematica.


dott.ssa Luisa Claudia Tessore

Note bibliografiche

[1] Rakow, T. (2010) Risk, uncertainty and prophet: The psychological insights of Frank H. Knight. Judgment and Decision Making.

[2] Gillies, D. (2003) Probability and uncertainty in Keynes's The General Theory. Routledge.

[3] Daniel Ellsberg, D. (1961) Risk, Ambiguity, and the Savage Axioms. The Quarterly Journal of Economics, Volume 75, Issue 4, Pages 643-669

[4] Aumann, R. J. (1977). The St. Petersburg paradox: A discussion of some recent comments. Journal of Economic Theory 14 (2): 443-445


Foto: 123rf.com
Altri articoli che potrebbero interessarti:
In evidenza oggi: