How facts backfire
Researchers discover a surprising threat to democracy:
our brains
By Joe Keohane
July 11, 2010
It’s one of the great assumptions underlying modern democracy that an informed citizenry is preferable to an uninformed one.
“Whenever the people are well-informed, they can be trusted with their own government,” Thomas Jefferson wrote in 1789. This notion, carried down through the years, underlies everything from humble political pamphlets to presidential debates to the very notion of a free press. Mankind may be crooked timber, as Kant put it, uniquely susceptible to ignorance and misinformation, but it’s an article of faith that knowledge is the best remedy. If people are furnished with the facts, they will be clearer thinkers and better citizens. If they are ignorant, facts will enlighten them. If they are mistaken, facts will set them straight.
In the end, truth will out. Won’t it?
Maybe not. Recently, a few political scientists have begun to discover a human tendency deeply discouraging to anyone with faith in the power of information. It’s this: Facts don’t necessarily have the power to change our minds. In fact, quite the opposite. In a series of studies in 2005 and 2006, researchers at the University of Michigan found that when misinformed people, particularly political partisans,
were exposed to corrected facts in news stories,
they rarely changed their minds. In fact, they often became even more strongly set in their beliefs. Facts, they found, were not curing misinformation. Like an underpowered antibiotic, facts could actually make misinformation even stronger.
....
http://archive.boston.com/bostonglobe/i ... _backfire/
viewtopic.php?t=4456
....
Alla fine, la verità verrà a galla. Non è vero?
Forse no. Di recente, studiosi di scienze politiche hanno cominciato
ad occuparsi di una tendenza dell’uomo in grado di scoraggiare alla radice la fede nel potere dell’informazione.
In altre parole: non necessariamente i fatti, la realtà oggettiva hanno la capacità di farci cambiare opinione.
Approfondendo la questione, si scopre come sia vero proprio il contrario. Durante una serie di studi tra il 2005 e il 2006, i ricercatori dell’Università del Michigan scoprirono che quando persone male informate, in particolare attivisti politici, venivano esposte alla verità dei fatti, assai di rado riuscivano a cambiare opinione. A ben guardare, la cosa li rendeva ancora più radicati nelle proprie convinzioni iniziali, ancorché errate.
Gli scienziati verificarono come il contatto con la realtà oggettiva dei fatti non rappresentasse affatto una cura alla disinformazione. Comportandosi in analogia a un antibiotico di potere insufficiente, i fatti potrebbero, in realtà rinforzare ulteriormente [le convinzioni e i pregiudizi generati da] la cattiva informazione.
Tutto ciò fa vaticinare sventure per la democrazia, in quanto la maggior parte degli elettori – in definitiva la gente che prende decisioni su come la nazione vada governata [1] – non sono proprio lavagne immacolate. Il popolo delle urne risulta dotato di convinzioni proprie e di insiemi di dati di fatto ben radicati nella propria mente. Il problema è che, a volte, le cose che pensano di sapere sono false in modo oggettivo e dimostrabile.
Anche se messi di fronte delle informazioni corrette, tali persone reagiscono in un modo completamente differente da quanto fanno le persone che sono semplicemente ignoranti. Al posto cambiare idea per riflettere le informazioni corrette,
essi si trincerano ancor di più nelle proprie convinzioni originarie.
“L’idea generale è che ammettere di aver sbagliato sia avvertito come una minaccia in termini assoluti” afferma lo studioso di scienze politiche Brendan Nyhan, a capo del gruppo di ricerca nello studio condotto dall’Università del Michigan.
Il fenomeno – conosciuto come “ritorno di fiamma” – è “un meccanismo inconscio di difesa che tende a evitare la dissonanza cognitiva” [2].
.....