27 JAN 2018 - 00:00 CET
MICHAEL SHERMER
Quando os dados contradizem nossas convicções, tendemos a ignorá-los ou manipulá-los
Assim fazem criacionistas, ativistas antivacina e ‘conspiranoicos’ do 11 de setembro
Já reparou como as pessoas sempre mudam de opinião quando
confrontadas com dados que contradizem suas convicções mais profundas?
Pois é, eu também nunca vi isso acontecer. E tem mais: a impressão que
dá é que, ao ouvir provas esmagadoras contra aquilo que acredita, o
indivíduo reafirma as suas opiniões. O motivo é que esses dados colocam
em risco sua visão de mundo.
Os criacionistas,
por exemplo, rejeitam as provas da evolução oferecidas por fósseis e
pelo DNA, porque temem que os poderes laicos estejam avançando sobre o
terreno da fé religiosa. Os inimigos das vacinas
desconfiam dos grandes laboratórios farmacêuticos e acham que o
dinheiro corrompe a medicina. Isso os leva a defender que as vacinas
causam autismo, embora o único estudo que relacionava essas duas coisas
tenha sido desmentido há bastante tempo, e seu autor tenha sido acusado
de fraude. Quem defende as teorias da conspiração em torno dos atentados
de 11 de setembro
de 2001 nos Estados Unidos se fixam em minúcias como o ponto de fusão
do aço nos edifícios do World Trade Center, porque acreditam que o
Governo mentia e realizou operações secretas a fim de criar uma nova
ordem mundial. Os negacionistas da mudança climática
estudam os anéis das árvores, os núcleos do gelo e as ppm (partes por
milhão) dos gases de efeito estufa porque defendem com paixão a
liberdade, em especial a dos mercados e empresas, de agirem sem precisar
se ater às rigorosas normas governamentais. Quem jurava que Barack Obama
não nasceu nos Estados Unidos dissecava desesperadamente sua certidão
de nascimento em busca de mentiras, porque estava convencido de que o
primeiro presidente afro-americano dos EUA era um socialista empenhado
em destruir seu país. Os defensores dessas teorias têm em comum a
convicção de que seus adversários céticos colocam em risco sua visão de
mundo. E rejeitam os dados contrários às suas posturas por considerarem
que provêm do lado inimigo.
O fato de as convicções serem mais fortes que as provas se deve a
dois fatores: a dissonância cognitiva e o chamado efeito
contraproducente. No clássico When Prophecy Fails (“quando a
profecia falha”), o psicólogo Leon Festinger e seus coautores escreviam,
já em 1956, a respeito da reação dos membros de uma seita que
acreditava em OVNIs quando a espaçonave que esperavam não chegou na hora
prevista. Em vez de reconhecerem seu erro, “continuaram tentando
convencer o mundo inteiro” e, “numa tentativa desesperada de eliminar
sua dissonância, dedicaram-se a fazer uma previsão atrás da outra, na
esperança de acertar alguma delas”. Festinger chamou de dissonância cognitiva a incômoda tensão que surge quando duas coisas contraditórias são pensadas ao mesmo tempo.
Em seu livro Mistakes Were Made, But Not By Me (“foram
cometidos erros, mas não fui eu”, 2007), dois psicólogos sociais, Carol
Tavris e Elliot Aronson (aluno de Festinger), documentam milhares de
experimentos que demonstram que as pessoas manipulam os fatos para
adaptá-los às suas ideias preconcebidas a fim de reduzirem a
dissonância. Sua metáfora da “pirâmide da escolha” situa dois indivíduos
juntos no vértice da pirâmide e mostra como, ao adotarem e defenderem
posições diferentes, começam a se distanciar rapidamente, até que acabam
em extremos opostos da base da pirâmide.
Corrigir uma falsidade pode reforçar as percepções equivocadas do grupo, porque coloca em risco a sua visão de mundo
Em outras experiências, os professores Brendan Nyhan, do Dartmouth
College (EUA), e Jason Reifler, da Universidade de Exeter (Reino Unido),
identificaram um fator relacionado a essa situação: o que chamaram de efeito contraproducente,
“pelo qual, ao tentar corrigir as percepções equivocadas, estas se
reforçam no grupo”. Por quê? “Porque colocam em perigo sua visão de
mundo ou de si mesmos.”
Por exemplo, os participantes do estudo foram apresentados a falsos
artigos de imprensa que confirmavam ideias errôneas, porém muito
difundidas, como a de que havia armas de destruição em massa no Iraque
antes da invasão norte-americana de 2003. Quando confrontados
posteriormente com um artigo que explicava que na verdade essas armas
nunca haviam sido encontradas, os que se opunham à guerra aceitaram o
novo artigo e rejeitaram o anterior. Entretanto, os partidários do
conflito bélico argumentaram que o novo artigo os deixava ainda mais
convictos da existência das armas de destruição em massa, pois seria uma
prova de que o ex-ditador Saddam Hussein
havia escondido ou destruído seu arsenal. Na verdade, dizem Nyhan e
Reifler, entre muitos destes últimos participantes “a ideia de que o
Iraque tinha armas de destruição em massa antes da invasão encabeçada
pelos Estados Unidos persistiu até bem depois de que o próprio Governo
de George W. Bush chegasse à conclusão de que não era assim”.
Se os dados que deveriam corrigir uma opinião só servem para piorar
as coisas, o que podemos fazer para convencer o público sobre seus
equívocos? Pela minha experiência, aconselho manter as emoções à margem;
discutir sem criticar (nada de ataques pessoais e nada de citar Hitler);
ouvir com atenção e tentar expressar detalhadamente a outra postura;
mostrar respeito; reconhecer que é compreensível que alguém possa pensar
dessa forma; tentar demonstrar que, embora os fatos sejam diferentes do
que seu interlocutor imaginava, isso não significa necessariamente uma
alteração da sua visão de mundo.
Talvez essas estratégias nem sempre sirvam para levar as pessoas a
mudarem de opinião, mas é possível que ajudem a que não haja tantas
divisões desnecessárias.
Michael Shermer é fundador e diretor da revista ‘Skeptic’. Este artigo foi publicado em 2017 na ‘Scientific American’
Nenhum comentário:
Postar um comentário