anunturi
Eurotrip
grandchef
anunturi
Bolta rece
anunturi
metalco

miercuri, 12.08.2020

Psihologul Mircea Miclea: Crezi în conspiraţii fiindcă asta te face să te simţi special

GALERIE
Mircea Miclea
  • Mircea Miclea
- +

I-am solicitat un interviu psihologului Mircea Miclea, fost ministru al Educației, pentru a afla care este mecanismul prin care ajungem să credem în existența unor tuneluri prin Munții Bucegi sau în posibilitatea ca Dacian Cioloș să fie fiul lui George Soros.

Interviu pressone.ro

Mircea Miclea m-a primit în biroul său, unde ține, printre altele, ședințele de psihoterapie. A insistat să mă așez pe fotoliul său, iar el să stea pe canapea, pentru a nu simți, niciunul dintre noi, că suntem la o astfel de ședință.

După care, în mare măsură, și-a luat interviul care urmează :).

Mircea Miclea explică, printre altele, cum ne mințim, cum ne ferim de eșec și, mai ales, de ce.

Am aflat de la el de ce e bine să greșesc repede și cum lumea are nevoie acum, mai mult ca niciodată, de o inteligență artificială care să facă, pentru prezent și viitor, ce a făcut Aristotel pentru ultimii 2.000 de ani.


Mircea Miclea este profesor universitar la Facultatea de Psihologie și Științe ale Educației de la UBB Cluj. Imagine: Mircea Gherase
– Cuvântul „manipulare” a ajuns acum un fel de explicație generală și acuzație reciprocă. Nimeni nu mai știe care este adevărul și cum să-l desprindă de manipulare. Cum am ajuns aici?

– Capacitatea noastră de prelucrare analitică, logică, reflexivă a informației este limitată. Mintea noastră a rămas cu aceiași parametri ca acum 2.000 de ani, iar cantitatea de informație a crescut exponențial. În plus, ritmul cu care informația se înnoiește a crescut foarte mult.

În aceste condiții, cu această capacitate limitată de prelucrare a informației, într-o lume cu informații foarte multe și foarte rapide – la fiecare 10 minute e un breaking news –, noi nu mai prelucrăm analitic informația respectivă. Nu mai avem timp să analizăm sursa, credibilitatea ei, dovezile din spatele informației respective.

Și atunci luăm ca default, ca de la sine înțeles, că ea este adevărată. Și rămânem contaminați de hint-urile (indiciile – n.r.) care sunt strecurate în mesajele respective. Și atunci diferența dintre o informație acurată și o informație inacurată se atenuează din cauza incapacității noastre de a o prelucra.

În urmă cu 2.000 – 2.500 de ani, în Grecia antică a apărut pericolul similar cu cel de acum. În cetatea ateniană au apărut sofiștii, care puteau argumenta orice. Erau maeștri în argumentare, utilizau argumente nevalide, dar multe dintre ele seducătoare, cu care câștigau procese – și au devenit un pericol pentru democrația ateniană.

În acel moment apare Aristotel. Dându-și seama de pericolul pe care-l reprezentau sofiștii, prin faptul că puteau să argumenteze orice cu date foarte problematice, el scrie două cărți de logică, și spune: acestea sunt regulile logicii. Ceea ce nu respectă regulile logicii nu e corect.

Altfel spus, pune o barieră sofisticii. Și ajută enorm în jocul democratic, spunând că nu orice discurs argumentat sofistic, bazat pe dovezi problematice, este logic. Deci, Aristotel face curățenie. A fost posibil acest efect pentru că informația era redusă.

Acum, un Aristotel nu mai e suficient. Manipularea e enormă și e cauzată în primul rând de cantitatea foarte mare de informații și de rapiditatea cu care apare.

Și atunci, noi nu mai putem să prelucrăm reflexiv – pentru că vine altă informație și altă informație – și rămânem cu mesajul dat. Și așa începe manipularea.

Ăsta e un prim factor, așadar: cantitatea foarte mare de informații. Al doilea este că au apărut rețelele de socializare.

Rețelele de socializare au la bază niște algoritmi. Informația pe care tu o primești este, de regulă, informația pe care tu o agreezi.

Ți se dă, de regulă, cam ceea ce ai mai căutat înainte, din sursele pe care le-ai mai căutat. Aceștia sunt algoritmii de pe rețelele de socializare: nu sunt bazați pe veridicitate, ci pe preferința ta.

Și mai apare un fenomen aici: prietenii tăi au cam aceleași preferințe ca tine. Și atunci se produce un fenomen care în psihologie se numește group think: gândim toți la fel și ne întreținem unii altora convingerile, pentru că noi nu ne confruntăm cu alte grupuri, de alte opinii.

Este o auto-centrare a grupului, și atunci tot ceea ce vine pe rețeaua de socializare este luat cu mult mai puțină prudență logică. E luat by default.

De ce? Unu: e agreat și de prietenii mei. Doi: e familiar, seamănă cu ceea ce am consumat ieri, alaltăieri, răsalaltăieri și tot așa. Și atunci credibilitatea acestor informații este mare și nu mai este analizată logic.

Așadar, unu, cantitatea mare de informații și rapiditatea ei; doi, algoritmii și modul de funcționare al rețelelor de socializare fac ca manipularea să fie acum mult mai accentuată decât oricând altcândva.

Cu cât cantitatea de informație crește, cu atât probabilitatea de a fi manipulat crește. Cu cât algoritmii existenți în momentul de față se perpetuează, cu atât probabilitatea de manipulare crește.

Astfel încât, dacă lucrurile vor continua, cred că în următorii ani vom fi și mai manipulați decât acum. Și tot mai manipulați.

Nu mai cred că problema poate fi rezolvată doar de mintea umană și de un nou Aristotel. Ar fi două soluții aici.

Prima ar consta în a crea mașini, softuri care să facă un rating permanent al informațiilor pe care le primim – de pe internet, de pe rețele, de peste tot.

Ratingul se face în funcție de sursa care a transmis informația. Într-un prim pas, ratingul acesta, algoritmii coroborează informația. Se uită dacă acea informație este cel puțin din trei surse diferite, distincte, cu apartenență distinctă. Cum era mai demult în presă. Mai demult – acuma nu mai prea e.

Și atunci, în funcție de asta, fiecărei informații i se dă o notă. Ăsta e primul pas: triangularea informației, ca să vadă ce notă ai. Unele trec, altele nu trec. Apoi ar fi a doua evaluare, tot de către acești algoritmi.

După o vreme, aceștia ar lua informația pe care sursa X a vehiculat-o și ar analiza-o dacă s-a adeverit. Și, luând acest al doilea criteriu, dacă ea s-a adeverit sau nu, îți dă din nou o notă.

Și făcând ratingul acesta permanent al informației și al sursei informației, mașinile ne pot ajuta cu filtre care fac să vină spre noi informații tot mai credibile.

Dacă tu ești o sursă care dai informații false, algoritmul te identifică o dată pentru că triangulează informația ta cu alte informații, și atunci îți dă o notă proastă; şi a doua oară pentru că, dacă se dovedește ulterior că e greșită, tu, ca sursă de informație, primești o notă proastă, în loc să ai 10, primești 2.

Și, dintr-o dată, filtrele astea dau beneficiarilor informații în funcție de nota de credibilitate. Adică ar fi un fel de Aristotel virtual. OK?

Și asta ar putea rezolva parțial, în următorii câțiva ani, problema manipulării și problema știrilor false. Iar a doua parte a soluției vine din faptul că noi, ca indivizi, trebuie să ne dezvoltăm abilitatea de a reflecta asupra informațiilor, nu numai de a le asimila.

Analiza informațiilor este o deprindere pe care, din păcate, noi nu am educat-o. Școala nu o educă, pentru că primești note în funcție de cât de bine reproduci ceea ce ți s-a spus.

Presa nu o educă, pentru că, de regulă, presa stimulează consumul de informație, nu analiza informației. Uitați-vă la presa care mereu dă informații, dar foarte rar face analize pe informații.

În momentul de față nu ai modele sociale de analiză a informației; ai doar modele de consum. E un consumerism informațional, la fel ca și consumul de bunuri industriale și așa mai departe.

Și atunci, din acest motiv, abilitatea aceasta nu e formată, nu e educată. Ei bine, aici trebuie să intervenim noi, să ne-o educăm, să ne-o formăm.

Adică și noi, cu mintea noastră, putem să facem o analiză a consecințelor informațiilor pe care le primim. Și noi, cu mintea noastră, putem să spunem: ia să verificăm informația!

Nu numai cum apare în rețeaua mea de socializare, dar și cum apare din perspectiva ălora pe care eu îi detest. Dar hai să vedem cum apare, ca să coroborez, OK?

Zilele acestea, am văzut o mulțime de oameni care purtau pancarte cu elefanți. Lucru OK. Dar propunerea mea pentru ei e să mai poarte o pancartă, cu oi! Și să spună: Nu vrem să fim oi!

Pentru că, dacă suntem oi, degeaba ne ferim de elefanți. Și asta sunt, din păcate, oamenii, de cele mai multe ori. Sunt niște oi.

Altfel de bună intenție, cu idealuri corecte, dar, neanalizând în adâncime, riscul de a fi niște oi, mânate de „ciobani” și „câini”, este enorm de mare. Și acum e mai mare ca altădată.

Înainte, lumea era alta. Era mult mai puțină informație și ritmul ei era mai redus. Automat, aveai timp să gândești. Gândeai, pentru că-ți veneau știrile la 7 dimineața și apoi la 7 seara.

Și tu gândeai până atunci: e corectă, nu e corectă, e bună, nu-i bună… Aveai timp. Te întâlneai cu oameni de alte opinii, nu numai cu oameni din sfera de socializare, unde stai.

– Cât de mare e riscul cu confirmarea părerilor? Încotro duce?

– Duce la accentuarea manipulării. Eu cred că, dacă în următorii ani nu apar niște mașini care să facă ratingul constant al informației și al sursei de informație, algoritmi inteligenți bazați pe inteligență artificială, care să ofere filtre, și dacă nu ne dezvoltăm abilitatea de reflecție critică, atunci vom deveni niște oi.

Adică vom fi pur și simplu anesteziați. Iar ceea a spus Orwell în cărțile lui va fi nimic față de ceea ce se va întâmpla. Nu vom mai putea să distingem realitatea de ficțiune și vom trăi într-o realitate așa cum ne este servită ea de cei care sunt interesați.

Și nu o să mai fim capabili să creăm realitate. Care sunt consecințele?

Unu: libertatea redusă. Pentru că, dacă informația, așa cum ți-o dă altul, este cea care îți controlează comportamentul, tu ești mai puțin liber. Pentru că tu faci așa cum ți se spune să faci. Doi: democrația este în pericol. Toate aceste lucruri sunt exploatate deliberat.

Ceea ce vă spun eu se bazează pe științe cognitive. Toate chestiile astea sunt folosite acuma deliberat.

De pildă, în campaniile electorale, cum a fost și la cele recente din SUA, s-a folosit o tehnică de microtargeting, așa se numește.

O să vă dau un exemplu. Pe baza informațiilor pe care le găsesc pe net despre dumneavoastră, știu, de exemplu, ce preferințe aveți.

Pentru că am cumpărat baza de date de la supermarketul în care vă faceți cumpărăturile și am urmărit regularitățile și am constatat că vă place să mergeți la munte.

Mai sunt și alții la care descopăr acest lucru, și atunci vă grupez pe toți într-o categorie: oameni care iubesc muntele.

M-am uitat și pe pozele de pe Facebook, la prietenii pe care-i aveți, m-am uitat la cumpărăturile pe care le-ați făcut. Toate aceste date despre noi sunt, acum, disponibile.

Pasul doi. Îți ofer un mesaj despre persoana pe care vreau s-o votezi, împachetat în ceea ce-ți este familiar și te interesează pe tine. Îți dau o poză cu candidatul X aflat la munte și spunând: Cei care merg la munte sunt mai puternici și mai drepți decât cei care merg la mare!

Tu iei acest mesaj, începe să-ți placă de candidatul respectiv și, ulterior, orice altceva spune acel candidat e mult mai credibil pentru tine.

Deci, ce-am făcut? Ți-am strecurat în haina familiarului mesajul pe care l-am vrut eu. Am aflat ce ți-e familiar ție, ce te interesează pe tine, și ți-am transmis mesajul meu prin paradigma ta. Și alt lucru pe care l-am făcut, și care se face des, este să-ți trezesc emoție.

Mecanismul neuro-cognitiv e simplu: procesările emoționale sunt mult mai rapide și predispun spre acțiuni mult mai rapid decât procesările cognitive, decât analizele logice. Procesările reflexive îndeamnă la mai multe procesări reflexive.

Ăia care gândesc sunt predispuși să gândească mai departe, nu să acționeze. Emoțiile predispun spre acțiuni. Asta este și una dintre caracteristicile fundamentale ale oricărei emoții: predispune la acțiuni.

Și atunci, ce facem? Creăm o emoție legată de ceva, de exemplu despre organismele modificate genetic, și spunem că ele sunt o intruziune în natură, în procesul naturii, și că este incorect și toxic și așa mai departe.

Nu contează că informațiile sunt adevărate sau nu. Creăm o emoție, oamenii încep să aibă stări de anxietate, stări de emoții negative, legate de consumul organismelor modificate genetic. Deci am creat o emoție negativă aici, după care emoția începe să-și facă jocul.

„Cred că, dacă în următorii ani nu apar niște mașini care să facă ratingul constant al informației și al sursei de informație, nişte algoritmi inteligenți bazați pe inteligență artificială care să ofere filtre, și dacă nu ne dezvoltăm abilitatea de reflecție critică, atunci vom deveni niște oi.”
– Cum își face jocul?

– Dacă ai o emoție pozitivă față de o persoană sau față de o temă, atunci șansa de câștig este văzută mai probabilă și mărimea câștigului venit de la acea persoană este văzută ca fiind mai mare.

Invers, dacă ai o emoție negativă, tot ce spune persoana respectivă este văzut ca fiind mai puțin probabil și beneficiile a ceea ce spune ea ca fiind mult mai mici.

Continuarea, pe pressone.ro

© Drepturi de Autor (Copyright) - Acest articol este proprietatea Ziarul de Iasi (www.ziaruldeiasi.ro) si este protejat de Legea dreptului de autor si drepturilor conexe (8/1996). Preluarea acestui articol se poate face, potrivit reglementarilor in vigoare, doar în limita a maximum 500 de caractere, urmate obligatoriu de un link directionat catre acest articol! Orice incalcare a acestor prevederi va fi supusa procedurilor pentru intrarea in legalitate si recuperarea daunelor.

Ultima ora

editorial

Otravă şi prostie veche (I)

Cătălin ONOFREI

Otravă şi prostie veche (I)

Recurgeţi la următorul experiment mental: închipuiţi-vă că, în mai 1990, Ion Iliescu şi FSN au luat decizia istorică de a nu mai intra în lupta electorală.

Filmuletul zilei

opinii

Într-o bună zi…

Briscan ZARA

Într-o bună zi…

Anii trec, corpul îmbătrâneşte, voinţa se diminuează şi mai mult, iar la un moment dat chiar spui fără să îţi dai seama că nu mai poţi fizic face lucrurile pe care le-ai tot amânat. Nu te mai ţin balamalele. Nu mai poţi urca pe munte, nu mai poţi alerga, nu mai poţi înota, nici măcar nu mai poţi sta treaz mai târziu de ora 23, nimic. Ai amânat până ce le-ai anulat.

Conflictualitatea elitelor şi consolidarea democraţiei

Ciprian IFTIMOAEI

Conflictualitatea elitelor şi consolidarea democraţiei

Consolidarea democraţiei reprezintă un proces eminamente focalizat pe îndeplinirea unor standarde politice: alegeri libere şi corecte, independenţa mass-media, guvernare democratică (stat de drept, eficienţă, transparenţă, corectitudine în alocarea şi cheltuierea fondurilor publice, echidistanţă, imparţialitate), societate civilă, justiţie independentă, combaterea eficientă a corupţiei. 

A doua pângărire a Hagiei Sophia (Sfânta Înţelepciune) (II)

Mihai DORIN

A doua pângărire a Hagiei Sophia (Sfânta Înţelepciune) (II)

Sau cum Turcia sfidează lumea creştină.

pulspulspuls

Vă mai amintiţi de ghinărarul Plaicuboi? Iacătă-l, biznisman!

Vă mai amintiţi de ghinărarul Plaicuboi? Iacătă-l, biznisman!

Informaţii interesante ne parvin recent din lumea biznisului ieşean, stimaţi telespectatori. 

Caricatura zilei

Cu Satelitu

Editia PDF

Bancul zilei

Îi datoram multe coronavirusului. A reusit sa-i aduca pe români înapoi în tara si a putut sa le înve (...)

Linkuri

Alte ziare locale

    Intrebarea zilei

    Relaxarea condițiilpr de deplasare în starea de alertă va duce la:

    vezi raspunsuri

    Copyright 2006-2020 © Ziaruldeiasi.ro Toate drepturile rezervate.