Gaslighting, la manipolazione è impercettibile

Una forma di violenza insidiosa e sottile che dai rapporti interpersonali si estende anche alla dimensione culturale e digitale

Un uomo porta progressivamente la propria moglie alla follia attraverso vari espedienti; uno tra questi è affievolire le luci a gas della casa e negare che ciò accada davvero davanti alla moglie facendole credere che sia frutto della sua immaginazione. La moglie in buona fede finirà con l’essere vittima del marito e dei suoi fini diabolici. È quanto succede in Angoscia, un film del 1944 firmato da Cukor, adattamento cinematografico di un’opera teatrale del 1938 dal titolo Gas light. Da qui Gaslighting, un verbo che letteralmente si traduce con illuminazione a gas, che non ha un vero corrispettivo in italiano ma che può essere definito in psicologia come una serie azioni che il soggetto abusante (Gaslighter) mette in atto per minare la fiducia che la vittima ripone in sé stessa destabilizzando le sue convinzioni sulla realtà, inducendo sentimenti di confusione sino al vero e proprio distacco dalla realtà.
Scopi maligni
Questa parola può essere associata al termine manipolazione, ma è operata a soli scopi maligni, in maniera subdola e può assumere diverse sfumature. Nello specifico il Gaslighter vuole ottenere un vantaggio o mantenere un potere esercitando una manipolazione attraverso comportamenti e false narrazioni controllate nel tempo, ma senza aggressioni fisiche o verbali. Dall’altra parte della manipolazione ci sono una o più vittime che si trovano già in una posizione di subalternità e passando dall’incredulità rispetto a quello che sta accadendo lentamente possono diventare depresse e dipendenti dal giudizio del manipolatore.
Forme standard e… derivazioni
Il termine Gaslighting può indicare ogni forma di manipolazione interpersonale: tra marito e moglie, genitori e figli, o tra colleghi di lavoro. Ma in senso più ampio si potrebbe riflettere anche su due forme di Gaslighting meno comuni: quello di tipo culturale e quello digitale. Si tratta di una manipolazione a livello culturale su scala più ampia da parte di una persona o di un ristretto numero di persone nei confronti di molti; come quando un potere eletto, una società, una setta o un’altra organizzazione agisce per erodere il senso della realtà dei suoi elettori, dei suoi lavoratori, dei suoi seguaci… I modi di procedere sono simili a quello interpersonale tra cui mentire, reinterpretare il passato e ridicolizzare l’opinione dell’altro. L’obiettivo finale resta quello di costringere un gruppo di persone a mettere in discussione la propria versione della realtà senza poterla difendere, confrontare e discutere in modo da accettare la versione presentata dal manipolatore, Gaslighter.
Prevaricazioni «invisibili»
Quando il “buon prevaricatore” costruisce o nega una narrazione sulla base di opinioni e non di fatti, ridicolizza e procede senza confronti dalla sua posizione dominante è allora che possiamo definirlo come una forma di Gaslighting. Poiché questo tipo di comportamento non deve necessariamente comportare una vera e propria aggressione e nemmeno un confronto, può facilmente passare inosservato e la vittima può essere sottilmente soggiogata da un gruppo di “buoni” senza nemmeno accorgersene. Nell’arena pubblica, quali potrebbero essere i pensieri messi in atto per mantenere o indebolire una parte della società o un gruppo minoritario?
È appena di giugno la catena di proteste scatenate in tutto il mondo dopo la morte violenta di George Floyd, culminate nella rimozione forzata delle statue di generali ed eroi confederati che hanno costruito la loro ricchezza sulla tratta degli schiavi. Il gesto di protesta resta violento e come tale criticabile, ma resta interessante il dibattito a vari livelli che ha suscitato e aperto nelle città dell’Inghilterra, del Belgio e degli Stati Uniti. In molti casi si è trattato di un civile confronto tra cittadini e amministrazioni pubbliche che ha portato a pensare a nuove collocazioni. Nel caso della statua di R. Milligan, mercante e schiavista scozzese, situata davanti il Museo di Londra, nella zona portuale, è stata trovata una ricollocazione dal sindaco di Londra Khan, “consapevole che la ricchezza britannica fondata sulla tratta degli schiavi non è un evento da celebrare in un luogo pubblico”. È cambiata così la narrazione di un periodo della storia giudicato dal consiglio comunale “problematico”.
I rischi nel mondo digitale
Passando alla dimensione digitale sono innegabili i vantaggi che derivano dal fatto di poter iniziare l’acquisto di un prodotto con una App sullo smartfhone, magari sul sito e-commerce di Amazon e poi proseguire e concludere l’acquisto sul Pc o viceversa, oppure poter inviare l’ordine dalla SmartTv, mentre la voce di Alexa legge gli ultimi feed su FB, di preparare il caffè in ufficio perché si faccia trovare pronto al nostro arrivo a casa, che sarà in orario dal momento che viaggiamo a bordo di una Tesla con navigatore automatico. Ma serve cautela e dovremmo prendere coscienza che stiamo parlando di quello che il libro del Prof. Shoshana Zuboff chiama “il capitalismo di sorveglianza”.
C’è una crescente consapevolezza nella società riguardo al fatto che potremmo essere monitorati in ogni momento e questo sta portando a un tipo di Panopticon digitale, un’enorme piazza di scambi sorvegliata e gestita da pochi che influenza i comportamenti di molti cittadini. Stiamo solo cominciando ad affrontare le implicazioni nel prendere coscienza dell’accordo che abbiamo fatto per i servizi gratuiti su Internet e sulla cessione dei nostri dati personali; che il prezzo di questo accordo sia molto più alto di quanto sospettato?
La diversità culturale
Un rapporto pubblicato da Amnesty International a novembre 2019 intitolato Surveillance Giants afferma con enfasi che la sorveglianza pervasiva di Facebook e Google rappresenta un pericolo senza precedenti per i diritti umani. Il rapporto esorta i governi di tutto il mondo ad agire immediatamente per regolamentare i Big Data. In un passaggio del rapporto si legge: “Le persone che sono sotto costante sorveglianza sono sottoposte a pressioni per conformarsi. Il ruolo chiave della privacy nella formazione di identità diverse incoraggia la diversità culturale. Avere identità stratificate è spesso la condizione fondamentale di qualsiasi gruppo minoritario che cerca di vivere, lavorare e sopravvivere in una cultura dominante”.
Il diritto alla privacy
La cessione di dati da parte di FB a terzi o estrazione “data Mining”, analisi e utilizzo dei dati personali rielaborati da avanzati algoritmi, su una scala senza precedenti, è incompatibile con ogni elemento del diritto alla privacy, compresa la libertà di espressione e opinione e al divieto di discriminazione. Lo scandalo di Cambridge Analytica, società che ha dichiarato fallimento nel 2018 e che pare sia intervenuta per influenzare e manipolare diverse campagne elettorali e referendarie svoltesi negli ultimi anni. Questa esperienza dimostra come il cambiamento dei pensieri nei soggetti più “indecisi” nel caso di campagne elettorali, ma in generale, può essere forzato se si individuano precisi target a cui indirizzare messaggi personalizzati. Nel tempo queste informazioni, pubblicità personalizzate finiscono per condizionarci, fornirci un’esperienza di realtà non verificata dai fatti, diventando a nostra volta agenti di manipolazione non coscienti. Eppure siamo noi ad aver pensato a quelle affermazioni, ad aver espresso il diritto di voto, ad aver acquistato e valutato quei prodotti nella più totale apparente libertà e orgogliosi di pensarci pure fuori dagli schemi. Il Gaslighing ha operato sui nostri valori più profondi e in certi casi a livello di identità.
Trappole da evitare
“Google e Facebook hanno intaccato e svuotato progressivamente la nostra privacy. Siamo in trappola. O ci sottomettiamo al meccanismo della sorveglianza, nel quale i nostri dati sono usati come arma a scopi di condizionamento e manipolazione, o dobbiamo rinunciare ai benefici del mondo digitale…”, commenta Kumi Naidoo, segretario generale di Amnesty International. In un altro passaggio aggiunge: “…la tecnologia di Internet in sé non è incompatibile con i diritti delle persone, ma lo è invece il modello di business scelto dai giganti del tech”.
Fake news e false realtà
Si discute tanto e si guarda con sospetto allo sviluppo dell’intelligenza artificiale, paradossalmente la stessa che molte autorità usano per distinguere tra l’autentico e il falso e quindi bloccare i troll di Internet (utenti che intenzionalmente provocano o offendono), le “notizie false”, il furto di identità, i bot (software in grado di interagire con gli utenti) ecc. Con l’aumento del numero di invasioni della privacy, del proliferare di fonti di notizie false comprovate da parte di governi stranieri e degli scandali sui social media, le autorità preposte e la legislazione che dovrebbe proteggere e vigilare per distinguere “il vero dal falso” o la manipolazione per fini commerciali, si sono trovati non preparati e lenti nel prendere misure adeguate con conseguenze psicologiche sui cittadini e asimmetrie di mercato sotto la percezione di tutti.
I «falsi umani»
La marea di media digitali e l’uso di algoritmi possono determinare un senso di paura o di ansia; forse anche di paranoia, un sentimento che riporta a uno dei tanti personaggi immersi nei mondi del romanziere di fantascienza F. K. Dick nelle cui narrazioni c’è però un messaggio di speranza perché nei suoi mondi distopici, lo scrittore crea personaggi psicologicamente complessi capaci di reagire, affrontare e talvolta superare le crisi di “lavaggio del cervello” che subiscono. In un suo romanzo di fantascienza Dick scrive dei “falsi umani” per illustrare l’idea di persone che interagiscono con realtà fasulle online, create e ripetute di continuo da agenti esterni. Gli utenti si ritrovano quindi manipolati nel rafforzare e formare altre idee, opinioni e paradigmi a partire da informazioni volutamente false, alterate o incomplete. I “falsi umani” diventano merce, un bene da comprare e scambiare da parte dei manipolatori. Mentre il mondo politico dallo scandalo di Cambridge Analytica si è preoccupato su un’area ristretta, esplorando il modo in cui tutto questo ha influito sulle elezioni, sembra si stia sottovalutando la questione di come questo influisca sulla società nel suo complesso. La soluzione generale a cui si guarda per attrezzarsi degli strumenti legislativi e di protezione a favori di tutti gli utenti di App e apparecchi connessi, sarebbe la possibilità per ognuno di noi di appropriarsi dei propri dati e avere la garanzia che verranno cancellati dalle società che li possiedono.
Camere d’eco online
Le informazioni strategiche e mirate sul posizionamento online creano, usando una descrizione metaforica anglosassone, le “camere d’eco” per i consumatori di media digitali. In ambienti definiti, la ripetizione di informazioni accentua i pregiudizi esistenti e convalida le cospirazioni e le paranoie che diversamente sarebbero respinte attraverso una verifica dei fatti. Questo effetto si amplifica quando gli strumenti per scoprire, filtrare e distribuire le informazioni sviluppati da aziende come Google e Facebook ci assicurano di essere perennemente trasportati dentro un fiume di informazioni di immediato interesse per gli utenti e in quantità ben superiori a quelle che il cervello è in grado di gestire. Poiché il cervello umano è “inondato di informazioni” comincia a usare scorciatoie nel ragionamento e nella logica per mantenere il flusso del pensiero. Queste decisioni seguono le regole euristiche della psicologia, quindi sono rapide ed efficaci ed hanno come effetto quello di ridurre la resistenza degli utenti di Internet alla verifica delle false informazioni attraverso i fatti.
Effetto Verità Illusoria
Man mano che il cervello sviluppa l’euristica per trarre conclusioni rapidamente e con pochi dati, potrebbe confondere le informazioni ripetitive con quelle vere, anche se si tratta di informazioni che sono in qualche modo “ridicole” e false. Questo fenomeno peculiare è noto come Effetto Verità Illusoria e ha preso piede in molti forum su Internet e nei social media.

La caffettiera sospetta e Internet delle cose

Era terribilmente pericoloso lasciar vagare i propri pensieri quando ci si trovava in un luogo pubblico o nel raggio d’azione di un teleschermo. Il particolare più insignificante poteva tradirti.
George Orwell, 1984

La smart TV, i campanelli delle porte video intelligenti, persino la nostra caffettiera regolata da una App sono elettrodomestici intelligenti potenzialmente sospetti. Ad esempio Google, Apple e Amazon rassicurano che i loro microfoni non sono costantemente accesi perché attivati solo da alcune parole chiave, in gergo “trigger”; ad esempio “OK, Google” attiva l’assistente di Google, ma poi viene da chiedersi: se il microfono è inattivo, come può riconoscere un comando vocale come “OK, Google”? Le stesse grandi aziende della Silicon Valley, in maniera un po’ nebulosa affermano che i dati vocali ascoltati in assenza di frasi di attivazione verrebbero scartati.
Tuttavia a chi non è successo di sentire intromettersi dalla propria tasca o dalla propria borsa l’assistente virtuale Siri o Echo nel dire gentilmente la sua opinione non chiamato in causa?

Il contagio dell’umore
In un esperimento del contagio dell’umore del 2014 Facebook ha intenzionalmente manipolato più di mezzo milione di persone. Lo ha fatto per vedere quali risultati avrebbe potuto produrre sull’umore attraverso l’algoritmo che regola le newsfeed mirate per suscitare a comando una prevalenza di emozioni negative o positive. Le ragioni per una riflessione non mancano. L’esperimento per il momento ha creato alterazioni dell’umore impercettibili, ma è già in grado di determinare i contenuti del feed a seconda dello spazio pubblicitario investito da alcune aziende. È noto che Facebook adatti i suoi annunci a quello che si digita su Google e forse pure a quello che si dice attivando certe espressioni, parole chiave o “trigger”. Ma se riuscisse ad adattare pure i suoi annunci a quello che ritiene sia il nostro attuale stato emotivo questo potrebbe indurci a pensare che senza rendercene conto siamo manipolati e studiati ogni giorno come pesci in un acquario.
Gli interventi dei garanti
Conforta trovare notizie in cui Facebook nega la pubblicità sulla base dello stato emotivo degli utenti, ma ancora di più realizzare come nel mondo le autorità garanti dei governi stiano realiz-zando l’entità del problema. E del giugno 2019 l’ordinanza di ingiunzione nei confronti di Face-bok Ireland e Facebook Italia nella protezione dei dati personali. È invece di luglio 2020 la noti-zia in cui per la prima volta nella storia le quattro “big Tech” (Apple, Amazon, facebook e Google), attraverso i loro CEO, si sono difese davanti al Congresso degli Stati Uniti per rispondere di pratiche anti concorrenziali. È evidente che il Gaslighting trova terreno fertile all’interno di un mercato asimmetrico, in cui è facile il passaggio di dati tra diversi apparecchi e software e le cui regole di controllo applicate dalle stesse compagnie sono volutamente a maglie larghe per ottenere sempre più circolazione e fughe.

«Il doppio legame»
Nell’ambito interpersonale della manipolazione è forte il richiamo agli studi dell’antropologo Gregory Bateson, che ha avanzato quella che ha chiamato la teoria del doppio legame. Secondo Bateson, un doppio legame si verifica quando riceviamo due messaggi contrastanti – per esempio qualcuno esprime amore mentre la sua espressione facciale e il linguaggio del corpo comunicano disgusto – così in contrasto tra loro che rispondere con successo all’uno significa fallire nella risposta all’altro. Abbracciare la persona che esprime il suo amore significa che probabilmente non si sta rispondendo in modo adeguato alla sua antipatia. I doppi legami creano una sequenza di suggerimenti ripetuti che, insieme, favoriscono l’idea che non ci si può fidare delle proprie percezioni o dei propri sentimenti. In questo siamo portati a credere che la figura autoritaria, sia l’unica con conoscenze di cui fidarsi.

Facebook Commenti