MODELLI E REALTÀ DI OGGI #1 – Cosa c’è in comune fra una pentola d’acqua che bolle su un fornello a gas e l’interazione fra gli esseri umani e i social media? Apparentemente nulla… eppure l’effetto che i social media hanno sulle persone è governato da un principio comune con quello del fornello sulla pentola. E lo useremo per spiegare perché i social media possono amplificare il meglio o, purtroppo, soprattutto il peggio nelle persone.
Realtà e controllo in retroazione
Moltissimi elementi del mondo reale evolvono nel tempo sulla base di un principio fisico-ingegneristico chiamato controllo in retroazione, rappresentato nella figura accanto. Per spiegare in pratica come questo funziona partiamo da qualcosa che usiamo nel quotidiano, il fornello per cuocere i cibi. Se poniamo una pentola con dell’acqua sopra un fornello a gas, come quelli tipicamente presenti nelle nostre cucine di casa, appare evidente che la velocità con cui l’acqua arriva a bollire è proporzionale alla intensità della fiamma, che a sua volta è proporzionale al flusso del gas, controllato dalla manopola apposita. Meno evidente dal punto di vista visivo, ma analogo, è il funzionamento di un fornello elettrico o a induzione, nel cui caso la manopola comanda la potenza elettrica fatta passare alla piastra o all’induttore. Dal momento in cui l’ebollizione comincia, la forza dell’ebollizione stessa (ossia il numero e le dimensioni delle bolle, e quindi la quantità di acqua che evapora nella unità di tempo) è proporzionale alla intensità della fiamma.
Schema del controllo in retroazione.
In funzione del tempo in cui vogliamo che l’ebollizione duri noi decidiamo la potenza della fiamma, attraverso il nostro intervento di regolazione sulla manopola. In altri termini, se l’acqua bolle troppo forte abbassiamo la fiamma, ossia ne riduciamo l’intensità, mentre se l’acqua bolle troppo piano alziamo la fiamma, ossia ne aumentiamo l’intensità. Quindi stiamo applicando un controllo in retroazione negativa, ossia, per mantenere la forza della ebollizione sotto controllo e nell’intervallo voluto, applichiamo un ingresso di controllo di segno opposto rispetto alla grandezza di uscita: se l’ebollizione è troppo intensa applichiamo un comando negativo (l’abbassamento della fiamma) e se è poco intensa applichiamo un comando positivo (l’innalzamento della fiamma). Da moltissimo tempo esistono anche strumenti automatici per fare questo. Solo a titolo di esempio, i termostati che controllano i nostri scaldabagni, le nostre caldaie ecc… Ed il controllo in retroazione in realtà serve anche nei movimenti del corpo umano, nello sport, nei sistemi complessi come le aziende, come spiegato in questo articolo.
Ma cosa accadrebbe se applicassimo il comando con lo stesso segno dell’effetto che vogliamo invece ridurre? Se, cioè, con l’acqua che bolle molto forte noi continuassimo ad alzare la fiamma? L’acqua bollirebbe sempre più forte, sino ad evaporare tutta, e poi la pentola potrebbe bruciare e danneggiarsi. Questo è l’effetto della retroazione positiva, che tende ad amplificare e quindi rendere sempre più intensi gli effetti in uscita. Per dimostrare gli effetti della retroazione positiva durante i corsi universitari ci fu mostrato il disastro del ponte Tacoma del 1938, visibile in questo filmato. I cavi che tenevano sospeso il ponte furono messi in oscillazione dal vento e le oscillazioni, sempre alimentate dal vento, continuarono ad aumentare, sino a fare letteralmente esplodere l’intera struttura.
Il fornello è una metafora per spiegare l’influenza dei social media nell’amplificare i nostri comportamenti.
I social media come amplificatori di comportamento
Cosa c’è dunque in comune fra il fornello sopra descritto e i social media più diffusi? Per rispondere, partiamo da uno dei principi di funzionamento di molti strumenti internet, come appunto social media e motori di ricerca [1]. Una volta identificato un utente (che è entrato nel social media con le proprie credenziali o si è già collegato più volte al motore di ricerca e viene quindi tracciato) se ne registra il comportamento, ossia si valutano le ricerche o l’accesso a contenuti o profili di altri utenti, in modo da costruire un modello di comportamento per l’utente. Questa operazione ha diversi scopi:
- fornire contenuti dello stesso tipo delle prime ricerche, che secondo una visione semplificata del modello sono quelli che più interessano l’utente sotto esame;
- prevedere il comportamento dell’utente quanto a scelte di prodotti, e quindi fornirgli una pubblicità molto mirata che abbia una elevata probabilità di portare ad un acquisto dei prodotti o servizi da parte dell’utente stesso;
- confrontando i profili di più utenti “simili”, costruire modelli comportamentali più precisi, che possano prevedere, statisticamente, che persone con certe caratteristiche di età, sesso, provenienza geografica, livello di istruzione, lavoro, reddito ecc… possano gradire di più certi contenuti, certi tipi di messaggi (anche politici…) e certi prodotti.
Consapevolezza e senso critico sono gli strumenti a nostra disposizione per usare correttamente queste tecnologie.
Quindi in pratica la persona risulterà sempre e sempre più ferrea nelle proprie convinzioni, che contenuti ad esse vicini continueranno a rafforzare e ad amplificare, in un ciclo a retroazione positiva. E quindi si arriva facilmente a conclusioni come “il mio leader politico ha sempre ragione”, “gli altri leader sono dei ladri…” e messaggi ripetuti a contenuto non pacifico possono portare a conseguenze anche gravi. Se poi questi meccanismi, come è accaduto spesso negli ultimi anni, sono anche sfruttati da macchine propagandistiche, ecco le fake news, ecco che le tensioni si amplificano, ecco che eventi ritenuti impossibili come la Brexit si realizzano, ecco che i terrapiattisti e no-vax aumentano di numero, ecco che si verificano episodi come l’assalto al Campidoglio a Washington. Dopo tale episodio anche Facebook è corsa ai ripari, annunciando la modifica di uso dell’algoritmo, con la esclusione della presentazione esclusiva (e della conseguente amplificazione) delle ideologie politiche. Vedremo solo fra qualche tempo quanto tale decisione contribuirà effettivamente a ridurre questi effetti di amplificazione.
Cosa può rimediare a tutto questo?
- Con la consapevolezza del funzionamento degli strumenti che noi usiamo ogni giorno, che solo apparentemente sono gratuiti;
- Con lo sviluppo del senso critico: una cosa è vera solo se dimostrabile e basata su fatti verificabili, non solo perché qualcuno l’ha “scritta su Internet”;
- Con la consapevolezza che esistono macchine propagandistiche, ancora più efficienti di quelle che in passato hanno creato consenso intorno a regimi dittatoriali disumani, e persone prive di scrupoli che le usano;
- Con la conoscenza e l’adesione a valori che dovrebbero essere universali per tutti.
di Giulio Destri
Bibliografia
[1] Ken Auletta – L’effetto Google – Ed. Garzanti, 2009
[2] Brittany Kaiser – La dittatura dei dati – Ed. HarperCollins, 2019