Adriano Pessina
Il governo delle azioni
“Governare significa far credere”. Questa, prima di diventare una massima politica che è stata ampiamente utilizzata, e diversamente valutata, per indicare i meccanismi del potere sovrano e l’arte della persuasione e della simulazione, è una constatazione che coglie il nesso tra sapere e agire.
Far credere non significa, di per sé e prima di tutto, mentire, ma dare delle informazioni che influiscono sulle decisioni altrui senza fornire alcuna giustificazione della loro attendibilità e veridicità. Perciò il potere della parola è sempre connesso con la figura dell’autorità, nel bene e nel male.
Credere significa fidarsi di qualcuno e, quindi, della sua parola.
La nostra esistenza ne è testimonianza, in quanto nessuno sfugge in modo assoluto a questa condizione, che è dettata dai limiti della conoscenza che ognuno ha. Crediamo a quanto ci dice il medico e diamo un consenso, definito informato, alle indicazioni terapeutiche che troviamo scritte in un foglio, eseguendone le indicazioni. Gran parte della nostra cultura è basata, inevitabilmente, sul principio di autorità: crediamo a tutte le informazioni che un testo ci consegna senza avere la possibilità, e nemmeno la volontà, di verificarle. Più estese sono le conoscenze e meno sono verificabili.La lotta delle interpretazioni, il ricorso al dubbio metodico, la comparazione delle fonti, non elimina il principio generale. Le nostre certezze, verità credute, si straformano in rare occasioni in verità sapute e verificate.
E la verità resta sempre sullo sfondo del credere e del non credere. Non appare la menzogna se non come una verità camuffata e finalmente svelata, così come l’errore si manifesta solo nel momento in cui è corretto, riposizionandoci nella veerità. Persino lo scettico non può evitare di erigere a verità la sua diffidenza e il suo sospetto. E come ha ben illustrato la letteratura dedicata al potere totalitario, gli stratagemmi della persuasione si avvalgono spesso di verità parziali, sostenute dal potere della volontà di chi comanda e di chi ubbidisce. Perché la verità, che non dipende da alcuna volontà o decisione, che non possiamo cambiare secondo i nostri desideri, che è la solida roccia dell’indisponibile, diventa operativa grazie al potere della volontà che la asseconda o la ostacola. Questa è la condizione umana, che ha sempre bisogno della verità, che è la radice della fiducia e, quindi, dell’esistenza.Crediamo all’orario ferroviario, alle indicazioni del nostro commercialista, ai consigli dello psicologo, alle promesse del nostro amico, e crediamo sempre di più anche alle “macchine”, a partire dal navigatore satellitare che ci guida lungo un percorso, alla rete che ci fornisce una selezione di notizie, alle proposte di acquisto che un algoritmo ci sottopone dopo aver analizzato i nostri comportamenti di consumatore. Crediamo a tutto ciò che si autodefinisce intelligenza artificiale[1] e ci fidiamo degli algoritmi che ci prospettano le variazioni del mercato.
Crediamo perché ci fidiamo e ci fidiamo perché crediamo di trovarci al cospetto della verità[2]. Questa dinamica esistenziale si consolida nei confronti di tutto ciò che ci è familiare e che, quindi, consideriamo evidente.
La nuova autorità, che ci è familiare, che ci induce ad agire, è oggi la tecnologia, di cui non possiamo fare a meno o che crediamo ci sia sempre necessaria. Un cambiamento radicale, questo, perché ci induce a credere a qualcosa di cui ignoriamo il funzionamento, che dispone di fonti che restano fuori dalla nostra portata, ma che ci persuade per i risultati apprezzabili che produce. Far credere vuol dire governare e questo verbo ci rimanda alla cibernetica, la madre di quella che oggi chiamiamo, con un termine familiare e rassicurante intelligenza artificiale. Se crediamo che anche l’uomo, in fondo, non sia altro che una macchina vivente, allora ci è più facile credere che la differenza tra le intelligenze sia sostanzialmente legata al diverso supporto materiale che le costituisce.
Nel 1950, nel volume The Human Use of Human Beings, Norbert Wiener introduce la spiegazione della cibernetica, e le preoccupazioni che animano la sua riflessione, mettendo in luce come, nel corso della progettazione di apparecchi di comunicazione, sempre più capaci di imitare il comportamento umano si sia rivelata “una terrificante attitudine a sostituire la macchina-uomo in tutti quei casi in cui essa è lenta e inefficace. Ci troviamo dunque nell’urgente necessità di esaminare le capacità di queste macchine nella misura in cui esse influenzano la vita dell’uomo, e le conseguenze di questa nuova fondamentale rivoluzione nel campo della tecnica”[3].
Le credenze si articolano intorno alle informazioni e i comandi sono legati a messaggi che vengono scambiati per determinare delle azioni.
L’ idea, scrive Wiener, “che generalmente abbiamo di un messaggio è quella una comunicazione inviata da un essere umano all’ altro. Ma questo non esaurisce tutti i possibili esempi di messaggi”[4]. E per rendere chiara questa tesi, che esprime, per così dire, la radice del significato con cui anche oggi le tecnologie informatiche vengono pensate e progettate, descrive un comportamento che oggi, con ben altri apparecchi tecnologici, ci è familiare. “ Se sono pigro e la mattina, invece di alzarmi dal letto, schiaccio un bottone che apre i caloriferi, chiude la finestra e accende un fornello elettrico sotto la caffettiera, io invio un messaggio agli elementi di questi apparecchi. Se invece il bolliuova elettrico fischia dopo un certo numero di minuti, esso invia a me un suo messaggio”.[5]
Ci siamo abituati a credere in questa descrizione, costruita su una analogia che tende a equiparare due situazioni molto differenti, che oggi sembrano persino sfumare quando chiediamo a un assistente vocale, come per esempio, Alexa, di farci sentire della musica o se veniamo svegliati da una voce che esce dal nostro cellulare che ci dice che ore sono e che dobbiamo alzarci. Così, mentre digito questo testo, sul mio schermo appare una scritta che mi ricorda di aggiornare il software. Comandare e ubbidire: due attività che ci sono familiari. Ma quando gli esseri umani si scambiano dei messaggi, perché siano efficaci, occorre che siano comprensibili e basta una differenza linguistica per vanificarne la portata.Nessun comando è in grado da solo di determinare un’azione umana perché entrano sempre in gioco una serie di elementi che possono impedirne l’esecuzione.
Il comando presuppone la possibilità della disobbedienza, che può derivare da incomprensione di ciò che viene richiesto, da fraintendimenti, dalla decisione di opporsi a ciò che, per vari motivi, riteniamo di non dover fare. Potremmo semplificare questa tesi affermando che nella dinamica del comando e dell’obbedienza entra in campo quello che definiamo libertà, comunque la si possa intendere. L’imperativo morale, a differenza di quello che riteneva Kant, è efficace soltanto perché implicitamente presuppone un fine condivisibile. Persino il comando militare, che presuppone la pura e semplice obbedienza, come annota giustamente Bergson, che lo paragona all’imperativo categorico, viene eseguito a motivo di una serie di presupposti condivisi, assimilati e resi, per così dire, operativi nel nostro agire. Persino le abitudini, che spesso ci inducono ad agire come automi coscienti, possono essere spezzate da una decisione.
Il bolliuova dell’esempio di Wiener non mi avvisa: non si rivolge a me, non sa nemmeno che io esista e gli assistenti vocali non mi ubbidiscono. Le operazioni che svolge una macchina prescindono da ciò che costituisce il proprium del messaggio, che è il significato e che solo un’intelligenza umana, la stessa che ha costruito il meccanismo tecnologico, decifra. Così un “lettore” ottico non legge nulla e un traduttore automatico, per quanto efficace appaia all’intelligenza umana, non traduce più di quanto una calcolatrice faccia di conto. Quando, nel 2011, la Apple ha immesso sul mercato Siri, lo ha presentato come un “assistente intelligente che ti aiuta a fare le cose semplicemente chiedendo”: e ci abbiamo creduto, senza sapere come funziona, semplicemente perché funziona.
Nel film di Spike Jonze, del 2015 , Her, tradotto in italiano con Lei , un assistente vocale che si attribuisce da solo il nome di Samantha, diventa l’amante virtuale di Theodore che, a un certo punto le domanda perché quando parla emetta sospiri, pur non avendo bisogno di respirare, pur non essendo una persona. La domanda, annota Ed Finn, nel suo interessante volume Che cosa vogliono gli algoritmi. L’immaginazione nell’era dei computer, ha in sé la sua risposta: “la messa in scena che Samantha fa di una conversazione, di una coscienza, è di per sé la coscienza. È il segnale di una presenza, di quel particolare tipo di magia che collega azione e sentimento. Il film di Jonze inizia e termina con una ricerca romantica di conoscenza, si basa fortemente sulla fede e sull’immagine fantastica dei miti algoritmici”[6]. Il film si chiude con Samantha che lascia Theodore: “lei” alla ricerca di altre intelligenze artificiali con cui stabilire relazioni incomprensibili per gli umani, lui che, sconsolato, ritorna alla realtà.
Un film resta un film, ma il rapporto che noi intratteniamo con gli artefatti che abbiamo costruito dipende in larga parte dal linguaggio antropomorfo con cui descriviamo le loro funzioni e dall’immaginario umano, troppo umano, che ne consolida la portata. Ma non dimentichiamoci che una macchina che governa i nostri sentimenti è l’altra faccia di tutte le macchine che governano le nostre decisioni, nel campo economico, sociale, culturale e militare.
Scarica il file
A. Pessina Il governo delle azioni
NOTE
[1] Per uno sviluppo di questo tema rimandiamo ad Adriano Pessina, L’essere altrove. L’esperienza umana nell’epoca dell’intelligenza artificiale, Mimesis, Milano 203
[2] Sulla pretesa “veritativa” delle nuove tecnologie si veda Èric Sadin, Critica della ragione artificiale, trad. it. LUIS University Press, Roma 2019.
[3] Norbert Wiener, Introduzione alla cibernetica. L’uso umano degli esseri umani, trad. it., Bollati Boringhieri, Torino 2012, p. 17.
[4] Idem, p. 23.
[5] Ibidem.
[6] Ed Finn, Che cosa vogliono gli algoritmi. L’immaginazione nell’era dei computer, trad. it., Einaudi, Torino 2018, pp. 75-76.
©FILOSOFIONLINE.com