AI siamo noi

L’intelligenza artificiale, tra strumento di controllo e opportunità democratica, plasma potere e realtà. Capirne la complessità, non demonizzarla, è la vera sfida politica

Interventi
AI siamo noi

Si parla continuamente di AI e del suo potere di sopraffare la capacità decisionale umana e quindi di costituire un potente strumento di controllo e sopraffazione dei valori democratici. Ma l’AI è anche un necessario strumento di informazione. Quindi se siamo informati dei pericoli dell’AI, lo siamo grazie all’AI. Più che demonizzare il suo sistema, credo che sia necessario comprendere la complessità dell’informazione alla base del suo uso autoritario. Altrimenti si rischia di considerarla causa e non opportunità (il potere autoritario usa ogni mezzo tecnico a disposizione da sempre); si rischia di considerarla come un fenomeno reversibile e non una relazione sistemica naturalizzata che fa parte della vita sociale. Ogni tecnologia è antropogenica.

Come nella più classica tradizione fantascientifica, la creatura modifica o distrugge il suo creatore. Questa antica paura viene trasmessa da canali di informazione gestiti dall’AI e quindi viene amplificata dalla sua stessa causa. La causa della paura diventa effetto di comunicazione e l’effetto diventa “effector”, cioè amplificazione dell’effetto. Credo che questo meccanismo di feedback positivo (in termini cibernetici) getti una luce ambigua sul problema. L’AI, nelle sue forme di raccolta dati, modelli di simulazione o fake news, si autoriproduce, elabora e informa grazie ai risultati che trova. Il confronto tra poteri e contropoteri si gioca sulla raccolta di dati che fanno dell’AI un territorio di conquista. L’informazione si alimenta della ripetizione dei suoi stessi oggetti. Se sentiamo parlare di Gaza e non di Sudan (nonostante ci siano guerre di impatto simile) è perché dell’una se ne parla e dell’altra no.

Questo feedback loop orienta i giornalisti stessi che, mentre lavorano per informare sui fatti, sono anche nello stesso tempo incoraggiati a scegliere campi che garantiscono la continuità del loro lavoro e di quello della loro azienda.  Assistiamo a un rovesciamento: l’informazione (e quindi il potere che se ne alimenta – come diceva Niklas Luhmann: il potere è comunicazione) da strumento di riproduzione di fatti diventa scopo della sua stessa riproduzione. Le guerre trovano compromessi nello scambio di terre rare, che servono alla produzione di tecnologie dell’informazione. È questo fattore di ambiguità tra l’esibizione e l’opacità a generare la sensazione di una realtà virtuale pericolosa perché fuori controllo e immateriale. Un esempio eclatante è la pubblicità che OpenAI e Apple stanno facendo per un prodotto che non c’è, con la promessa che risolverà i problemi dei consumatori: «a consumer device». Il vero prodotto è la promessa1.

Non ha sorpreso nessuno che nelle parate di autoesibizione del potere autarchico le Big Tech abbiano una presenza molto forte: dall’insediamento della seconda presidenza di Trump, alla parata militare di Xi Jinping del settembre 2025, che ha dato grande enfasi alle tecnologie dell’informazione, fino al progetto saudita di costruire Neom, una smart city perfetta, gli imperi del momento si presentano come digital empires, in reciproche relazioni conflittuali di poteri e contropoteri. Il potere politico si afferma soprattutto come potere mediatico, ma allo stesso tempo il sistema mediatico basato sull’AI utilizza il sistema di potere per riprodursi. Credo che sia importante sottolineare queste ambiguità tecnologiche-politiche. Infatti, le nuove tecnologie sono, forse in uguale misura, inestricabilmente costruttive e distruttive, in una condizione di sovrapposizione di stati.

Gli esempi sono innumerevoli: si sperimentano micro-biobots che riconoscono ed eliminano cellule malate nell’organismo umano senza danneggiarlo.  Eppure, sappiamo che questa tecnologia si può usare anche per “migliorare” liberamente la struttura di un corpo, col rischio di eugenetica. L’uso del GPS e di droni può servire a sorvegliare e “prevenire” posizioni e azioni critiche da parte della società civile contro i governi, come anche a proteggere (soprattutto se si parla di donne, bambini e anziani), a monitorare il traffico, i macchinari, l’ambiente2, le piante e gli animali, di cui stiamo iniziando a comprendere un’intelligenza prima ritenuta inimmaginabile3.

Dal punto di vista pedagogico, quello che chiamiamo AI consiste in una serie di competenze molto specialistiche e quindi facilmente orientabile e ricattabile politicamente, ma può essere anche insegnata nella scuola pubblica, dando a tutti strumenti del suo apprendimento e utilizzazione. In campo finanziario i bitcoin, generati per togliere potere centralizzato alle banche, sono simultaneamente uno strumento di potere finanziario opaco (operativo nel dark web). Sul piano sociale-mediatico i social network possono rappresentare la decentralizzazione dell’informazione e il suo scambio in tempo reale. Un esperimento analogo, il Viable System Model (VSM), era già stato tentato negli anni Settanta nel Cile socialista di Allende, ma fu interrotto dal golpe. Tuttavia, i social si sono rivelati soprattutto uno strumento di raccolta dati e manipolazione mediatica. In campo politico-giuridico, l’uso dell’AI per mantenimento dell’ordine sociale in Cina è ambiguo ma oggetto di discussione, perché “funziona”; certo, non funzionerebbe mai in Europa, eppure esprime una profonda differenza culturale che costringe l’Europa a rivedere i suoi valori democratici indeboliti4.

Dal versante statunitense, le filosofie che guidano i proprietari delle Big Tech sono molto simili a quelle libertarie della sinistra americana degli anni Settanta (come era evidente nelle intenzioni di Steve Jobs). Ma ora Peter Thiel sostiene un libertarismo radicale che spazia dall’anticomunismo a forme di evoluzionismo di stampo spenceriano. È proprio questa ambiguità che lo rende pericolosamente popolare e gli permette di dare alla sua azienda e ai suoi prodotti i nomi di personaggi del Signore degli Anelli, che vengono poi venduti per dirigere i droni-bombe in guerra. Vorrei ricordare che l’uso dei droni a scopo militare è aumentato esponenzialmente da quando sono stati resi disponibili, indipendentemente dalla natura del governo che ne ha autorizzato l’uso5.

Da questi esempi trarrei delle conseguenze che non possono essere ricondotte a un mero atteggiamento causalistico: si rischia di attribuire all’AI la causa della perdita di controllo dell’ambiente da parte degli umani, mentre è solo la semplificazione di comportamenti in cui organismi e tecnologie formano relazioni sistemiche complesse. Se l’AI è stata ormai interiorizzata – soprattutto dalle nuove generazioni che crescono utilizzandola – si tratta di capire come riorientarla, ponendo dei limiti alla proprietà privata connivente con l’agenda pubblica. A questo punto mi chiedo: possiamo parlare di una “tecno-destra”? Se possiamo immaginare una “tecno-sinistra”, come si presenterebbe e quali potrebbero essere i primi passi per generarla? O dobbiamo pensare a un paradigm shift che definisca il potere oltre la polarità destra/sinistra? Che fare?

Alcuni suggerimenti vengono dalle nuove generazioni che, essendo native delle nuove tecnologie, percepiscono il loro impatto diversamente, probabilmente in maniera meno irruenta, vivendole come embodied. Decideranno di disattivare la categoria dell’algoritmo (anche detta Outernet)? O tenteranno di espropriarla, per orientarla in modo non autoritario? O richiederanno leggi che ne limitino la proprietà, creando regole di comportamento etico? In questo caso, come creare regole globali che siano anche però decentralizzate, in senso democratico e non libertario, né preventivo? O faranno dimostrazioni in luoghi fisici, sottraendo all’AI il falso carattere virtuale se, come nota Katherine Hayles, siamo anche noi cognitive assemblages di diversi materiali, organici e tecnologici, e se le stesse tecnologie percorrono materialmente enormi distanze sottoterra e sott’acqua con cavi enormi, o si presentano (e si nascondono) in vaste infrastrutture che ospitano data center, o hub di distribuzione? Si svilupperanno sindacati digitali, che possano dare potere contrattuale ai lavoratori del Big Tech che non hanno ancora voce per difendere i loro diritti?  Sapranno, per abitudine consolidata dall’uso naturalizzato, collaborare con l’AI accompagnandola e riorientandola con la qualità tutta umana dell’esplorazione, dell’attività abduttiva ed euristica di trial and error, ricostruendo il lungo lavoro che l’AI non trova sul web e che porta a quei risultati?

È la qualità dell’incertezza che può salvare la società civile dalle false certezze del potere. Meno incerti siamo, o siamo indotti a essere, più ci schieriamo da una parte o dall’altra, dandoci in pasto a quello che Gregory Bateson chiamava schismogenesi, la polarizzazione di opinioni e azioni, che alimenta solo conflitti. Questa logica opposizionale e binaria è proprio la logica algoritmica dello 0/1, che elimina la complessità dei problemi e possibili soluzioni alternative. Se c’è una resistenza al suo uso dannoso, può essere praticata solo al livello di società civile. Queste strade aperte cominciano infatti a essere esplorate e credo che oltre a limitare la proprietà privata di queste tecnologie – che è un problema cruciale – ne rielaboreranno il valore in termini democratici. L’ex ministro degli affari digitali a Taiwan, Audrey Tang, mette in guardia da quello che chiama techlash: l’incapacità delle democrazie europee di comprendere l’AI, danneggiando così proprio la democrazia. Se infatti si investe di meno, se si usano vecchie applicazioni e non si fa ricerca sulle nuove tecnologie, si lascia che in questo campo avanzino i regimi dittatoriali6.

Si tratta ora di costruire, da prodotti e produttori di comportamenti, nuove identità che includano, riorientandola, l’AI.


  1. Cfr. https://www.reuters.com/world/china/openai-taps-apple-supplier-make-ai-device-information-reports-2025-09-19/ ↩︎
  2. Cfr. https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2019)642230 ↩︎
  3. Gal Badhi, Kristy E. Graham, Brittany Fallon, Alexandra Safryghin, Adrian Soldati, Klaus Zuberbühler, Catherine Hobaiter, Dialects in leaf-clipping and other leaf-modifying gestures between neighbouring communities of East African chimpanzees, in «Scientific reports», n. 13, 2023. ↩︎
  4. Alberto Bradanini, Cina. L’irresistibile ascesa, Teti, 2022. ↩︎
  5. Cfr. https://www.marketsandmarkets.com/Market-Reports/drone-detection-market-199519485.html; https://www.marketsandmarkets.com/report-search-page.asp?rpt=drone-detection-market ↩︎
  6. Audrey Tang, Eric Glen Weyl, Plurality. The Future of Collaborative Technology and Democracy, 2024. ↩︎

Brunella Antomarini

Brunella Antomarini insegna Estetica e Filosofia contemporanea alla John Cabot University a Roma. Per Castelvecchi ha pubblicato Le macchine nubili (2020) e curato due volumi di Yuk Hui, Pensare la contingenza. La rinascita della filosofia dopo la cibernetica (2022) e Tecnodiversità. Tecnologia e politica (2024)

Iscriviti alla Newsletter di Winston

Inserisci il tuo indirizzo email
Per iscriverti devi accettare la Privacy Policy