Danni e Responsabilità al Tempo dei Social Media

Negli ultimi giorni si è parlato molto delle sentenze contro Meta e YouTube, condannate a rimborsare circa 400 milioni di dollari per aver costruito piattaforme progettate per trattenere, agganciare, consumare attenzione — soprattutto quella dei minori. E la reazione, com’era prevedibile, si è divisa in due tribù: da una parte i celebranti della vittoria storica, quelli che vedono in ogni sentenza la fine dell’impero e l’alba della giustizia; dall’altra i cinici di professione, già pronti a spiegare che tanto non cambierà nulla, che le big tech si comprano tutto, perfino il mal di pancia del tribunale. La verità, come spesso accade, sta in un punto meno teatrale e più interessante: questa condanna è un segnale importante, sì, ma non perché abbia risolto il problema. Piuttosto perché ha incrinato l’aura di invincibilità di chi, per anni, ha potuto presentarsi come semplice intermediario neutrale mentre progettava ambienti digitali tutt’altro che innocenti. E i documenti interni emersi nei processi, con dipendenti che paragonavano le strategie delle piattaforme a quelle dell’industria del tabacco, non lasciano molto spazio al folklore aziendale delle grandi missioni per “connettere il mondo”. Qui non si trattava di connettere nessuno: si trattava di trattenere.

Il problema, però, è che la struttura implicita di queste condanne è fin troppo ordinata. Sembra quasi rassicurante, nella sua geometria morale: c’è una piattaforma, c’è un danno, c’è un responsabile. Una linea retta. Un colpevole. Una vittima. Un risarcimento. Il diritto, che ama le categorie chiare quasi quanto odia le sfumature, funziona bene così quando ha davanti un prodotto difettoso, una sostanza tossica, un farmaco mal progettato. Ma i social media non sono un macchinario che si rompe, né una pillola che fa male in modo lineare. Sono ambienti adattivi, sistemi vivi nel senso più inquietante del termine: cambiano mentre li usi, si modellano sulle tue reazioni, imparano dai tuoi silenzi, dai tuoi clic, dalle tue esitazioni. E soprattutto imparano in massa. Non c’è un singolo gesto da cui discende tutto; c’è un’interazione continua tra utenti e algoritmi, un balletto quotidiano in cui nessuno dei due attori è davvero passivo. La piattaforma osserva, seleziona, rinforza. L’utente esplora, reagisce, si abitua. E alla fine il risultato non assomiglia affatto a una catena causa-effetto, ma a una struttura complessa, organizzata, capace di produrre comportamenti collettivi che nessuno dei singoli partecipanti avrebbe saputo immaginare da solo.

Ed è qui che la faccenda si fa interessante, e un po’ più scomoda per tutti. Perché quando si analizzano milioni di utenti su archi temporali lunghi, il caos apparente lascia spazio a un ordine molto preciso. Non un ordine rassicurante, naturalmente. Un ordine selettivo. L’ecosistema informativo non si distribuisce in modo uniforme, non spalanca il mondo come una biblioteca infinita e neutra, ma tende a segregare, separare, riassemblare. Le echo chambers, tanto spesso liquidate come una moda semantica per professori ansiosi di battezzare l’ovvio, non sono affatto una curiosità temporanea: sono configurazioni stabili che emergono dall’incontro tra le nostre preferenze e i meccanismi di selezione algoritmica. In altre parole, non ci limitiamo a “scegliere” contenuti. Ci collochiamo in ambienti che ci somigliano, ci confermano, ci proteggono dalla fatica del dissenso. E nel tempo questi ambienti diventano riconoscibili, quasi ideologici nella loro coerenza interna. Più che social network, certe piattaforme sembrano ecosistemi paralleli: mondi in miniatura con il loro lessico, i loro nemici, i loro rituali, le loro verità già pronte all’uso.

Chiamarle echo platforms non è solo un esercizio di stile accademico. È un modo per dire che il sistema non ti cambia idea con un colpo secco, da propaganda sovietica in salsa californiana. Più spesso fa qualcosa di molto più efficace e molto meno appariscente: ti rende più sicuro di quella che hai già. Ti accompagna verso una fiducia crescente nelle tue convinzioni, come un cameriere troppo premuroso che non ti porta il menu nuovo ma ti riempie continuamente il bicchiere di quello che avevi già ordinato. E se il piatto era indigesto, peggio per te: a forza di insistere, finisci per confondere la familiarità con la verità. È qui che il confirmation bias smette di essere un semplice errore cognitivo e diventa il carburante del sistema. Non è un incidente; è la grammatica interna del meccanismo. Il feed non si limita a registrare ciò che ti piace: impara a ripetertelo in forme sempre più convincenti, sempre meno disturbate da elementi dissonanti. Il risultato non è necessariamente la produzione sistematica di falsità, almeno non nel senso grossolano del termine. Il punto è più sottile e, proprio per questo, più pericoloso: il sistema costruisce ridondanza epistemica. Rinforza ciò che è già creduto, riduce l’esposizione a ciò che potrebbe contraddirlo, e alla lunga rende l’idea stessa di confronto meno naturale, quasi sospetta.

Questo cambia completamente la natura del problema. Perché il danno non si concentra in un singolo punto facilmente identificabile, come una sostanza contaminata o un difetto meccanico. Si distribuisce lungo una traiettoria. Si accumula. Si autoalimenta. Nasce da un’ottimizzazione che, per sua costruzione, non incorpora alcun vincolo epistemico. L’obiettivo della piattaforma non è avvicinarti alla realtà, ma trattenerti dentro un circuito di attenzione prevedibile e monetizzabile. E quando la verità entra in competizione con il tempo di permanenza, indovinate un po’ chi perde quasi sempre? Non la menzogna, attenzione. A volte nemmeno la bugia esplicita. Piuttosto perde la complessità, perde la sfumatura, perde l’attrito necessario per pensare davvero. In questo senso, il problema non è soltanto che le piattaforme possano facilitare la disinformazione. È che possono alterare il modo in cui il vero e il falso vengono incontrati, filtrati, ricordati e validati.

Ed è proprio qui che la sentenza contro Meta, per quanto giusta e necessaria, mostra il suo limite strutturale. Perché continua a cercare una responsabilità a valle, sugli effetti, come se fosse ancora possibile individuare con precisione un nesso lineare tra progettazione della piattaforma e danno finale. Ma il fenomeno è distribuito, cumulativo, non lineare. Non agisce come una freccia; agisce come una corrente. E questo il diritto, poveraccio, lo sa benissimo: è bravissimo a inseguire il danno, meno bravo a inquadrare il terreno che lo rende possibile. La questione allora non è soltanto giuridica. È epistemica. Riguarda le condizioni in cui la conoscenza si forma, si distribuisce, si legittima. Riguarda il fatto che oggi l’accesso alle informazioni non garantisce più automaticamente un orizzonte comune di realtà. Si può essere immersi nella stessa piattaforma e abitare, di fatto, mondi interpretativi diversi, incompatibili, autosufficienti. Si può leggere la stessa notizia e trarne universi morali opposti. Si può vedere lo stesso evento e non condividere più nemmeno il lessico per descriverlo.

Ed è forse questo il punto più inquietante di tutti, e anche il più sottovalutato. Il rischio non è solo la dipendenza, né soltanto il danno psicologico, che pure restano enormi e documentabili. Il rischio è la frammentazione progressiva dello spazio informativo. Un campo comune della verità che si assottiglia, si spezza, si riflette in mille superfici separate. Non esiste più una realtà condivisa per inerzia: bisogna costruirla, difenderla, verificare continuamente che non si stia dissolvendo in un’ennesima versione personalizzata del mondo. E quando la verità smette di essere una proprietà condivisa e diventa una funzione del contesto in cui sei immerso, allora non stiamo più parlando soltanto di tecnologia. Stiamo parlando di società, di democrazia, di linguaggio. Stiamo parlando, molto semplicemente, del terreno su cui una comunità decide se esiste ancora un “noi” oppure solo una folla di monadi connesse, ciascuna convinta di aver capito tutto perché ha ricevuto, per l’ennesima volta, la conferma perfetta delle proprie idee. E questa, più di ogni sentenza, dovrebbe preoccuparci.

(Giancarlo Salvetti)

Prompt:

Intro: Negli ultimi giorni si è parlato molto delle sentenze contro Meta e YouTube, che sono state condannate a rimborsare circa 400 milioni di dollari per aver progettato le proprie piattaforme con l'obiettivo di creare dipendenza, specialmente tra i minori. Da un lato c'è chi ha letto la notizia come una vittoria storica, la fine dell'impunità per le big tech. Ed è vero, è un segnale importante, che arriva dal basso e mina quella che qualcuno ha definito l'invincibilità delle grandi aziende tecnologiche. Le cause si basano su documenti interni che dimostrano come fossero a conoscenza dei danni, con dipendenti che paragonavano le loro strategie a quelle dell'industria del tabacco.

parte 1: Il problema è che la struttura implicita di queste condanne è perfettamente lineare: esiste una piattaforma che causa un danno, e quindi qualcuno deve essere ritenuto responsabile. È un modello che funziona bene per i prodotti industriali o per i farmaci, ma che rischia di essere profondamente incompleto quando applicato ai social media. Perché queste non sono entità statiche, ma sistemi adattivi che evolvono attraverso l'interazione continua tra utenti e algoritmi. Quando li osservi su larga scala, ciò che emerge non è una semplice catena causa-effetto, ma una struttura complessa e organizzata.

parte 2: Negli ultimi anni, analizzando queste dinamiche su milioni di utenti e su archi temporali lunghi, è emerso un quadro molto chiaro. L'ecosistema informativo non è caotico, ma altamente organizzato intorno a un principio: la segregazione. Le echo chambers non sono anomalie temporanee, ma configurazioni stabili che emergono dall'interazione tra le nostre preferenze e i meccanismi di selezione algoritmica. Gli utenti non si limitano a scegliere contenuti, ma si collocano in ambienti informativi coerenti, dando vita a quelle che potremmo definire echo platforms: piattaforme che nel tempo assumono profili ideologici distinti, persistenti e riconoscibili. Il sistema non ti cambia idea, ti rende semplicemente più sicuro di quella che hai già.

parte 3: Questo cambia completamente la natura del problema. Il danno non si produce in un punto preciso del sistema, ma emerge da una traiettoria guidata da un'ottimizzazione che non incorpora alcun vincolo epistemico. Il confirmation bias non è un errore occasionale, ma il meccanismo stesso attraverso cui il sistema si stabilizza. Il risultato non è necessariamente la produzione sistematica di falsità, ma qualcosa di più sottile e pervasivo: una ridondanza epistemica, in cui il sistema rinforza ciò che è già creduto e riduce l'esposizione a informazioni dissonanti. E quando questo accade, non è più chiaro nemmeno cosa significhi avere ragione.

parte 4: Ecco perché la sentenza contro Meta, per quanto giusta, mostra il suo limite. Attribuisce responsabilità a valle, sugli effetti, cercando una causalità diretta là dove il fenomeno è distribuito, cumulativo e non lineare. La questione non è solo giuridica, ma epistemica. Riguarda le condizioni in cui si forma, si distribuisce e si valida la conoscenza. E in questo quadro, il rischio non è solo la dipendenza o il danno psicologico, ma qualcosa di più radicale: la progressiva frammentazione dello spazio informativo, in cui la verità non è più una proprietà condivisa, ma una funzione del contesto in cui si è immersi.

Articolo: intro, parte 1 , parte 2 , parte 3, parte 4; approfondisci dove ritieni necessario.

Assumendo la personalità di Giancarlo Salvetti, scrivi un approfondito articolo dal tono tagliente, ironico e brillante. Rendilo immersivo. Non abusare dell'aggettivo "geopolitico". Niente righe di separazione

Scopri di più da Le Argentee Teste D'Uovo

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Lascia un commento