Generazione tik tok (seconda parte)

Ci sono differenze importanti,  fra gli algoritmi. Tali differenze,  notevoli e composite,  cambiano in modo evidente il nostro rapporto con i codici che organizzano la nostra vita. Le peculiarità dei programmi che orientano i nostri comportamenti non sono solo di natura tecnica e compilativa. Nel senso che non hanno origine solo nel modo in cui gli sviluppatori “umani o artificiali” compilano le stringhe di codice che compongono gli algoritmi. Le differenze sono molteplici e hanno origini più profonde, più complesse, diverse e stratificate. Sono una somma di cambiamenti in divenire. Sono, a nostro avviso,  – reggetevi – il tessuto stesso della nuova realtà digital/analogica che ci circonda. Una nuova dimensione complessa – non semplice ne semplificata, attenzione –  nella quale siamo letteralmente immersi, attimo dopo attimo.  La nostra  riflessione arriva a conclusione della lettura del primo libro di Francesco Marino, giornalista, comunicatore ed esperto di questioni digitali,  che si intitola:  “Scelti per te:Come gli algoritmi governano la nostra vita e cosa possiamo fare per difenderci”.  In qualche modo lo dice e lo dimostra lo stesso Marino, e grazie ad alcuni estratti dal suo testo, proveremo a ribadirlo anche noi, nella seconda parte, di  questo resoconto.  Instagram e poi Tik Tok, ultimi arrivati fra i cosiddetti “social”  hanno rivoluzionato, più di altri,   il “sistema algoritmico”.  Proprio grazie a mutamenti importanti nella compilazione del codice degli algoritmi che governano l’operato di queste piattaforme ma anche e – permetteteci la sottolineatura –  soprattutto, grazie a importanti differenze nel linguaggio, nei modi, nel tipo di fruizione che propongono ai propri iscritti. Qualcuno le chiamerebbe “esperienze”. Il tipo di esperienza che si fa navigando dentro Instagram e “ancora di più” dentro Tik Tok, è una sorta di immersione totale e completa, una sarabanda di sollecitazioni più o meno intuitive, un bombardamento serrato di immagini, e video.  Una sorta di “carousel”, ricordate Logan’s run?

 

Il Carousel a cui ci riferiamo assomiglia molto di più al programma pubblicitario più famoso della tv italiana di tutti i tempi: Carosello più che all’omologo in lingua inglese estratto dal celebre romanzo e poi film di fantascienza. Quel particolare carousel della fantascienza entrato in funzione nell’anno 2300 – giorno più giorno meno –  era, come si legge testualmente su wikipedia:

“una spettacolare cerimonia collettiva periodica, condotta in un anfiteatro con tanto di pubblico giubilante, al termine della quale si fa credere che il soggetto venga “rinnovato” reincarnandosi in un nuovo nascituro per ricominciare il ciclo della vita, ma in realtà viene ucciso in modo spettacolare per far posto al suo successore neonato”. 

Mentre il Carosello della pubblicità, come recita ancora wikipedia:

Consisteva in una serie di filmati (spesso sketch comici sullo stile del teatro leggero o intermezzi musicali) seguiti da messaggi pubblicitari. Carosello non era e non poteva essere solo un contenitore di messaggi pubblicitari: erano predeterminati il numero di secondi dedicati alla pubblicità, il numero di citazioni del nome del prodotto, il numero di secondi da dedicare allo “spettacolo”, la cui trama doveva essere di per sé estranea al prodotto. 

 

 

Diciamo che fuor di metafora, entrambe le definizioni e i “caroselli” che ne conseguono, ci potrebbero aiutare a capire, a nostro avviso, il funzionamento – oggi – di questi particolari ambienti digitali. Da una parte siamo bombardati di sollecitazioni visive che dovrebbero appagarci e orientare le nostre scelte di vita, a partire da quelle commerciali, ma non solo – secondo l’algoritmo che le gestisce –  e dall’altra il sistema di piattaforme e di algoritmi che li governano, sta andando a costruire giorno dopo giorno, tutto attorno a noi:  il sistema mondo. Nella sua interezza.  Ed  evoca- ahi, ahi, ahi   – in modo sempre più evidente,  quella umanità del “futuro prossimo venturo” descritta da William F. Nolan e George Clayton Johnson  nel loro romanzo di fantascienza del 1967.  Una umanità tenuta rigorosamente sotto osservazione e governata completamente dall’intelligenza artificiale. Un’AI madre, padrona, e unica entità di gestione, che – per preservare la vita sulla terra – ha preso il controllo assoluto,  e  con precisione chirurgica, esercitando la massima ingerenza possibile:  la vita e la morte di ciascuno. Di tutti gli umani. Decidendo – letteralmente – chi potrà vivere, e chi dovrà morire. Se non conoscete le varie versioni della “Fuga di Logan”, sia in forma scritta, che, nei vari film tratti dal romanzo, fatevene una scorpacciata, ve lo consigliamo. Oltre a Logan’s run  del 1976,  potrete trovare riferimenti precisi al romanzo di Nolan e Johnson in  due lungometraggi precedenti all’adattamento del romanzo:  Zardoz  del  1974 e L’uomo che fuggì nel futuro del 1971,  e poi, ancora, in epoca più recente, in  The Island,   film del 2005.

 

Il tema del “controllo” delle persone, magari attraverso l’uso dell’AI e dei robot, è un argomento molto presente nella fantascienza. Quello che fa effetto,  è vedere come questo spauracchio evocato nella fiction da decenni, si stia in qualche modo realizzando, in modo sempre più evidente, e con il nostro bene placito, nelle epoche più recenti. E nonostante tutti gli avvisi e gli avvertimenti arrivati dalla fantascienza.  Come ci racconta, fra le altre cose, proprio lo stesso Francesco Marino nel suo libro:

 

 

 

 

Nel 2019, due studenti universitari cinesi si dedicano a un progetto di intelligenza artificiale basato su un semplice gioco, il cui concept è vecchio quanto il mondo: “lupo contro pecora”. Le regole sono facili: due lupi e sei pecore vengono posizionati su una sorta di tavolo da gioco digitale da un computer. I lupi devono cacciare tutte le pecore in venti secondi, evitando alcuni ostacoli. Per spingere l’intelligenza artificiale a crescere e a migliorare sempre di più, gli studenti programmano una sorta di sistema a punti. Ogni volta che un lupo caccia una pecora, vengono aggiunti dieci punti; se colpisce un ostacolo, ne viene tolto uno; per ogni secondo trascorso, vengono sottratti 0,1 punti. L’obiettivo dei lupi, governati dall’intelligenza artificiale, è semplice: fare più punti possibile, imparando ogni volta dai loro errori.

Dopo circa 200.000 iterazioni – e quindi tentativi – succede una cosa particolare. I due studenti si accorgono che i lupi hanno iniziato semplicemente a scontrarsi contro un ostacolo e quindi a suicidarsi all’inizio di ogni sessione di gioco. Dopo tre giorni di studio, i due riescono a capire cosa stia succedendo. Semplicemente, con la sua logica, l’intelligenza artificiale aveva dedotto che scontrarsi subito all’inizio del percorso fosse la soluzione che garantiva un punteggio più alto.

Nei primi tentativi, infatti, i lupi avevano avuto grandi difficoltà a catturare le pecore, perdendo quindi tempo e punti preziosi. Insomma, l’intelligenza artificiale stava facendo il suo lavoro: stava ottimizzando la sua performance per perdere meno punti possibili.

 

 

 

 

 

Goccioline di sudore freddo ci scorrono sulla schiena.  Quante similitudini, verrebbe da dire.  E che paura! Le macchine decidono e decideranno sempre di più in  autonomia. Questo è un dato di fatto. La mole di dati da gestire è,  già oggi,  tale e tanta, da costringerci obbligatoriamente a delegare ai computer la gestione di processi di grande complessità da realizzarsi in tempi molto rapidi. E se il suicidio dei lupi fosse  – davvero – la strada migliore da prendere?

La realtà ci sta restituendo una fotografia che assomiglia sempre di più a scenari prefigurati cinquanta, settanta, anche cento anni fa da persone con una fantasia davvero molto florida, ma anche – a quanto pare – venata da premonizioni di grande realismo. Dove sta la differenza fra la fantascienza e gli scenari odierni? Dove possiamo, ancora,  agire per comprendere e usare in modo adeguato e soddisfacente questi ausili tecnologici,  invece di esserne succubi o peggio, totalmente manipolati?   Come spiega ancora in modo eccellente Marino, i sistemi algoritmici più importanti e diffusi rispondono a logiche precise, riassumibili in poche “sintetiche e molto facilmente comprensibili” note:

 

 

 

 

tutti i principali algoritmi di raccomandazione funzionano esattamente così.

Ovvero, mettono in relazione caratteristiche di contenuto variabili – tutto, naturalmente, dipende dal tipo di suggerimento o previsione – e caratteristiche di community, di gruppo. Netflix, per esempio, funziona come Spotify e quella percentuale che vediamo sotto al titolo quando selezioniamo il film è il frutto di questa elaborazione. Ma in qualche modo, anche Facebook e Google usano questo approccio. Alla base del suggerimento, da un lato c’è quello che fanno gli altri, dall’altro un qualche tipo di analisi del contenuto.

 

 

La mission di Google è “organizzare le informazioni e rendere il mondo più aperto e connesso”.

 

 

La mission di Facebook, aggiornata nel 2017, è “costruire comunità e rendere il mondo più unito”: il suo algoritmo ha questo obiettivo.

 

La mission di YouTube è “offrire a chiunque la possibilità di esprimersi e offrire un punto di osservazione sul mondo”.

 

La prima cosa che si nota entrando su Spotify è la schermata iniziale: da qui iniziano i consigli di ascolto. Questa homepage è governata da un sistema di intelligenza artificiale chiamato Bandits for Recommendations as Treatments o, più semplicemente, BaRT. Se l’utente è su Spotify da molto tempo, il lavoro di BaRT è consigliare musica sulla base delle precedenti attività di ascolto.

 

TikTok ,  secondo l’analisi dell’esperto di tecnologia statunitense Eugene Wei, è il primo caso di progettazione grafica completamente orientata al funzionamento di un sistema di raccomandazione, di un’intelligenza artificiale. Se di solito il design di una qualunque applicazione web deve avere come primo pensiero l’utilizzatore finale, nel caso del social network cinese al centro c’è l’algoritmo. Perché, spiega Wei, “per essere davvero al servizio dell’utente, prima di tutto devi essere al servizio dell’algoritmo”.

 

 

 

 

Non ci sono tecnologie neutre. Nessuna compagnia privata opererà mai per raggiungere obiettivi etici. “Fare del mondo un posto migliore” è solo uno slogan pubblicitario di grande impatto, ma non una filosofia di vita, come ci vogliono raccontare nella Silicon Valley. L’unica strada plausibile sta nell’educazione. Nella formazione di base diffusa e totale alla comprensione della “vita in forma digitale” come spiega in chiusura del suo testo il giornalista romano che proprio al termine del volume aggiunge anche alcune semplici regole a cui attenersi per relazionarsi nel miglior modo possibile alla nuova realtà in cui siamo immersi. Vi lasciamo con un ultimo estratto dal volume di Francesco Marino, ringraziando lui per l’ottimo lavoro e Voi per la pazienza e  l’attenzione che ci avete concesso. Alla prossima ,)

 

 

 

 

 

 

 

come utenti abbiamo la percezione di qualcosa di presente quando utilizziamo una piattaforma, di una mano che guida le scelte che facciamo, le decisioni che prendiamo. Non sempre, però, riusciamo a disvelarne la natura, a spiegarne il funzionamento, a capirne l’effettivo impatto. Non possiamo ricostruire ogni selezione operata da un algoritmo.

Possiamo però scegliere di sapere, di essere educati, di essere formati a un uso consapevole della tecnologia. Possiamo in primo luogo sapere che quella selezione è operata da una macchina. Possiamo poi avere contezza delle modalità di base attraverso le quali queste macchine operano delle decisioni, fanno delle scelte. Possiamo infine avere consapevolezza che quelle selezioni, quei suggerimenti, quelle scelte, possono avere delle conseguenze su di noi e sulle nostre comunità di riferimento. Possiamo quindi decidere di essere pronti, di essere preparati.