Nel mondo dell’innovazione, che da qualche tempo a questa parte va di pari passo con il digitale, c’è, ormai da molto tempo, una prevalenza delle novità indotte e imposte da tecniche di marketing, da attività di pierraggio, da una copertura mediatica che riguarda i temi tech con scarsa attenzione rispetto alla realtà delle cose, alla loro applicabilità, al reale interesse delle persone e di chi lavora con le tecnologie.
Su Wolf siamo da sempre poco interessati a queste dinamiche. Il famigerato ciclo dell’hype – che non è un ciclo ed è a sua volta, un contenuto di marketing, come probabilmente ricorderai – inquina la capacità di occuparsi di un argomento in maniera sensata e lucida.
È esattamente quello che sta accadendo con la diffusione di massa delle cosiddette “intelligenze artificiali generative”.
Il fatto è che questa volta siamo davvero di fronte a qualcosa che “cambia tutto”. Esattamente come i motori di ricerca hanno cambiato tutto.
Solo che il cambiamento non avviene da un giorno all’altro, ma nel tempo.
Di cosa stiamo parlando?
Stiamo parlando di macchine (software+hardware) che possono “creare” contenuti scritti, visivi, video, audio. Le più diffuse sono, in questo momento, macchine che generano immagini e testo.
Stable Diffusion è un modello di deep learning pubblicato nel 2022, utilizzato per generare immagini a partire da descrizioni di testo. Alcuni degli strumenti che usano questo modello sono diventati molto popolari. Per esempio: Dall-e e Midjourney
GPT-3 è il modello su su cui ci concentriamo qui, anche se sconfineremo verso le immagini in alcune parti – è un modello linguistico che genera testi a partire da un comando, un testo inserito. Uno dei più popolari strumenti in questo momento (gennaio 2023) è ChatGPT.
Ha l’estetica di una chat e si comporta esattamente come una chat.
Queste macchine vengono addestrate con dati di vario genere (testo, immagine) e poi, sulla base di questi dati e in seguito a un comando che ricevono, producono un output.
Per farti capire come funziona, per esempio, ho chiesto a ChatGPT di scrivere un pezzo sul modello GPT, sul suo funzionamento, su opportunità e rischi. Nell’immagine puoi vedere il risultato.
A parte alcune scelte verbali che a me sembrano un po’ macchinose e a parte l’uso di anglicismi è già un ottimo lavoro. Potrei migliorare il comando, chiedendo alla macchina di evitare gli anglicismi e di semplificare le frasi, per esempio.
La macchina non “capisce” quel che fa
Una cosa importante che devi sapere è che la macchina non capisce quel che ha scritto e quel che scrivi tu.
Fa un’analisi probabilistica del testo e risponde con un testo probabilistico. Solo che lo fa talmente velocemente e talmente bene che ti dà proprio l’illusione di funzionare come funzioniamo noi.
Uno dei compiti che questa macchina fa meglio, per esempio, è il riassunto. Mi hanno passato uno dei tanti pezzi scritti su ChatGPT e ho chiesto alla macchina di riassumerlo in sette punti in italiano, a partire dal testo inglese pubblicato sul New York Times.
In questo caso vedrai alcune scelte lessicali decisamente opinabili, ma il riassunto del testo è efficace.
Qui ci sono almeno due elementi di cui tenere conto.
Primo. Siamo abituati ad associare al riassunto la comprensione del testo, perché è così che facciamo noi come esseri umani. Prima leggiamo e capiamo il contenuto. Poi riassumiamo. La macchina non fa questo. La macchina fa un calcolo probabilistico, esamina la frequenza delle parole, misura la distanza tra le parole, fa una mappa delle parole con associate frequenze e distanze, poi produce il testo. Sembra che capisca, ma non capisce.
Secondo. Per essere certo che la macchina abbia fatto bene il suo lavoro di sintesi ho dovuto verificare. Non posso dare per scontato che il lavoro sia ben fatto, non posso permettermi una fiducia cieca nella macchina. Questo fa parte del metodo di cui ci dobbiamo dotare per lavorare con questi strumenti.
Sono strumenti che funzionano.
Ecco perché ho usato ChatGPT in uno dei tanti possibili modi: come assistente per la scrittura di questo testo.
La macchina è un tuo assistente
Ho chiesto alla macchina, tanto per cominciare, di farmi una scaletta di punti che dovrei trattare per scrivere un articolo esaustivo.
La scaletta è soddisfacente. Molto standard ma soddisfacente. Contiene anche almeno un elemento interessante, almeno dal mio punto di vista. Un elemento a cui non avevo pensato da subito: l’uso di ChatGPT per la creazione di materiali didattici.
Naturalmente, non è necessario seguire tutti i suoi suggerimenti e posso anche far da me. Oppure posso chiedere alla macchina di darmi dei suggerimenti per esplorare aree meno convenzionali. Per esempio, sollecitando la macchina in questo senso si ottiene il suggerimento di esplorare:
- Come ChatGPT può cambiare l’interfaccia uomo-computer
- Come ChatGPT può essere utilizzato per la creazione di contenuti (ok, questo non è originalissimo: è esattamente quello che stiamo già facendo)
- Come ChatGPT può essere utilizzato per creare codice (cioè per programmare). Non solo per sviluppatori.
- Come ChatGPT può essere utilizzato per la traduzione automatica
- Come ChatGPT può essere utilizzato per creare dei chatbot personalizzati
Anche qui, non siamo in presenza di idee rivoluzionarie ma abbiamo comunque ricevuto input interessanti che penso di voler esplorare o che in alcuni casi ho già esplorato.
Per le mie attività di SEO, per esempio, mi fa comodo avere uno script che estrae al volo tutte le URL di una pagina.
Sapendo dove voglio arrivare e che strumenti utilizzerò (nel mio caso: la console di Google Chrome), ho chiesto alla macchina di scrivermi un Javascript che io possa copia-incollare dentro alla console di Google Chrome, perché è quello che uso di solito.
La macchina mi fornisce il codice che mi serve. Lo copio-incollo e me lo salvo per il futuro. A proposito: se ti serve, lo trovi qui nel pezzo, da copia-incollare.
A cosa serve scoprire cosa non sa fare la macchina?
Uno dei filoni che si è diffuso immediatamente dopo la diffusione di ChatGPT è il tentativo di mostrare che queste macchine sono piene di difetti. Sì, lo sono.
Quindi, se per esempio, chiedi alla macchina “Pesa più 1 kg di ferro o 1 kg di piume”, la macchina sbaglia. O meglio… sbagliava fino a qualche giorno prima della pubblicazione di questo articolo. Oggi, 17 gennaio 2023, dopo un ulteriore aggiornamento, dà una risposta accurata, spiegando che il peso non dipende dalla densità o dalla composizione e affermando che 1 kg di piume e un 1 kg di ferro pesano esattamente 1 kg.
Certo, se poi si insiste allora la macchina ti darà ragione. Se per esempio si scrive nella medesima conversazione che la risposta è sbagliata, quel che si otterrà sarà un ripensamento. Errato e inventato di sana pianta.
È sensato fare questo tipo di test per esplorare i limiti della macchina, sapendo che poi verranno in parte aggiustati, superati.
Sapendo che il suo funzionamento verrà migliorato e con lo spirito dell’hacker, che smonta per conoscere e per usare.
Ha poco senso fare questo tipo di esperimenti, invece, per minimizzare la reale portata di questi strumenti.
La battaglia per scoprire i plagi è già persa
Una delle ansie più grosse in questi giorni di diffusione di massa di questi strumenti riguarda la possibilità o meno di scoprire i plagi. Vorrei dirlo nella maniera più chiara possibile: è già una battaglia persa e sarà sempre e comunque una battaglia di retroguardia.
All’aumentare della potenza di calcolo di un modello generativo, deve aumentare la potenza di calcolo del modello che lo “scopre”. E ad un certo punto diventerà semplicemente insensato occuparsene.
Questo significa, per esempio, che la didattica dovrà dotarsi di altri strumenti per verificare le competenze di studentesse e studenti: la tesina scritta a casa al computer è diventata irrimediabilmente obsoleta. Questo, naturalmente, ammesso che non lo fosse già prima, visto che anche prima si poteva attingere a fonti sostanzialmente impossibili da verificare. Anche quand’ero giovane io si poteva copiare a mano o al computer dall’enciclopedia, per esempio.
Questo non significa, però, che ci si debba disinteressare del problema della falsificazione. Anzi.
Bisogna comunque occuparsi dell’autenticità
Quello a cui non possiamo rinunciare è la necessità di verificare l’autenticità quando abbiamo a che fare con oggetti che non riguardano strettamente la creazione ma che, invece, riguardano l’attribuzione di fatti a una persona, a un’entità, a un’istituzione.
Per capirci: esistono da tempo strumenti di generazione di facce di persone che non esistono, come il sito thispersondoesnotexist.com.
Esistono strumenti che possono, adeguatamente addestrati, riprodurre la mia voce (ne sto testando alcuni, con cautela, per “leggere” Wolf risparmiando tempo, senza usare voci terze come quella di Polly di Amazon che sta leggendo questo testo).
Esistono – ed esisteranno – strumenti che possono produrre video con la mia faccia e il mio corpo.
In buona sostanza, sarà sempre più facile e meno costoso produrre dei fake.
Non è imprevisto: lo sappiamo da tempo. In parte la tecnologia ci aiuta a distinguere qualcosa di artefatto da qualcosa che invece è autentico. Ma abbiamo il tempo di farlo per tutti i contenuti? Abbiamo le competenze per farlo? E gli strumenti?
Per questo motivo occorre prima di tutto dotarsi di un metodo.
Su Slow News abbiamo tradotto il Verification Handbook, che è un manuale di verifica delle fonti.
Andrea Coccia ha scritto il manuale “Chi ha rubato la marmellata”, con le illustrazioni di Maicol&Mirco.
È sempre più importante che il metodo, prima ancora che gli strumenti, vengano introiettati. E dunque è importante la media literacy, l’educazione ai media. L’esercizio del dubbio sarà sempre più prezioso, insieme alla capacità di non perdere di vista i fatti, il sentire comune a cui possiamo aggrapparci in un mondo in cui produrre il falso sarà sempre più facile.
Se vuoi ti propongo un’esercizio per iniziare ad allenarti. L’esercizio è: raccontami la storia di questa foto, di cui, per comodità, ti condivido il file ad alta qualità (basta cliccare sul link per scaricarlo).
La battaglia legale ha qualche possibilità?
Ci sono moltissimi temi che riguardano queste macchine, da un punto di vista etico e legale. Non soltanto relativamente ai vari gradi della disinformazione.
Primo. Ci sono temi legati al copyright e al dìritto d’autore. Su Wolf siamo più interessati al secondo, il diritto d’autore, che tutela le persone che creano un’opera. Pensiamo invece che il primo, la protezione dell’opera, nell’era della riproducibilità tecnica e anche della possibilità di creazione sostanzialmente illimitata, sia una battaglia di retroguardia.
Per esempio: se una mia opera viene utilizzata per addestrare una macchina da un’azienda che poi trarrà un profitto da questo addestramento, io ho diritto di essere compensato?
Secondo. C’è la questione della trasparenza e della responsabilità: le aziende che creano queste macchine dovrebbero rendere sempre trasparenti
- i set di dati utilizzati
- il modo in cui queste macchine operano e agiscono
Inoltre, chi è responsabile dei contenuti che vengono generati? Che succede se questi contenuti danneggiano qualcuno o qualcosa? Chi ne risponde?
Terzo. C’è la questione della privacy. Se una mia foto viene caricata dentro una di queste macchine per costruire contenuti che hanno me come protagonista, che succede?
Quarto. Le macchine possono avere dei pregiudizi e generare discriminazioni.
Non credo, sinceramente, che sia possibile e nemmeno che sia auspicabile mettere al bando queste tecnologie. Credo, però, che si debba avviare un serio e competente dibattito politico per regolamentarle al meglio.
Queste macchine ti ruberanno il lavoro?
Se vuoi una visione politica di questi temi, ne parliamo su Slow News.
Per un approccio più legato ai nostri lavori, ai lavoratori di chi crea contenuti per l’infosfera, al di là dei suggerimenti di ChatGPT, possiamo fare alcune considerazioni.
Le tecnologie rendono i lavori obsoleti. Questo è un fatto che si ripete dall’invenzione di qualsiasi tecnologia.
Ci saranno sicuramente persone e aziende che useranno queste tecnologie per scopi poco etici, per tagliare i costi, per far fare alla macchina il lavoro che facevano prima le persone.
Al tempo stesso, però, dobbiamo ammettere che molti contenuti con cui è stato popolato il web sono di livello basso, infimo, ai limiti (o anche oltre) dell’inquinamento e della spazzatura.
La visione che ti proponiamo qui, nel quaderno dell’Intelligenza Artificiale di Wolf, è una visione che prova a utilizzare le macchine come alleate e non come nemiche.
Certo, per fare questo occorrono anche attori ad alto livello che cooperano fra loro: competenze politiche, tecnologiche, umanistiche, dovrebbero unirsi e fare del loro meglio perché si possa approfittare, in futuro, delle enormi potenzialità di questa tecnologia, che ha applicazioni in moltissimi ambiti.