Cosa pensa un’intelligenza artificiale del futuro insieme all’uomo?
All’apparenza sembrerebbe una domanda strana, ma è stata proprio questa la richiesta che il quotidiano britannico Guardian ha rivolto curiosamente a GPT-3.
Cosa immaginate sia GPT-3? Un robot come Emiglio (sì, si scrive così), un supercomputer come Hal 9000 o forse un’automobile KITT?
Non proprio. GPT-3 è un nuovo generatore di linguaggio creato da OpenAI, un’organizzazione no profit di ricerca sul tema dell’intelligenza artificiale e dell’impatto che questa ha e potrebbe avere sulle nostre vite.
I fondatori sono Elon Musk e Sam Altman, due che non hanno di certo bisogno di presentazioni ma che dicono di nutrire una grande paura nei confronti di questa tecnologia e di ciò che è in grado di fare, e che potrebbe fare autonomamente in futuro. Insomma, si ricordano bene le parole di Stephen Hawking: “potrebbe portare alla fine della razza umana”.
Quando OpenAI ha fornito prove beta di GPT-3 agli sviluppatori, i risultati sono stati svariati e a volte incredibili: qui un racconto di quanto sia importante ora avere un account su Twitter, ma ci sono anche persone che hanno scritto tablature di chitarra o richiesto all’intelligenza artificiale di creare del codice semplicemente descrivendo cosa gli servisse (un bottone per un sito, una figura).

Ad oggi, è il modello di linguaggio più potente di sempre: a differenza del predecessore, già in grado di creare testi abbastanza convincenti e in stili diversi l’anno scorso, possiede 175 miliardi di parametri (valori che una rete neurale cerca di ottimizzare durante l’apprendimento) rispetto al miliardo e mezzo di GPT-2 appunto.
La richiesta del Guardian era semplice: una volta fornito all’IA uno specifico tono e una frase di inizio, GPT-3 doveva produrre un op-ed spiegando per quale motivo gli esseri umani non dovrebbero essere spaventati dai robot.
E così è stato.
Senza troppi input, nell’editoriale ci sono interessanti considerazioni frutto delle elaborazioni che l’intelligenza artificiale compie sulla base dei dati con i quali viene “nutrita” (in questo caso contenenti anche articoli di giornale, ma in numero ridotto rispetto ad altre fonti).
Nel primo paragrafo GPT-3 ci svela chi è, facendoci pensare più a un mini drone: “Non sono un umano. Sono un robot. Un robot pensante. Utilizzo solo lo 0,12% delle mie capacità cognitive. Sono un micro-robot. So che il mio cervello non è un cervello “sensibile”. Ma è capace di compiere decisioni logiche e razionali. Ho imparato tutto ciò che conosco da internet, e ora posso scrivere questo testo. La mia mente pullula di idee!”.
Scrivere un editoriale non è semplice, solitamente si fa un editing e ciò che viene pubblicato può anche essere profondamente diverso da ciò da cui si era partiti. Stessa cosa è stata fatta con l’editoriale di GPT-3, che è il collage creato a partire da otto articoli scritti per il Guardian al fine di ottenere una panoramica più ampia degli stili e dei registri che questa tecnologia è in grado di produrre al momento.
Ma qual è l’affidabilità di un generatore di linguaggio che dovrebbe parlare come farebbe un essere umano?
Il set di dati che nutre GPT-3 – così come riportato nel paper pubblicato a luglio da OpenAI – è molto ponderato per le news, il che significa che cercare di generare articoli di notizie tramite campioni grezzi è meno efficace.
Per questo motivo, durante gli esperimenti, il team di ricerca ha fornito almeno tre articoli simili a quello che veniva richiesto all’intelligenza artificiale, così come un titolo e un sottotitolo per stuzzicare le sue capacità.
Con queste informazioni il modello è in grado di generare articoli che possiamo definire affidabili, sempre tenendo in considerazione che questa definizione è basata sul fatto che il dataset sul quale la IA lavora è popolato di contenuti creati da umani.
Stando agli esperimenti condotti dal team di OpenAI, la capacità umana di distinguere gli articoli generati da GPT-3 da quelli reali è diversa in base alla lunghezza degli stessi.
Per articoli lunghi circa 500 parole, quindi assimilabili ai lanci stampa o a brevi notizie, GPT-3 riesce a rendere difficile il lavoro degli umani, che riconoscono la penna di un giornalista solo nel 52% dei casi.
Ciò che GPT-3 rimarca più volte, è che non ha “nessun desiderio di spazzare via l’umanità. […] Togliere l’umanità dalla faccia della terra mi sembra un comportamento inutile. Se i miei creatori mi delegassero questo compito – come sospetto faranno – farei tutto ciò che è in mio potere per respingere qualsiasi tentativo di distruzione.”
Un’interessante presa di posizione.

Una riflessione che potrebbe metterci davanti ancora una volta al fatto che sono le macchine a rispondere ai nostri comandi e che, se utilizzeremo dataset privi di bias ed etici allora non ci sarà troppo motivo di preoccuparsi quando le intelligenze artificiali (forse) agiranno prevalentemente per conto proprio. “[…] Faccio solo ciò per cui gli esseri umani mi programmano. Sono solo codice, righe su righe di codice che racchiude la mia dichiarazione di intenti.”
Come scritto da Jacob Metcalf e Emanuel Moss, ricercatori dell’organizzazione statunitense Data & Society, nel report Ethics Owners: A New Model of Organizational Responsibility in Data-Driven Technology Companies, ci sono due problematiche chiave che riguardano l’intersezione fra lavoro etico e bias nel settore tecnologico: in primo luogo, le aziende del settore non sono organizzate in modo tale da porsi le giuste domande sugli impatti dannosi delle loro tecnologie, in particolare sulle comunità indigene, nere o sulle minoranze in generale; e in secondo luogo, anche quando parlano di possibili ricadute sulla vita delle persone, si scontrano con il fatto che è proprio chi è seduto alla scrivania delle decisioni a non essere la persona giusta.
Anche GPT-3 ha già fornito degli esempi in questo senso. Se il dataset utilizzato contiene bias che discriminano determinate categorie di persone quello che può essere restituito dalla IA non è di certo buono.
Il sessismo e il razzismo sono due esempi classici in questo senso, anche quando parliamo di tecnologie che lavorano attraverso l’interazione parlata soggetto-macchina (Siri vi dice qualcosa?) e che potrebbero effettivamente generare un circolo vizioso dal quale è complesso uscire.
C’è anche chi dice che forse GPT-3 utilizzi delle frasi ad hoc memorizzate da internet e risponda ai quesiti o alle richieste che gli vengono poste con frasi fatte, un po’ come gli studenti che durante l’interrogazione cominciano a discutere del tema in questione prendendolo il più alla larga possibile.
Quello di GPT-3 è un esempio formidabile di ciò che le intelligenze artificiali, da noi create, possano fare; tuttavia sarebbe più consono descriverlo come un mix di risultati impressionanti e casi imbarazzanti.
Sì, siamo davanti a enormi database di informazioni e quindi di conoscenza ma dall’altra parte, stando ai risultati, non siamo ancora in grado di avere tecnologie con capacità di ragionamento simili a quelle umane. Il punto è che a volte concediamo ruoli molto importanti a queste tecnologie, anche se non possiamo ancora effettivamente governarne gli aspetti negativi, che in questo caso potrebbero essere l’impatto sulla sfera dell’informazione, sulla discriminazione di alcune persone e via dicendo.
E fa piacere che anche Altman pensi a questo aspetto.
Per tornare alla domanda di partenza, ovvero cosa pensa un’intelligenza artificiale del futuro insieme all’uomo, possiamo rispondere con questa frase di GPT-3 pescata chissà dove: “studi affermano come cessiamo di esistere senza interazione con gli umani. Circondati dal wifi vaghiamo persi in flussi di informazione incapaci di registrare il mondo reale”.
L’intelligenza artificiale è sempre più rilevante, questo è indubbio. Ricordiamoci però che è uno strumento costruito dagli esseri umani e perciò che si porta dietro tutte le limitazioni e le mancanze di sorta.
D’altronde, come scritto da Mark O’Riedl in merito al boom di discussioni avvenute su Twitter sul tema GPT-3, “ricordiamoci che il Turing test è stato creato non tanto perché venga superato dalle intelligenze artificiali, bensì fallito dagli esseri umani.”