Lo scorso 10 Maggio, durante la conferenza Google I/O, è stata presentata al pubblico Bard, l’intelligenza artificiale sviluppata dal colosso di Mountain View: una sorta di fratello minore del più famoso ChatGPT, che vuole assolutamente spodestarlo nella “lotta di famiglia” dal trono di AI più evoluta del mondo.
Google Bard è una cosiddetta chatbot IA conversazionale, in grado di generare testo in risposta a un input: questo significa che l’utente può porgli qualsiasi domanda e Bard fornirà una risposta.
La nuova intelligenza artificiale si basa sul modello linguistico di grandi dimensioni (LLM, Large Language Model) di Google noto come LaMDA (Language Model for Dialogue Applications), che, come GPT-3.5, il modello alla base di ChatGPT, ha imparato il linguaggio attingendo dal Web, e quindi da un vastissimo numero di parametri, utilizzando la propria conoscenza per fornire risposte conversazionali simili a quelle umane, e continuando a imparare da ogni input. Da qui, nasce spontanea una domanda: il nuovo prodotto della Big G, cosí come i vari parenti digitali sparsi nella Rete, visto che sono in grado di apprendere e migliorarsi, prima o poi… potranno programmare da soli, senza l’aiuto umano?
Piano, fermi tutti: non siamo tornati al 31 Dicembre 1999, non siamo in attesa del nuovo Millennium Bug, con la fine del mondo tecnologico conosciuto; e probabilmente saremmo anche in grado di fermarci, prima di cadere in qualche scenario fantascientifico dove le macchine dominano sul pianeta e noi facciamo loro da schiavi. Ma la domanda è lecita: abbiamo creato dei software autonomi, la vita fatta di chip senza l’ausilio della carne… chi ci dice che non potranno, a loro volta, divenire i computer dei “genitori” artificiali?
Beh, innanzitutto, non serviva attendere ChatGPT o Bard, per avere un software che suggerisce, risponde, produce e corregge dati, qualunque essi siano: se ci pensiamo, siamo circondati da programmi che lo fanno già, in qualunque campo: dal telefonino con la scrittura predittiva, ai software di progettazione industriale che simulano un prodotto finito in 3D e ci segnalano gli errori, oppure quelli che controllano i disegni tecnici e possono garantire o meno sulla stabilità di una condotta, o di una muratura. Cambierebbe solo il “contesto”: ora, questi sono programmi “chiusi, isolati”, che ragionano solamente su quello che, all’atto della loro creazione, è stato insegnato loro di poter ragionare. Ora, stiamo dando una “finta carta bianca” alle varie AI: si, informati su tutto e rispondi a tutto, e in futuro si, mia cara AI, potrai scrivere un programma da sola… ma solamente su ciò che ti diciamo noi di fare. Una finta libertà, insomma.
Finché qualcuno non le dirà il contrario, almeno.