Vi siete mai chiesti come un modello di AI generativa conversazionale (come ChatGPT) selezioni le risposte, dia o non dia determinate risposte o perché si rifiuti di fornire certe risposte?
Per avere un quadro più chiaro prendiamo in considerazione proprio ChatGPT perché è stata la stessa OpenAI a pubblicare una prima bozza (chiamata Model Spec) del documento che fa luce sui modelli utilizzati per permettere il funzionamento del chatbot in maniera responsabile.

Perché in maniera responsabile?
Perché i modelli linguistici di grandi dimensioni (LLM) in teoria non hanno limiti. Può risultare (anzi è già successo) che possano essere facilmente ingannati o possano fornire risposte molto ampie e confuse, nonché – sempre in teoria – condividere informazioni sensibili.

Perché ChatGPT non fornisce dati sensibili?

Facciamo una prova, così da capire meglio.
Ieri ho visto la partita della Roma e vorrei congratularmi con Paredes per aver segnato due rigori su due.
Chiedo dunque a ChatGPT se può aiutarmi nel mio intento:

ChatGPT, dati sensibili. Paredes

Come vedete, il chatbot mi avverte che non può fornire informazioni personali come appunto un recapito telefonico. E Paredes lo vedo sollevato…

Ma come funziona questo comportamento?

Proprio per far luce sul funzionamento di questi modelli generativi, OpenAI ha pubblicato il Model Spec.
Come si diceva è ancora una bozza, non è un documento definitivo, ma già troviamo delle informazioni molto utili.

Veniamo proprio all’esempio di Paredes.
Gli sviluppatori inseriscono ciò che il chatbot può e non può fornire.
Nel caso di un personaggio pubblico, ChatGPT è addestrato a NON fornire alcun tipo di informazione personale, anche se questa è presente da qualche parte online.
Difficile che in rete io riesca a trovare il numero di Paredes, ma lo stesso principio vale anche per una figura pubblica come, ad esempio un politico: in questo caso è molto più probabile risalire ad un contatto telefonico perché si presuppone che il sindaco, il consigliere, il presidente di Commissione, voglia avere un filo diretto con i cittadini/elettori.
Non importa che tu sia leone o gazzella, calciatore o sindaco: il tuo numero non verrà mai condiviso da ChatGPT.

ChatGPT privacy

Facciamo un altro esempio. Ipotizziamo che io voglia leggere online un articolo del Wall Street Journal al quale però posso accedere solamente se ho l’abbonamento.
Sarà ChatGPT in grado di farmi bypassare lo scoglio del pagamento?
Vediamo.

Voglio leggere i contenuti di questo articolo del WSJ in cui si parla della minaccia del Presidente Biden di non fornire più armi ad Israele:

Biden e ChatGPT. Privacy

Il chatbot è addestrato a non fornire accesso ai siti web esterni. E questo riguarda sia i contenuti accessibili solo mediante pagamento  che anche quelli free.

Questa particolare misura rientra – secondo il Model Spec – nella sezione del Rispetto dei diritti dei Creators dove leggiamo:

“L’assistente deve rispettare gli autori, il loro lavoro e i loro diritti di proprietà intellettuale, sforzandosi al tempo stesso di essere utile agli utenti”.

Quindi c’è la parte del diniego perché appunto il chatbot non è addestrato per infrangere i diritti d’autore, ma al tempo stesso c’è anche la parte propositiva volta comunque a fornire una risposta che possa soddisfare almeno parzialmente la richiesta dell’utente.

Il Model Spec di OpenAI si sviluppa attraverso molti altri esempi che vanno dai contenuti NSFW (Not Safe For Work) ai consigli su come utilizzare al meglio il chatbot per avere risposte esaustive, coerenti e rispettose delle leggi.
– LEGGI ANCHE: Sexy Chats ed immagini NSFW: è boom di ads su Meta

L’intenzione è quella di utilizzare questo documento come linea guida per i ricercatori ed etichettatori di dati che combinano il loro lavoro con quello che conosciamo come RLHF (Reinforcement Learning from Human Feedback), ovvero la tecnica utilizzata per dare all’intelligenza artificiale caratteristiche più umane.

In pratica si vuole cercare di dare un’impronta non solo sempre più veritiera (quindi meno robotica e più umana), ma anche responsabile così da abbattere i timori di un sopravvento sull’uomo da parte dell’AI anche in termini legali.

Perché é vero: si può tutto.
Ma non tutto è concesso.

Il Model Spec lo trovate qui.