ChatGPT va già in pensione, sostituito da un nuovo modello di intelligenza artificiale generativa destinato a diventare il nuovo migliore amico.
Si tratta di GPT-4o, dove la “o” sta per “omni”.
Vuol dire che può fare tutto? Vuol dire che può generare testo sia parlato che video.

Detta così, anche se è la realtà, sembra che OpenAI (la casa madre di Chat GPT) non abbia compiuto chissà quali passi in avanti nell’ambito dell’intelligenza artificiale generativa. Si parte da un presupposto: quello di rendere l’intelligenza artificiale alla portata di tutti, di educare le persone – se vogliamo – a non aver paura del progresso, ma ad accompagnarlo sapendone sfruttare i benefici.

Un concetto questo espresso più volte da Mira Murati, CTO di OpenAI, nella diretta streaming di lunedì durante la quale è stato presentato ChatGPT-4o.

Ma veniamo alle caratteristiche.

Che cos’è ChatGPT-4o?

ChatGPT-4o regala occhi e voce a ChatGPT.
Il nuovo modello è stato addestrato su combinazioni di immagini e testo alla quale GPT-4o aggiunge la descrizione. Questo vuol dire che ChatGPT-4o può vedere e può dirti cosa vede.
La modalità vocale non è una novità, è vero, ma prima di GPT-4o il chatbot forniva risposte in sintesi. Ora il tutto è stato potenziato perché è come se si avesse a disposizione un vero e proprio assistente ed in tempo reale.

Ad esempio: chiedo qualcosa, il chatbot mi risponde ma io lo interrompo mentre risponde (esattamente come accade nella vita reale). Il chatbot è allora in grado di fermarsi, di cogliere anche le sfumature del mio tono di voce, di interrompersi e rispondere con un contenuto diverso da quello che stava già elaborando.

Altro esempio di come funziona viene fornito nel video di presentazione:

Il ricercatore Mark Chen apre ChatGPT-4o dal suo iPhone e chiede al chat come sta.
(Ricordo che è SEMPRE molto importante trattare bene i chatbot: LEGGI – Chatbot strani e cattivi. Se si comportano male è colpa tua).
Inizia uno scambio di battute davvero incredibile perché il chatbot sembra un assistente reale, in grado di partecipare alla conversazione in maniera immediata, di cambiare tono in base a quello della conversazione stessa.

Mark chiede: “Sono un po’ nervoso perché sono sul palco e devo fare una presentazione. Ho il respiro un po’ affannato. Ora ti faccio sentire“. Il ricercatore inizia ad ansimare in maniera pesante e rumorosa e il chatbot lo interrompe dopo pochissimo invitandolo a calmarsi: “Uooo! Accidenti Mark, devi calmarti. Sembri un aspirapolvere!”.

ChatGPT-4o

Un altro esempio ancora vede l’utilizzo della fotocamera dell’iPhone per permettere al Chatbot di inquadrare quello che voglio ed avere risposte.
Un altro ricercatore, Barrett Zoph, chiede a ChatGPT-4o:
Cosa ho scritto in questa equazione?“.

ChatGPT-4o

– “Hai scritto 3X+1 = 4”
– “Mi aiuti a risolvere questa equazione?”
– “Certamente! Prova a separare i valori con la X da una parte e le costanti dall’altra”.
E via via, si procede verso la soluzione, con un continuo interagire tra il ricercatore e ChatGPT come se fossero due amici/compagni di scuola alle prese con un test di matematica.

Ed il bello è proprio questo: ChatGPT è sempre stato accusato di essere scarso in matematica. Ora invece, il modello è stato potenziato ed è in grado di fornire risposte anche a problemi più complessi.

Ma l’altro aspetto è l’empatia, l’emozione, i sentimenti. Stiamo parlando di un robot, non dovrebbe averne ed invece…

GPT-4o è stato rilasciato gratuitamente con ChatGPT ma l’utilizzo è limitato, mentre si hanno più possibilità di interagire se si è abbonati ai piani PLUS ($20 al mese) o TEAM ($25 al mese a persona). 

ChatGPT-4o