ChatGPT va già in pensione, sostituito da un nuovo modello di intelligenza artificiale generativa destinato a diventare il nuovo migliore amico.
Si tratta di GPT-4o, dove la “o” sta per “omni”.
Vuol dire che può fare tutto? Vuol dire che può generare testo sia parlato che video.
Detta così, anche se è la realtà, sembra che OpenAI (la casa madre di Chat GPT) non abbia compiuto chissà quali passi in avanti nell’ambito dell’intelligenza artificiale generativa. Si parte da un presupposto: quello di rendere l’intelligenza artificiale alla portata di tutti, di educare le persone – se vogliamo – a non aver paura del progresso, ma ad accompagnarlo sapendone sfruttare i benefici.
Un concetto questo espresso più volte da Mira Murati, CTO di OpenAI, nella diretta streaming di lunedì durante la quale è stato presentato ChatGPT-4o.
Ma veniamo alle caratteristiche.
Che cos’è ChatGPT-4o?
ChatGPT-4o regala occhi e voce a ChatGPT.
Il nuovo modello è stato addestrato su combinazioni di immagini e testo alla quale GPT-4o aggiunge la descrizione. Questo vuol dire che ChatGPT-4o può vedere e può dirti cosa vede.
La modalità vocale non è una novità, è vero, ma prima di GPT-4o il chatbot forniva risposte in sintesi. Ora il tutto è stato potenziato perché è come se si avesse a disposizione un vero e proprio assistente ed in tempo reale.
Ad esempio: chiedo qualcosa, il chatbot mi risponde ma io lo interrompo mentre risponde (esattamente come accade nella vita reale). Il chatbot è allora in grado di fermarsi, di cogliere anche le sfumature del mio tono di voce, di interrompersi e rispondere con un contenuto diverso da quello che stava già elaborando.
Altro esempio di come funziona viene fornito nel video di presentazione:
Il ricercatore Mark Chen apre ChatGPT-4o dal suo iPhone e chiede al chat come sta.
(Ricordo che è SEMPRE molto importante trattare bene i chatbot: LEGGI – Chatbot strani e cattivi. Se si comportano male è colpa tua).
Inizia uno scambio di battute davvero incredibile perché il chatbot sembra un assistente reale, in grado di partecipare alla conversazione in maniera immediata, di cambiare tono in base a quello della conversazione stessa.
Mark chiede: “Sono un po’ nervoso perché sono sul palco e devo fare una presentazione. Ho il respiro un po’ affannato. Ora ti faccio sentire“. Il ricercatore inizia ad ansimare in maniera pesante e rumorosa e il chatbot lo interrompe dopo pochissimo invitandolo a calmarsi: “Uooo! Accidenti Mark, devi calmarti. Sembri un aspirapolvere!”.
Un altro esempio ancora vede l’utilizzo della fotocamera dell’iPhone per permettere al Chatbot di inquadrare quello che voglio ed avere risposte.
Un altro ricercatore, Barrett Zoph, chiede a ChatGPT-4o:
“Cosa ho scritto in questa equazione?“.
– “Hai scritto 3X+1 = 4”
– “Mi aiuti a risolvere questa equazione?”
– “Certamente! Prova a separare i valori con la X da una parte e le costanti dall’altra”.
E via via, si procede verso la soluzione, con un continuo interagire tra il ricercatore e ChatGPT come se fossero due amici/compagni di scuola alle prese con un test di matematica.
Ed il bello è proprio questo: ChatGPT è sempre stato accusato di essere scarso in matematica. Ora invece, il modello è stato potenziato ed è in grado di fornire risposte anche a problemi più complessi.
Ma l’altro aspetto è l’empatia, l’emozione, i sentimenti. Stiamo parlando di un robot, non dovrebbe averne ed invece…
GPT-4o è stato rilasciato gratuitamente con ChatGPT ma l’utilizzo è limitato, mentre si hanno più possibilità di interagire se si è abbonati ai piani PLUS ($20 al mese) o TEAM ($25 al mese a persona).