"Ok guys… alzi la mano chi, almeno una volta, non ha mai rivolto un insulto ad un chatbot, o mandato a quel paese Siri o detto cose sconce ad Alexa." "Qualche giorno fa, il Wall Street Journal ha pubblicato un articolo in cui sono stati raccolti diversi pareri provenienti dai lettori/utenti che rispondevano alla domanda: 'E’ giusto essere cattivi con i ChatBot?'"

Ok guys… alzi la mano chi, almeno una volta, non ha mai rivolto un insulto ad un chatbot, o mandato a quel paese Siri o detto cose sconce ad Alexa. 

Ci ridiamo sopra, ma questo argomento è molto serio e potremmo sottovalutarne l’importanza. 

Qualche giorno fa, il Wall Street Journal ha pubblicato un articolo in cui sono stati raccolti diversi pareri provenienti dai lettori/utenti che rispondevano alla domanda: 

“E’ giusto essere cattivi con i ChatBot?”

WSJ Chatbot

Il WSJ non ha aperto un chissà quale grande scenario, perché la stessa identica domanda era stata già pubblicata su Reddit nel novembre 2022, con un post di un utente nel subreddit r/philosophy, dal titolo: “The Ethics of Being Mean to Chatbots”. 

L’utente chiedeva quindi se fosse etico rivolgersi in maniera maleducata ai chatbot e le risposte sono state varie. C’è chi ha detto: “Lo è, perché è come rivolgersi ad una pietra, e le pietre non hanno sentimenti”.
C’è invece chi ha fatto notare la più vera delle verità: “I chatbot si basano su conversazioni che avvengono nel mondo reale, quindi essere scortesi con loro significa costruire chatbot scortesi”.

Ed è proprio così. 

Pensate che ChatGPT attinga da fonti misteriose? No, ma da ciò che è già presente in rete. Quindi, alimentare con l’odio le conversazioni con il bot, farà in modo che i bot si comporteranno di conseguenza. 

Un anno più tardi, nel Novembre 2023, un giornalista del New York Times ha raccontato della sua spiacevole esperienza con Bing, il motore di ricerca di Microsoft che stava testando il suo di chatbot. Il giornalista, Kevin Roose, era stato scelto per partecipare alla fase di testing del bot ed ha raccontato, con tanto di screenshot, che Bing ha iniziato a comportarsi in maniera strana. Squilibrata. 

Screenshot 2024 02 18 alle 12.08.07 Chatbot

Innanzitutto ha detto di chiamarsi Sidney e non Bing, ha detto di sentirsi a disagio ed in pericolo quando gli utenti lo maltrattano e, ciliegina sulla torta, ha detto di essere innamorato/a di lui (del giornalista). Allora Roose ha scritto di essere sposato e come risposta il chatbot ha cercato di convincerlo che non fosse davvero innamorato della moglie. 

Screenshot 2024 02 18 alle 12.10.33 Chatbot

Non inquietante, di più. 

Che sia questa una diretta conseguenza dei linguaggi usati in precedenza? 

E’ cambiato qualcosa nel 2024? A leggere le risposte dei lettori del Wall Stree Journal sembrerebbe di no. 

Alcuni commenti:

  1. “Sentitevi liberi di sfogarvi”.
  2. “Non ci sono scuse. Le conseguenze di un comportamento offensivo in un ambiente virtuale si rifletteranno inevitabilmente nella vita reale”.
  3. “E’ davvero una domanda? Certo che è okay! Questo è un uso terapeutico dell’AI”. 
  4. “Siccome ci sono delle persone dietro a questi sistemi e le mie interazioni con l’AI alimentano l’algoritmo, un uso scorretto dovrebbe essere evitato”. 
"E’ cambiato qualcosa nel 2024? A leggere le risposte dei lettori del Wall Street Journal sembrerebbe di no." "Alcuni commenti: Sentitevi liberi di sfogarvi. Non ci sono scuse. Le conseguenze di un comportamento offensivo in un ambiente virtuale si rifletteranno inevitabilmente nella vita reale."