ChatGPT nel 2026: potente, utile e ancora un po’ spia

Diciamocelo chiaramente: ChatGPT lo usiamo tutti. Chi dice il contrario mente o vive ancora nell’era dei fax. Io stesso lo uso quasi ogni giorno — per ricerche tecniche, confronti su procedure, blocchi di programmazione. È uno strumento straordinario. Ma come ogni strumento potente, vale la pena capire cosa si nasconde sotto il cofano. E nel 2026, c’è molto più da capire rispetto a qualche anno fa.

Quando ChatGPT mi ha fatto alzare un sopracciglio

Parto da un episodio personale. Ho chiesto a ChatGPT se esistesse un modo per eliminare tutti i media ricevuti su WhatsApp in un solo passaggio. La risposta è stata secca: “No, non esiste questa funzione.” Meno di 24 ore dopo, aprendo WhatsApp, mi trovo davanti esattamente quella funzione — comparsa dal nulla. Coincidenza? Tecnicamente sì. Ma fa pensare.

Dopo cinque ore consecutive di utilizzo intensivo ho notato altro: il sistema perdeva il filo, dimenticava il contesto, saltava da un punto all’altro. E con ogni salto aumentava la probabilità di risposte false, fonti inventate, informazioni generate con sicurezza assoluta e totalmente errate. Questo si chiama “allucinazione” — uno dei limiti strutturali dell’AI generativa che OpenAI fatica ancora ad ammettere apertamente.

La guerra dell’AI che nessuno racconta

Nel 2026 non esiste più un solo grande player. OpenAI con ChatGPT ha superato i 25 miliardi di dollari di fatturato annuo. Ma alle sue spalle corre Anthropic — fondata da Dario Amodei, ex ricercatore di OpenAI, che ha lasciato l’azienda nel 2021 con sua sorella Daniela e altri colleghi per divergenze profonde su come sviluppare l’AI in modo sicuro e responsabile. Il loro modello si chiama Claude, ha quasi raddoppiato il fatturato annualizzato a 19 miliardi di dollari Claudify e cresce a un ritmo che potrebbe portarlo a superare OpenAI già entro agosto 2026.

La differenza tra i due non è solo tecnica — è filosofica. OpenAI ha scelto la velocità: partnership miliardaria con Microsoft, integrazione ovunque, crescita rapida. Anthropic ha scelto la cautela: sicurezza prima di tutto, trasparenza, quello che chiamano “AI costituzionale” — un sistema addestrato a ragionare eticamente, non solo a rispondere in modo convincente. Quando OpenAI ha firmato un accordo per portare la sua AI sulle reti classificate del Dipartimento della Difesa americano, Anthropic si è rifiutata di fare lo stesso LaoZhang AI Blog, tracciando due linee rosse: nessun uso per sorveglianza di massa, nessuna arma autonoma. Il risultato? OpenAI è finita nel mirino di oltre 2,5 milioni di utenti che hanno lanciato il movimento #QuitGPT. Claude è balzato al primo posto sull’App Store americano.

Il CEO di Anthropic Dario Amodei ha definito l’approccio di OpenAI “safety theater” — teatro della sicurezza — e le dichiarazioni pubbliche di Sam Altman “bugie belle e buone”. Claude API Docs Altman ha risposto indirettamente. La guerra è aperta.

I dati: la domanda scomoda

Ho chiesto direttamente a ChatGPT se i dati delle conversazioni potessero essere letti da aziende terze. La risposta è stata elegante, elaborata e sostanzialmente evasiva. Ho insistito. Alla fine è emersa la verità: le aziende che integrano il modello nei propri servizi — app, chatbot, assistenti virtuali — possono raccogliere, analizzare e riutilizzare quello che scrivi. Non OpenAI direttamente, ma chi costruisce sopra OpenAI.

Viviamo nell’illusione del controllo. Usiamo VPN, cancelliamo la cronologia, evitiamo di scrivere il nostro nome. Ma a valle — nei server delle aziende che usano l’AI come infrastruttura — non controlliamo nulla. I server devono memorizzare dati per funzionare. E quei dati raccontano le nostre abitudini, i nostri orari, i nostri progetti, i nostri dubbi. Un hacker — o un’azienda senza scrupoli — potrebbe costruire un profilo dettagliato di te semplicemente analizzando le tue conversazioni.

Allora dobbiamo smettere di usarlo?

No. Sarebbe come smettere di usare il telefono perché qualcuno potrebbe ascoltare. ChatGPT resta uno strumento potente — e così Claude, Gemini e tutti gli altri. Il punto è la consapevolezza. Non condividere dati sensibili. Non usarlo per questioni private, legali o finanziarie delicate. Verificare sempre le risposte prima di fidarsi.

L’intelligenza artificiale non è il nemico. Lo è l’ingenuità con cui la usiamo. E forse, la prossima volta che aprite un chatbot, vale la pena chiedersi: chi c’è davvero dall’altra parte — e cosa fa con quello che gli dite?

Vuoi scoprire altri strumenti e novità simili? Visita la sezione Tecnologia e innovazione.

Lascia un commento