AI, non ragiona come noi. E funziona.
E' ormai quasi normale la mattina controllare le email, aprire un programma, usare un AI — ChatGPT, Claude, Gemini — per farti riscrivere una mail, riassumere un documento, capire una clausola contrattuale. Niente di che. Un assistente un po' sveglio.
Ecco. Questa settimana, quello stesso tipo di strumento — il chatbot — ha corretto un gruppo di professori di Harvard, Cambridge e Princeton. Su un problema di fisica che davano per risolto da quarant'anni. Ha trovato lui la soluzione. Ci ha ragionato sopra per 12 ore di fila. E l'ha dimostrata.
Non sto parlando di fisica. Sto parlando di noi.
Cosa è successo, senza paroloni
La storia è questa. C'è un angolo della fisica nucleare dove i ricercatori fanno calcoli complicatissimi su come si comportano certe particelle. Per decenni tutti erano convinti che in una certa situazione il risultato fosse zero. Fine. Caso chiuso. Nei libri di testo c'era scritto così.
Quattro fisici di quelli seri — gente che lavora nelle università più importanti del mondo — hanno ripreso in mano il problema. Hanno fatto i calcoli a mano per 3, poi 4, poi 5, poi 6 particelle. Ogni volta più complicato. A un certo punto non riuscivano più ad andare avanti.
Allora hanno dato i loro calcoli al chatbot. Non a un supercomputer costruito apposta. Non a un software progettato per la fisica. Al chatbot. Quello che tu usi per le email.
Il chatbot ha guardato quei numeri e ha fatto una cosa che i professori non si aspettavano: ha visto un pattern. Una regolarità nascosta nei calcoli che loro non avevano colto. Ha proposto una formula generale — valida per qualsiasi numero di particelle. E poi una versione più potente dello stesso modello ci ha pensato su per 12 ore e ha dimostrato che la formula era corretta.
Uno dei fisici coinvolti — Andrew Strominger di Harvard, uno che ha contribuito a sviluppare la teoria delle stringhe — ha detto una frase che dovresti sottolineare: è la prima volta che vedo un'AI risolvere un problema nel mio campo che forse gli umani non avrebbero risolto.
Forse.
Quel "forse" è importante. Ci torniamo.
La cosa che ci potrebbe togliere il sonno
Ma la parte della storia che mi ha davvero fatto fermare non è che il chatbot ha trovato la soluzione. È come l'ha trovata.
Uno dei fisici coinvolti — Lupsasca, che lavora sia all'università che dentro OpenAI — ha raccontato un dettaglio che mi ha colpito: il modello arrivava alle risposte giuste, ma le esprimeva in un linguaggio matematico che i fisici non riconoscevano. Come se avesse imparato diversi dialetti della matematica e della fisica e scegliesse ogni volta quello che comprimeva meglio il risultato.
Fermiamoci un secondo su questa cosa.
Non ha fatto i calcoli più velocemente di un umano. Non ha percorso la stessa strada in meno tempo. Ha preso una strada diversa. Una strada che i fisici non conoscevano, e che forse non avrebbero mai preso.
È come se tu avessi un problema con le tubature di casa. Chiami l'idraulico, quello con trent'anni di esperienza, che conosce tutti gli schemi, tutte le soluzioni standard. E lui non lo risolve. Poi arriva uno che non ha mai fatto l'idraulico, guarda i tubi, e li sistema in un modo che l'idraulico non aveva mai visto. Funziona. Ma l'idraulico non capisce perché funziona.
Ecco. Siamo lì.
Questi modelli non pensano come noi. Non seguono i nostri percorsi logici, non ragionano con le nostre categorie. Vedono connessioni che noi non vediamo. Pattern che esistono — sono lì nella realtà, nei dati, nella conoscenza che abbiamo accumulato in secoli di scienza — ma che il nostro cervello non è attrezzato per cogliere. Come frequenze sonore che ci sono sempre state ma che il nostro orecchio non sente.
Non è che l'AI è più intelligente. È che vede in un modo diverso. E questo è molto più inquietante del semplice "è più veloce."
Perché se è solo più veloce, è un attrezzo. Se vede cose che noi non possiamo vedere, è un'altra cosa.
Perché non è come le altre volte
Ogni sei mesi esce la notizia che l'AI ha fatto qualcosa di straordinario. Vero. Ma qui c'è una differenza che cambia tutto, e quasi nessuno la sta raccontando.
Fino a ieri, quando un'AI faceva una scoperta scientifica, era sempre un sistema costruito apposta. AlphaFold — quello che ha vinto il Nobel nel 2024 per aver capito come si piegano le proteine — era un software progettato e addestrato specificamente per quel problema. Anni di lavoro, architettura dedicata, dati biologici selezionati. Un fuoriclasse, ma un fuoriclasse che sapeva fare solo quella cosa.
Questa volta no. Questa volta è il modello generico. Lo stesso modello che ti riassume i PDF, ti scrive i post su LinkedIn, ti spiega le clausole di un contratto di locazione. Lo stesso. E ha battuto degli specialisti umani di livello mondiale nel loro campo.
È come se il tuo stagista — quello che sa fare un po' di tutto ma niente di specifico — un giorno ti portasse la soluzione a un problema che il tuo commercialista con trent'anni di esperienza non aveva visto.
Tu cosa penseresti?
Quelli a cui paghiamo la parcella
Adesso parliamo di noi.
Tutti abbiamo intorno persone a cui paghiamo la parcella perché ne sanno più di noi. Il commercialista. L'avvocato. Il consulente del lavoro. Il geometra. Il tecnico informatico. Forse un consulente di marketing. Sono specialisti. Il loro valore sta nel fatto che hanno studiato cose che tu non hai studiato, hanno visto casi che tu non hai visto, conoscono regole che tu non conosci.
Cosa succede quando lo strumento generico — quello da 20 euro al mese — inizia a fare meglio di loro?
Non sto dicendo che succede domani. Non sto dicendo che succede su tutto. Ma la direzione è quella. E la velocità con cui migliora non ha precedenti nella storia della tecnologia.
Vuoi un paradosso? Questo stesso modello — GPT-5.2 — ha preso zero in un test standardizzato di fisica avanzata. Zero su cento. Bocciato totale. Eppure ha prodotto un risultato che fisici di fama mondiale non avevano trovato in quarant'anni.
I test non misurano quello che conta. Vale per l'AI. Vale per come valuti le persone che lavorano con te. Vale per come valuti te stesso.
Il capo del progetto scientifico di OpenAI ha detto: "Il 2026 sarà per la scienza quello che il 2025 è stato per la programmazione." Tradotto: l'anno scorso l'AI ha iniziato a scrivere codice meglio di molti programmatori. Quest'anno ha iniziato a fare scoperte scientifiche.
Il tuo settore non è la fisica delle particelle. Ma il principio è lo stesso: lo strumento generico sta mangiando terreno agli specialisti. Ogni mese un po' di più.
Quello che non so
Io vendo software da trent'anni. Per trent'anni il mio lavoro ha avuto senso perché serviva qualcuno che capisse il tuo problema e costruisse la soluzione. Il tecnico, lo specialista, quello che sa come funziona il gestionale, che sa leggere i dati, che sa dove mettere le mani. Gente come me.
Questa notizia mi costringe a chiedermi: per quanto ancora?
Non ho la risposta. Non ce l'ha nessuno. Ma noto una cosa: ogni volta che qualcuno traccia una linea — "l'AI non potrà mai essere creativa", "l'AI non potrà mai ragionare", "l'AI non potrà mai fare scoperte scientifiche" — quella linea viene superata. Non tra dieci anni. Tra mesi.
Io uso questi modelli tutti i giorni. Ne vedo i limiti. Fanno errori stupidi. Inventano cose. A volte ti danno una risposta sicurissima che è completamente sbagliata. Ma i limiti di sei mesi fa non sono i limiti di oggi. E i limiti di oggi non saranno quelli di settembre.
Chi vi dice "tranquilli, nel vostro settore l'AI non arriverà" vi sta vendendo una certezza che non ha. Come chi nel 2005 diceva che internet non avrebbe cambiato il modo di vendere le case.
Il mare si ritira
Lo dico spesso: il livello critico è quel momento strano in cui il mare si ritira dalla spiaggia. È un segnale. Sta per arrivare qualcosa di grosso. Ma sulla spiaggia quasi nessuno lo sa leggere. Qualcuno raccoglie le conchiglie. Qualcuno fa le foto. Quasi nessuno scappa.
Un chatbot che corregge Harvard non è lo tsunami. È il mare che si ritira un altro metro.
Non ti sto dicendo cosa fare. Non ho una ricetta. Se qualcuno vi vende la ricetta, diffidate — perché nessuno sa come si cucina un piatto che non ha mai visto.
Ma vi faccio una domanda, e ve la faccio sinceramente perché me la faccio anche io: se lo strumento da 20 euro al mese diventa più bravo del professionista da 200 euro l'ora — non su tutto, non sempre, ma sempre più spesso — cosa cambia nel tuo modo di lavorare?
E soprattutto: cosa cambia nel tuo valore?
Fonti: paper originale arXiv · blog OpenAI · racconto di O'Shaughnessy su X