#02 | Il barista ti spiega perché l’AI non è intelligente. Ma sa bleffare da dio. ☕
Al tavolo del bar di AI Espresso non si gioca a chi urla più forte, ma a chi capisce meglio le regole. E oggi ti mostro perché l’AI non pensa, ma rilancia. Sempre. Anche quando ha una mano pessima.
Buongiorno e bentornato al bancone di AI Espresso.
Qui Matteo, barista e sopravvissuto al bombardamento di buzzwords.
Questa settimana ti servo un caffè un po’ diverso.
Un vero Espresso come si deve, semplice: capiamo cosa succede davvero nella testa di un LLM.
Perché se l’AI non è intelligente…
allora perché sembra così dannatamente sveglia?
La verità è che non pensa.
Bleffa.
Gioca di probabilità, rilancia anche con una mano debole,
e il più delle volte… vince solo perché tu non hai capito il tavolo.
Oggi ti spiego le sue carte.
☢️ (Tempo di lettura: 12 minuti. Caffeina consigliata: elevata.)
💡 Pensiero del giorno
«L’intelligenza artificiale non pensa.
Scommette.
Ogni parola che scrive è la più probabile, non la più giusta.
Se vuoi usarla bene, devi sapere con chi stai parlando.»
🧠 AI in azione: L’AI non capisce. Scommette. E tu, sai cosa sta facendo?
Stamattina stavo aprendo il Bar di AI Espresso con qualcosa di pratico.
I project di GPT e come li sfrutto per velocizzare il mio lavoro…
un caso studio di un agente virtuale per i Project Manager…
la nuova memoria di Open AI…
Poi mi sono fermato.
Mi sono ricordato che prima di mettere le mani sull’AI, ho passato settimane a capire come funziona davvero.
A studiare perché risponde così, cosa “vede”, e cosa no.
E quella roba lì mi ha cambiato tutto.
E allora oggi ti chiedo solo una cosa:
fidati del tuo barista di fiducia.
Beviti questo espresso con attenzione. Perché quello che stai per leggere ti servirà nei prossimi episodi, quando andremo davvero nel pratico.
Perché se sai come ragiona un modello… lo puoi usare come si deve.
Un modello linguistico come GPT non capisce.
Non riflette. Non “sa”.
Scommette.
Un modello linguistico come GPT non è una mente.
Non pensa, non ragiona, non conosce.
Non capisce il significato come lo intendiamo noi.
Quello che fa è molto più semplice, e molto più strano:
prevede.
Prende quello che gli dai in input (una frase, una domanda, un prompt), lo analizza pezzo per pezzo, e poi all’interno della risposta calcola qual è la parola più probabile che dovrebbe venire dopo.
E poi quella dopo. E quella dopo ancora.
Non sta cercando di capire “cosa vuoi dire”.
Sta solo cercando di completare il testo nel modo più coerente possibile con quello che ha già visto in fase di addestramento: miliardi di pagine, conversazioni, codici, articoli.
Quando inizia a generare, non ha la minima idea di quello che ci sarà alla fine della frase. Non sta formulando un concetto come lo intendiamo noi.
È come un giocatore d’azzardo geniale che, invece di lanciare dadi, gioca a indovinare cosa verrà scritto dopo.
Ogni parola che produce è frutto di una scommessa statistica.
Non la più giusta.
La più probabile.
È come l'autocompletamento del tuo telefono, ma su scala gigante.
Immagina di scrivere una frase e lasciare che il tuo smartphone suggerisca la parola successiva. Ora, immagina che questo telefono abbia letto miliardi di testi e conversazioni: la parola suggerita sarà probabilmente molto coerente. Ma non sarà necessariamente esatta, corretta, o vera: sarà semplicemente quella più frequente nella sua memoria digitale.
Ed è per questo che a volte ti sembra “magico”… e altre volte completamente fuori strada.
Per capire come usare bene questa intelligenza predittiva, servono quattro concetti fondamentali.
Sono i pilastri invisibili che regolano il comportamento del modello.
E oggi li esploriamo, uno alla volta, con parole semplici e stile AI Espresso.
Devi sapere che un modello LLM ha 4 strutture cardine:
Letto | Embedding
Finestra di contesto
Token
Prompting
🧠 1. Embedding → Dove l’AI detiene la sua conoscenza
Se immaginiamo tutta la conoscenza accumulata da GPT come il contenuto di una stanza, gli embedding sono il letto su cui l’AI appoggia tutto quello che "sa".
In termini pratici: tutto quello che il modello ha "letto" durante il suo addestramento: libri, articoli, post sui social, codici, recensioni, ricette, qualsiasi testo, viene trasformato in punti all’interno di uno spazio matematico gigantesco e multidimensionale.
Questa trasformazione, da parole a punti in uno spazio matematico, si chiama appunto embedding.
Per capire meglio, prova a visualizzare questa scena:
immagina una mappa gigante con migliaia di dimensioni (sì, migliaia!). Su questa mappa ogni parola o concetto viene collocato in un punto specifico. Parole e concetti che hanno un significato simile o correlato, finiscono vicini tra loro.
Per esempio:
"Cane" sarà molto vicino a "gatto", "passeggiata", "crocchette", e "guinzaglio".
"Bitcoin" sarà vicino a "Ethereum", "blockchain", "criptovalute" e "investimento".
Dietro ogni embedding c’è una rete neurale, formata da tanti piccoli "neuroni" artificiali (miliardi).
Immagina ogni neurone come una piccola lampadina che si accende in modo diverso a seconda della parola che legge.
Ad esempio:
Se il modello legge la parola "cane", certi neuroni si accendono creando una specifica combinazione, che posiziona questa parola vicino ad altri concetti simili, come "gatto" o "guinzaglio".
Se legge "bitcoin", si accendono neuroni diversi, avvicinando la parola a concetti come "criptovaluta" o "investimento".
Queste combinazioni di "lampadine accese" formano una specie di impronta digitale matematica per ogni parola: l'embedding.
Ecco il punto chiave:
L’AI non conosce il significato della parola "cane" nel modo in cui lo conosciamo noi umani. Non visualizza un animale peloso con quattro zampe.
Piuttosto, il modello sa semplicemente che il punto che corrisponde alla parola "cane" si trova vicino a quelli che rappresentano "gatto", "guinzaglio" e "passeggiata".
Questa vicinanza nello spazio semantico permette al modello di "indovinare" correttamente cosa stai dicendo anche senza una vera comprensione.
📌 Perché è così importante?
Perché l’AI non legge davvero il significato letterale, ma confronta costantemente posizioni relative nello spazio semantico.
Se scrivi “Ho bisogno di comprare un guinzaglio per il mio…” il modello prevede più facilmente “cane” piuttosto che “bitcoin”. Non perché capisca cosa sia un cane, ma perché statisticamente, nella sua memoria, quei due concetti stanno sempre molto vicini.
Perché ogni volta che scrivi un testo, il modello non lo interpreta come farebbe una persona, ma va semplicemente a posizionare quel testo sulla sua mappa multidimensionale. Più chiaramente scrivi il tuo testo (prompt), meglio il modello potrà trovare le parole vicine, e quindi risponderti correttamente.
Ma ora arriva la parte più sorprendente:
Gli embedding non riguardano soltanto singole parole. Modelli avanzati come GPT-4 (in avanti) generano embedding anche per intere frasi o addirittura interi paragrafi.
E la cosa ancora più interessante è che questi embedding sono dinamici e contestuali, ovvero si adattano e cambiano posizione nello spazio matematico a seconda del contesto del tuo prompt. Non sono statici come lo erano nelle vecchie generazioni di modelli.
Se cambi una sola parola nel tuo testo, l'intero significato percepito dal modello può spostarsi sensibilmente, cambiando la sua risposta in modo radicale.
🧩 Ecco un esempio concreto (da usare al bar per far bella figura):
Immagina di chiedere:
“Come funziona il mining?”
Se prima hai parlato di Bitcoin o criptovalute, la risposta riguarderà sicuramente blockchain e valuta digitale.
Se invece hai appena discusso di metalli preziosi, ti parlerà di miniere di oro o argento.
Questo succede proprio perché la parola "mining" si sposta nello spazio semantico in base alle parole che hai usato prima, modificando l’intera risposta del modello.
🏞️ 2. Finestra di contesto → La “memoria” a breve termine dell’AI
Un LLM non ha memoria permanente.
Non si ricorda quello che gli hai detto ieri.
Non sa chi sei, cosa fate in azienda o cosa vi siete detti nella chat precedente precedente (a meno che non venga “armato” con plugin, agenti o API esterne o ancora meglio, non sei il nuovo Chat GPT… ma di questo ne parleremo la prossima settimana).
Ha solo una cosa: una finestra di contesto.
Una memoria a breve termine dove viene inserito tutto il testo della conversazione attuale.
Funziona come un rotolo che scorre: entra roba nuova, esce quella vecchia.
📦 Pensa a una lavagna bianca: ogni volta che scrivi un prompt, aggiungi frasi sulla lavagna.
Ma la lavagna ha spazio limitato.
Quando arrivi in fondo, quello che avevi scritto all’inizio… viene cancellato.
La dimensione di questa finestra si misura in token (pezzi di parola, punteggiatura, spazi, ecc.).
Con GPT-4o puoi arrivare fino a 128.000 token (e il futuro 4.1 promette addirittura 1 milione di token).
Ma attenzione: appena superi il limite… tutto quello che sta “fuori finestra” sparisce. Letteralmente. Non esiste più.
💡 Esempio pratico:
Stai scrivendo un prompt lunghissimo su un progetto. Alla fine scrivi:
“Fai attenzione al budget.”
Se quella frase finisce fuori dalla finestra… il modello non la vede.
E quindi non potrà mai tenerne conto nella risposta, anche se per te era la parte più importante.
La finestra non si allena.
Ma puoi imparare a usarla meglio.
Più sei chiaro, ordinato e sintetico nel tuo prompt, più l’AI riuscirà a leggere il contesto giusto, e darti una risposta utile.
Ecco, adesso quando sentirai qualcuno dire su LinkedIn che “Llama ha 2 milioni di token di finestra di contesto!”, saprai esattamente di cosa si sta parlando.
Capirai che non vuol dire che è più intelligente.
Vuol dire solo che può tenere più testo sulla sua lavagna.
E se quel testo è scritto male, confuso o irrilevante…
la risposta sarà comunque pessima.
Una finestra più grande non serve a nulla,
se non sai come usare quelle informazoini.
🎲 3. Token → I mattoncini del linguaggio per l'AI
Quando scrivi a un modello linguistico come GPT, il testo che invii non viene letto come faresti tu, parola per parola.
Viene invece spezzettato in unità più piccole chiamate token.
📌 Cos'è esattamente un token?
Un token è il mattone fondamentale, l’unità di misura che il modello usa per "pensare" e generare risposte.
I token possono corrispondere a:
Parole intere ("cane")
Parti di parole ("correre" → "corr" + "ere")
Singoli simboli o caratteri (virgola, punto, spazio, emoji 👋)
Questo spezzettamento non è casuale: avviene secondo regole predefinite dal vocabolario del modello, che contiene decine di migliaia di token possibili.
Più la parola è comune, più probabile che venga rappresentata da un singolo token. Più la parola è rara o complessa, più token servono per rappresentarla.
🧩 Facciamo un esempio chiaro:
La frase :
"Il cane mangia una mela"
potrebbe essere tokenizzata così:
["Il", "cane", "mangia", "una", "mela"] → 5 token
Ma una parola rara come "anticonvenzionale" potrebbe essere spezzata in più token:
["antico", "n", "ven", "zionale"] → 4 token
🧠 Perché sono così importanti i token?
La finestra di contesto di cui abbiamo parlato prima si misura proprio in token.
Ogni modello linguistico (GPT incluso) ha un limite massimo di token che può "vedere" contemporaneamente.
Questo significa che quando crei un prompt, devi sapere bene quanti token stai usando: più token usi, meno spazio resta disponibile per ulteriori istruzioni o per le risposte del modello.
Se superi il limite, le informazioni iniziali vengono "spinte fuori" dalla finestra di contesto, cioè vengono dimenticate.
📌 Capire i token ti aiuta a:
Usare in modo efficiente la finestra di contesto (non sprecare spazio prezioso con testo inutile o ridondante).
Scrivere prompt migliori e più compatti (sapendo che parole o espressioni lunghe occupano più token).
🚦 Token, neuroni e parametri: come funziona dentro?
Immagina l’intelligenza artificiale come una gigantesca rete ferroviaria.
I token sono i treni che trasportano le parole che scrivi.
I neuroni sono le stazioni: luoghi che il treno attraversa lungo il percorso.
I parametri sono come gli scambi ferroviari che decidono quale direzione prende il treno, quale percorso seguirà e quale stazione raggiungerà.
Ogni volta che scrivi un prompt, stai mettendo dei treni (token) sulla rete ferroviaria dell’AI.
Questi treni passano attraverso molte stazioni (neuroni). Ogni stazione riceve il treno e lo manda avanti, decidendo la direzione in base a come sono impostati gli scambi (parametri).
Quando il treno (token) attraversa tutte queste stazioni (neuroni) e segue il percorso deciso dagli scambi (parametri), arriva a destinazione con un significato preciso, chiaro e contestuale.
In pratica, più parametri ha un modello, più grande e sofisticata è la sua rete ferroviaria.
Un modello come GPT-4, con miliardi di parametri, ha una rete immensa e molto complessa.
Quindi è capace di gestire percorsi più intricati e produrre risposte molto più accurate e coerenti.
In breve:
Più parametri → più scambi ferroviari disponibili → percorsi migliori e risposte più precise.
🎯 Morale pratica (per chi non vuole complicarsi la vita):
Quando senti che GPT ha "miliardi di parametri", pensa solo a questo: è una rete ferroviaria enorme, con moltissimi scambi che permettono ai treni (le parole che usi) di arrivare esattamente dove devono arrivare.
Tutto qui.
4. Il prompting→ La TUA carta vincente
Se embedding, finestre di contesto e token sono meccanismi tecnici che regolano il funzionamento dell’AI, c’è un unico elemento fondamentale che dipende interamente da te: il prompt.
📌 Cos’è un prompt, esattamente?
Un prompt è semplicemente il testo che scrivi per chiedere qualcosa al modello, per fornirgli istruzioni o per innescare una risposta specifica. È il tuo modo di dire all’AI:
«Ecco quello che voglio, ed ecco come lo voglio.»
Ma attenzione: un prompt efficace non è semplicemente una domanda o un'istruzione generica. Un prompt ben fatto è un insieme accurato, preciso e strutturato di istruzioni che aiuta il modello a capire esattamente cosa fare.
🎯 Perché il prompting è così importante?
Perché è l'unica vera leva che hai in mano.
Non puoi cambiare come funziona GPT dietro le quinte.
Non puoi scegliere quali neuroni attivare.
Ma puoi (anzi, devi) imparare a scrivere prompt estremamente efficaci.
Un prompt ben strutturato consente di:
Aumentare la precisione delle risposte (meno risposte vaghe o generiche).
Ridurre gli errori e le allucinazioni (l'AI tende a fraintendere molto meno).
Risparmiare token (e quindi sfruttare meglio la finestra di contesto).
Migliorare radicalmente la qualità del risultato finale (risposte coerenti, mirate, realmente utilizzabili nel tuo lavoro).
🔥 Vuoi una guida definitiva al prompting avanzato?
Quelli che ti ho dato qui sono solo principi essenziali. Nel precedente episodio di AI Espresso ho creato una guida completa e definitiva sul Prompt Engineering, di oltre 20.000 parole, dove ti spiego passo-passo tutte le tecniche avanzate che utilizziamo quotidianamente in Morfeus AI per creare prompt efficaci.
👉 Trovi la guida approfondita qui
Il prompting non è solo scrivere istruzioni. È saper comunicare con l'AI con una precisione che quasi nessuno ha ancora sviluppato.
È la skill più importante, la più sottovalutata e l'unica che davvero cambia tutto.
Se impari a scrivere prompt nel modo giusto, hai davvero in mano un vantaggio competitivo straordinario.
📚 La metafora del bibliotecario (per capire la vera potenza degli LLM)
Immagina questa scena:
Hai appena finito un libro che ti ha lasciato qualcosa di profondo. Lo riporti in biblioteca e chiedi al bibliotecario:
«Hai qualcosa di simile da consigliarmi?»
Un sistema classico (come un motore di ricerca) ti risponderebbe con:
Libri dello stesso autore
Libri con la stessa copertina
Libri con le stesse parole nel titolo
Potrebbe funzionare. Ma potrebbe anche fallire completamente.
Ora immagina un altro tipo di bibliotecario. Uno che, quando gli porti quel libro, non guarda solo le etichette esterne, ma cerca di capire cosa ti è davvero piaciuto:
Il tono malinconico
Il ritmo lento
Il tipo di protagonista
Il finale aperto che ti ha fatto pensare
E sulla base di questo, ti propone un altro libro. Magari è di un autore diverso, in un’epoca diversa, con una trama completamente nuova…
Ma ti fa provare la stessa sensazione.
🧠 Ecco: questo è quello che riescono a fare gli LLM grazie agli embedding.
Non si limitano a cercare elementi simili in superficie.
Riescono a mappare la struttura profonda di ciò che leggono — tono, stile, dinamiche concettuali — e a proporre risultati che sembrano “intuitivi”, ma sono in realtà frutto di calcoli statistici complessi tra significati.
📌 Importante però una cosa:
L’LLM non “sa” cosa ti piace.
Non ha una memoria emotiva.
Ma se gli spieghi perché ti è piaciuto qualcosa, può costruire un’identità semantica precisa di quel contenuto — e trovare elementi che gli assomigliano nella struttura, non solo nella forma.
✨ E questa è la vera magia:
Non ti dà solo ciò che somiglia. Ti dà ciò che ti risuona.
📻 Radio Apocalisse: Le notizie dal mondo AI
Oggi siamo andati belli densi sulla parte teorica (e serviva).
Per questo, in questa sezione non andrò troppo a fondo con le news.
Anzi, dimmi tu:
ti piacerebbe ricevere le notizie in una mail separata, magari due giorni dopo AI Espresso, così manteniamo questa più focalizzata su framework e casi reali?
Se l’idea ti stuzzica, scrivimi su LinkedIn o rispondi qui sotto nei commenti.
Sono curioso di sapere cosa ne pensi.
Nel frattempo, ecco cosa vale davvero la pena sapere questa settimana 👇
🧠 ChatGPT ora ti ricorda (e non fa finta)
ChatGPT ha (finalmente) la memoria.
No, non quella finta.
Quella vera. Persistente. Personalizzata. Che si ricorda davvero di te.
OpenAI ha attivato per gli utenti Plus e Pro una funzione che permette al modello di conservare informazioni tra le conversazioni.
Non più “ciao, chi sei?” ogni volta.
Ora può ricordare il tuo nome, il tuo stile, gli obiettivi che gli hai dato, le preferenze nei prompt… anche senza che tu glieli ripeta.
Questa memoria è personalizzabile e trasparente: puoi gestirla, disattivarla, rivedere ciò che si ricorda di te.
Ma resta una cosa chiara: questo cambia tutto.
Perché è una svolta?
Perché sposta ChatGPT da strumento tattico a collaboratore strategico.
Immagina:
Un AI che conosce il tono della tua azienda e lo applica già al primo messaggio.
Un alleato che si ricorda i tuoi obiettivi trimestrali, i clienti più importanti, i tuoi flussi operativi.
Un “secondo cervello” che ti segue nel tempo, non solo in tempo reale.
📌 Cosa cambia per chi lavora con l’AI?
Da oggi non basta “usare ChatGPT”.
Ora serve insegnargli chi sei, formarlo, dargli coerenza.
In Morpheus AI, lo facciamo già da mesi con i nostri agenti personalizzati.
Ma da oggi, puoi iniziare a farlo anche tu, direttamente nella tua dashboard.
In breve?
L’AI non è più una sessione. È una relazione.
E la relazione, si sa, inizia con il ricordarsi le cose importanti.
🔗 Leggi l’annuncio ufficiale su OpenAI
💸 Flex Processing: l’AI che costa la metà (se puoi aspettare)
OpenAI ha lanciato una nuova opzione API chiamata Flex Processing, pensata per chi desidera risparmiare sui costi dell'AI accettando tempi di risposta più lunghi e una disponibilità di risorse occasionalmente limitata. Questa modalità è ideale per attività non urgenti come valutazioni di modelli, arricchimento dei dati e carichi di lavoro asincroni.
Flex Processing è attualmente in beta per i modelli o3 e o4-mini.
🧠 Perché è importante?
Flex Processing rappresenta un passo verso un'AI più accessibile e flessibile, permettendo a startup, ricercatori e piccole imprese di sfruttare modelli avanzati a costi contenuti. È una risposta di OpenAI alla crescente domanda di soluzioni AI economiche e scalabili.
🔗 Leggi l’annuncio e scopri Flex Processing
🎓 AI a scuola: Anthropic, OpenAI e Google investono nell'istruzione
👉 Claude e OpenAI vanno a scuola: l’AI diventa materia ufficiale
Anthropic ha rilasciato Claude for Education, una versione pensata per università, studenti e docenti. L’obiettivo? Integrare l’AI nella didattica in modo utile, etico e controllato. Si parte dagli USA, ma il segnale è chiaro: l’AI non è solo uno strumento — è diventata compagna di banco.
Anche OpenAI spinge sull’educazione, pubblicando una guida ufficiale su prompt engineering per studenti, insegnanti e formatori. Una risorsa gratuita, chiara e aggiornata per iniziare subito a scrivere prompt migliori e insegnare come farlo.
📚 Un segnale forte: l’AI entra davvero nel curriculum.
Scopri Claude for Education →
Leggi di più su anthropic.com
Guida completa al Prompt Engineering →
Leggi la guida su OpenAI
👉 Gemini 2.5 Flash: il modello che pensa (e risparmia)
Google ha lanciato Gemini 2.5 Flash, una versione del suo LLM ottimizzata per ragionamento ed efficienza. Il concetto chiave? “Thinking budgets”: puoi scegliere quanto far “pensare” il modello in base al budget. Un equilibrio tra potenza e costo che apre scenari interessanti per chi sviluppa prodotti AI.
Leggi l’annuncio su Google AI →
Approfondisci qui
👉 GPT-4.1 è ufficiale: più veloce, più smart, più token
OpenAI ha rilasciato GPT-4.1, con una finestra di contesto da capogiro (fino a 1 milione di token), migliori capacità di ragionamento e nuovi modelli mini/nano. Ottimo per chi sviluppa agenti custom o vuole performance migliori in produzione. Da testare presto.
Scopri tutti i dettagli →
Vai all’annuncio su openai.com
📌 Prompt espresso
“Indovina dove è stata scattata questa foto”
Sta diventando virale un uso inedito dei modelli multimodali: gli utenti caricano foto e chiedono a GPT di indovinare la posizione in cui sono state scattate. L’AI ci va vicino, a volte ci prende, altre no. È un gioco? Un rischio? Un anticipo delle capacità visive del futuro.
Un trend virale che è anche un esercizio pratico sulle capacità multimodali di GPT.
Carichi una foto, poi chiedi:
📸 "Analizza questa immagine e prova a capire dove è stata scattata. Sii specifico e spiega il tuo ragionamento."
👉 Come si usa?
Su ChatGPT con multimodalità attiva (modello o4 con visione)
Carichi un’immagine nel prompt o la trascini
Il modello analizzerà architettura, cartelli, vegetazione, abbigliamento, cielo, dettagli, ecc.
💡 Provalo con: viaggi passati, scatti in città italiane, angoli meno noti.
Una buona occasione per testare quanto è "visivo" davvero il tuo assistente.
Guarda l’articolo su TechCrunch →
Leggilo qui
☢️ Humor radioattivo
Grazie per aver letto fino a qui,
spero che questo viaggio nel cervello dell’AI ti abbia fatto scattare qualche scintilla, e magari pure qualche dubbio positivo.
Ora che sai come pensa l’AI (e se hai capito bene: non pensa), nei prossimi episodi potremo usarla davvero, senza rischiare di ordinare un espresso e ricevere… un americano corretto.
Ci vediamo martedì prossimo, sempre alle 7.45, al solito bancone.
PPS: Se ti è piaciuto questo episodio di AI Espresso, condividere è aiutarsi a vicenda.
Quindi se ti va, inoltra la newsletter a qualcuno che vuole capire l’AI senza farsi esplodere la testa.
Non immagini nemmeno l’aiuto che mi puoi dare
(e i nostri algoritmi sono programmati per la gratitudine 😉)
Questo espresso me lo salvo! Finalmente il "dietro le quinte" spiegato in modo semplice ma estremamente efficace! Grazie 🤗
che dire, anche questo espresso me lo sono bevuto tutto d'un fiato portando a casa più consapevolezza e più "frecce" da utilizzare.
Sulla newsletter separata per le news non saprei, in questo momento a me va bene assieme agli approfondimenti, se poi mi farai fumare troppo il cervello potrei cambiare anche idea ;-)