Intelligenza artificiale. Curiosità artigianale.

Intelligenza artificiale

Come parlo con le AI per ottenere quello che voglio davvero

C’è una cosa che nessuno ti dice quando inizi a usare ChatGPT, Claude o Gemini: il risultato che ottieni dipende quasi interamente da come fai la domanda. Non dal modello. Non dall’abbonamento che hai preso. Da come scrivi.

Si chiama prompt engineering. Nome complicato per un concetto semplice: dare all’AI le istruzioni giuste per ottenere quello che ti serve. E dopo due anni a sperimentare ogni giorno, ho capito che ci sono poche cose che fanno davvero la differenza.

Il concetto base: l’AI non legge nella tua mente

Quando scrivi un prompt vago, l’AI fa quello che può. Non ha contesto, non sa cosa ti serve davvero, non conosce il tuo obiettivo. Riempie i buchi con le risposte più probabili — che di solito sono le più generiche.

La svolta è arrivata quando ho smesso di fare domande e ho iniziato a dare istruzioni.

La differenza pratica è questa:

“Spiegami il machine learning” → risposta da manuale scolastico.

“Spiegami il machine learning come se dovessi raccontarlo a mio cugino che non sa nulla di tecnologia ma capisce tutto di calcio” → qualcosa di molto più utile.

Stesso argomento. Prompt completamente diverso. Risultati che non si avvicinano nemmeno.

Le cose che mi hanno cambiato il modo di usare l’AI

La prima è stata assegnare un ruolo. Sembra una stupidaggine, ma funziona. Se scrivi “sei un copywriter esperto di email marketing” prima della tua richiesta, il modello si calibra su quel registro. Non perché “ci creda” — ma perché il contesto guida la generazione del testo. Lo uso ogni giorno al lavoro in hotel quando devo scrivere comunicazioni formali — cambio il ruolo e cambio completamente il registro della risposta.

La seconda è stata dare esempi concreti. Invece di descrivere cosa voglio, mostro cosa voglio. Se ho bisogno di uno slogan, ne scrivo uno simile a quello che ho in testa e chiedo di lavorare in quella direzione. L’AI è bravissima a replicare pattern — dategliene uno.

La terza, quella che mi ha fatto risparmiare più tempo, è stata delimitare l’ambito. Lunghezza, tono, cosa escludere. “Max 150 parole, niente tecnicismi, non citare competitor”. Più vincoli dai, meno devi riscrivere dopo.

La quarta, e probabilmente la più furba, è il meta-prompting. In pratica: invece di spaccarti la testa a costruire il prompt perfetto, chiedi direttamente all’AI di costruirtelo. Le spieghi in modo grezzo cosa vuoi ottenere, e lei ti restituisce un prompt già strutturato. Poi usi quello per avere la risposta vera.

Funziona così. Ho bisogno di scrivere una email difficile a un cliente. Invece di ragionarci su, scrivo a Claude: “Devo scrivere un’email a un cliente che si è lamentato di un ritardo nella consegna. Voglio essere professionale ma non freddo, ammettere il problema senza scuse eccessive e proporre una soluzione concreta. Scrivimi il prompt migliore per ottenere questa email.” Claude mi restituisce un prompt dettagliato. Lo uso. L’email esce quasi sempre al primo colpo.

Sì, stai usando l’AI per parlare meglio con l’AI. C’è qualcosa di vagamente assurdo in tutto questo — me ne rendo conto. Ma funziona, e mi ha salvato un sacco di tempo nei momenti in cui sapevo cosa volevo ma non sapevo come dirlo.

Un’ultima cosa, scoperta più di recente e che sembra banale finché non la provi: evitare il linguaggio aggressivo nei prompt. Frasi tipo “DEVI assolutamente” o “NON FARE MAI” scritte in maiuscolo non intimidiscono l’AI — la peggiorano. Il motivo, per quanto ho capito, è che questi modelli sono stati addestrati su miliardi di testi umani — e nei testi umani il linguaggio calmo e strutturato produce comunicazione di qualità. Quello agitato no. L’AI ha imparato la stessa cosa. Istruzioni calme e dirette funzionano meglio. Punto.

Quando le cose vanno storte (e succede)

Il prompt engineering non è una formula magica. Ci sono giornate in cui l’AI produce esattamente quello che hai chiesto e il risultato fa comunque schifo. E ci sono giornate in cui sbagli il prompt e ottieni qualcosa di inaspettatamente buono.

Il debug fa parte del gioco. Se la risposta non va, non buttare tutto: correggi il prompt chirurgicamente. Cosa mancava? Il contesto? Un esempio? Un vincolo?

Una cosa che uso spesso è il prompt a imbuto: parto largo e stringo progressivamente. Prima chiedo una panoramica, poi mi concentro su un aspetto, poi scendo ancora. È più lento, ma il risultato finale è quasi sempre migliore di quello che ottengo con un prompt unico e lungo.

Un’altra tecnica utile, specie per i compiti complessi, è scomporre la richiesta in sotto-domande. Invece di chiedere tutto insieme, faccio una domanda alla volta e uso le risposte come base per la successiva. L’AI ha una memoria di lavoro limitata — se le dai troppo da gestire in una volta sola, qualcosa si perde per strada.

Dove si usa davvero tutto questo

Una cosa che mi chiedono spesso è: ma nella pratica, quando ti serve? Ovunque, è la risposta onesta. Al lavoro uso questi accorgimenti per scrivere comunicazioni agli ospiti dell’hotel, rispondere a recensioni negative, preparare briefing per il personale. Sul blog li uso per strutturare articoli, fare ricerche, confrontare strumenti. Quando mi occupo di finanza personale, li uso per farmi spiegare concetti complessi o analizzare dati.

Il punto non è il settore. È che appena capisci come funziona il meccanismo, lo applichi ovunque tu stia usando un’AI. Diventa un riflesso.

C’è chi la chiama già in modo diverso

Andrej Karpathy — uno dei nomi più seri nel campo dell’AI — ha proposto di rinominare tutto questo “context engineering”. Il ragionamento è che il modello funziona come una CPU, la sua finestra di contesto è la RAM, e il tuo compito è fare da sistema operativo: caricare le informazioni giuste al momento giusto.

Non è solo un cambio di nome. Cambia il modo di pensare al problema. Non si tratta più di trovare la frase magica — si tratta di costruire il contesto migliore possibile per quello che ti serve.

E comunque, con qualsiasi nome la chiami: il prompt perfetto non esiste. Esiste il prompt migliore per quel momento, con quel modello, per quello scopo specifico.

Ho prompt che funzionavano benissimo con GPT-3.5 e che su Claude producono risultati diversi. Ho prompt che vanno alla grande per articoli di blog e che per le email sono inutili. Claude, ChatGPT e Gemini si comportano in modo molto diverso tra loro — un prompt ottimizzato per uno non funziona necessariamente sull’altro. Ogni strumento ha i suoi quirk, ogni contesto richiede calibrazione.

L’unico modo per migliorare è sperimentare — e tenere da parte i prompt che funzionano. Io ho un documento dove salvo quelli che riuso. Una delle cose più utili che abbia mai fatto.

Se stai iniziando adesso, il mio consiglio è semplice: smetti di fare domande all’AI. Inizia a darle istruzioni. Poi, pian piano, inizia a dargliene di più precise.

Il resto viene da sé.