
Copywriting e AI generativa
Cosa fa davvero bene (e cosa no) l’AI nei processi di scrittura. Le opportunità, i rischi e il mio approccio metodologico per mantenerne il controllo.
- 01. Perché parlarne ora
- 02. Cornice neogenerativa — la voce prima del testo
- 03. Snapshot operativo
- 04. Mini-glossario operativo
- 05. Opportunità: velocità, scala e (a certe condizioni) efficacia
- 06. Rischi e limiti: se non la governi, l’AI scrive… ma non per te
- 07. Morale della favola
- 08. [OPZIONALE] - Un gioco per capire davvero
- Fonti e Bibliografia
01
Perché parlarne ora
L’AI non è una moda passeggera, questo è poco, ma sicuro. L’adozione dell’AI generativa nel mondo della comunicazione non è più una questione da early adopter, è già realtà quotidiana. E il problema non è se la useremo, ma come la useremo. Ogni giorno mi capita di vedere professionisti, aziende, PMI o anche realtà più strutturate che esprimono entusiasmo da tutti i pori nell’utilizzo dell’AI nei flussi di lavoro: perché fa scrivere le mail alla macchina, perché i report li fa in minuti invece che in ore, relazioni, abstract, sintesi, riassunti, elaborazioni complesse, grafici, numeri, proiezioni… di tutto e di più. Ma nel 99% dei casi, ho notato, c’è una assoluta mancanza di consapevolezza su come funziona davvero. E la cosa mi preoccupa non poco. Manca una fetta importante di cultura e di know-how che, a mio avviso, rappresenta il rischio vero: non tanto lo strumento in sé, ma il modo in cui viene usato. O meglio: la consapevolezza (mancante) emergente nell’usare tale strumento.
Ora, l'argomento sarebbe davvero troppo vasto da affrontare, ma voglio provarci e voglio concentrarmi solo su uno degli aspetti, tra quelli più diffusi: la generazione di testi, rapporti, mail, post su LinkedIn, studi scientifici, addirittura whitepaper pubblicati da persone che conosco personalmente, da anni, e che so per certo che non sanno assolutamente, ma nella maniera più assoluta, di cosa stanno parlando! Questa evidenza mi ha prima disorientato e poi spinto a cercare di capire. Perché stiamo andando in questa direzione? C'è qualcosa che non va? E se sì, a quali rischi stiamo andando incontro?
Il punto è questo: l’AI ha già messo piede nella scrittura aziendale, ma senza consapevolezza, senza governance, rischia di diventare un boomerang. E se non siamo pronti a prenderlo al volo, con eleganza, sapete dove arriva quel boomerang? Dritto sui nostri denti! E siete perfettamente consapevoli, immagino, di quanto costi oggi un buon dentista...
Ora, al di là degli aspetti e delle considerazioni "personali" e riportando il discorso più su un piano "aziendale"... la sfida non è (solo) tecnica. È strategica. Riguarda chi sei tu (come azienda, come professionista), come vuoi essere percepito, e dove puoi spingerti senza perdere il controllo. Ecco perché questo tema è centrale per le PMI, ma non solo per le PMI: perché oggi non serve essere esperti di algoritmi per lavorare con l’AI, ma serve essere consapevoli del mezzo, serve sapere dove inizia davvero l’AI e dove finisce, serve sapere dove sono i suoi limiti, dove sono i rischi, serve sapere dove il ruolo dell’umano diventa vitale, per evitare di prendere il boomerang sui denti.
Ecco dunque perché parlarne ora. Perché siamo in quella fase delicata in cui la tecnologia corre più veloce della cultura che la circonda. E quando succede questo, spesso si crea una crepa sottile tra ciò che possiamo fare e ciò che sappiamo fare davvero. È lì, in quello scarto, che si insinuano gli errori, le aspettative mal riposte, le figuracce con i clienti. Parlare oggi di AI nella scrittura significa anticipare problemi futuri, evitare danni d’immagine, ma soprattutto affermare un principio: la responsabilità non si delega. Nemmeno all’intelligenza artificiale. Se vogliamo usare bene questi strumenti, dobbiamo prima guardarci allo specchio, rimettere in discussione abitudini e approcci, e – magari – riscoprire anche il piacere di scrivere con le mani sporche di pensiero.
02
Cornice neogenerativa — la voce prima del testo
Giusto per allinearci: quando scrivo con un’intelligenza artificiale, non cerco “un testo”, cerco una precipitazione ordinata dentro la mia Nuvola Semiotica Gaussiana. Il copy non è un punto che compare dal nulla: è l’effetto locale di una distribuzione di possibilità (la mia Gaussiana di significato), che collassa in una bolla quando il contesto è chiaro, l’interlocutore è definito e la voce è mia. Se manca anche uno solo di questi tre elementi, la bolla si allarga, il senso si sfuoca, e il risultato diventa un vanilla content che potrebbe firmare chiunque.
Ecco perché prima di aprire il prompt io definisco chi parla (invarianti), quanto posso deviare (tolleranze) e cosa non entra (banditi). Il mio I·T·B non è una mania di controllo: è la forma che consente alla bolla di rimanere coerente senza diventare rigida. La macchina, a quel punto, accelera le varianti; io decido quale variante fa collassare il senso nel punto giusto.
C’è un’altra verifica, che per me è non negoziabile: la differenza fra intenzione e interpretazione. Io posso voler dire X, ma il lettore può leggere Y. Quell’aderenza fra voluto e percepito la misuro (anche solo mentalmente) come Indice di Aderenza Semantica; la capacità del testo di far convergere letture diverse verso lo stesso nucleo la penso come Indice di Convergenza Semantica. Se l’AI accelera troppo e io mi distraggo, questi due indici crollano, e il testo — pur “perfetto” — non regge l’identità.
In pratica, la mia regola è semplice: prima la voce, poi il prompt; prima la forma, poi la velocità. È una differenza minima in partenza, enorme all’arrivo. Nella Nuvola, la bolla resta densa e leggibile: il testo precipita dove deve, non dove capita. E se chiedo tre varianti alla macchina, è per scegliere con lucidità quale traiettoria di senso voglio rendere reale qui e ora — non per delegare il mio mestiere a un algoritmo.
Per chi mi chiede “ma allora l’AI scrive davvero bene?” rispondo: scrive veloce. Bene, quando glielo insegniamo.
Prima di approfondire tecnica, teoria e pratica voglio però subito evidenziare quello che è il mio modo di operare, il mio "metodo" a prova di boomerang sui denti e che uso quotidianamente sia nei miei task strategici sia in quelli più produttivi, per quanto riguarda i testi e la redazione, senza filtri, senza ma e senza fronzoli. Niente fuffa qui!
03
Snapshot operativo
Ecco su cosa mi concentro quando uso (e faccio usare) l’AI generativa per scrivere:
- Definisco la voce prima del prompt. "Se non sai chi sei, l’AI non può saperlo." È una delle prime lezioni che ho imparato, a mie spese. In sintesi: la chiarezza stilistica deve venire da me, non dal modello.
- Scelgo un task preciso. Post LinkedIn? Email cliente? Paragrafo descrittivo? L’AI dà il meglio se le chiedo una cosa alla volta, ben definita.
- Chiedo varianti propositive e motivazioni, non verità assolute al primo colpo. L’AI non è sempre in grado di formulare verità, men che meno al primo tentativo. L’output è un punto di partenza, lo tratto come proposta da valutare, non come sentenza da eseguire.
- Faccio sempre una revisione ragionata. Sempre!!! Ogni riga. Ogni numero, ogni "verità" va filtrata attraverso la mia conoscenza, il mio know-how, la mia esperienza, la mia sensibilità e la mia validazione diretta. Non mi riferisco solo al rischio di dire cose sbagliate... quello è evidente... ma a un rischio più sottile, difficilmente percepibile se non si fa davvero attenzione: dire "banalità corrette". E l'effetto qui è più subdolo e silenzioso: l'invisibilità.
- Documento il processo. Tenere traccia di prompt, iterazioni e modifiche mi aiuta a costruire una vera metodologia, non una roulette creativa.
04
Mini-glossario operativo
- ToV (Tone of Voice)
Il tono, il ritmo, il lessico e i tabù che rendono riconoscibile un’azienda nei suoi testi. Senza, anche un ottimo copy risulta anonimo. - Prompt contract
È l’accordo (implicito o esplicito) tra te e l’AI: cosa vuoi ottenere, con che stile, con quali vincoli. Senza un brief chiaro, l’output è casuale. - Varianti propositive
Chiedere alternative, punti di vista diversi, angoli narrativi. Serve per allenare la pluralità, non per trovare “la verità”. - Verità vs. validazione
L’AI può sembrare autorevole anche quando sbaglia. La verifica finale spetta sempre a noi, con esperienza e buon senso. - Banalità corrette
Frasi perfette dal punto di vista grammaticale e logico, ma vuote di significato, già lette mille volte. Il nemico numero uno della differenziazione. - Boomerang narrativo
Quando deleghi troppo alla macchina e ti ritrovi con un testo che ti torna addosso: impersonale, piatto, dannoso per l’identità. - Revisione ragionata
L’editing non è un controllo ortografico. È un atto di responsabilità: scegliere cosa tenere, cosa tagliare, cosa riscrivere. Con criterio. - Vanilla content
Contenuti generici, corretti ma privi di personalità, tono, profondità o distintività. Possono andare bene per chiunque, quindi non colpiscono nessuno. Sono testi che non sbagliano mai davvero, ma non lasciano mai il segno. Perfettamente neutrali, e per questo invisibili.
05
Opportunità: velocità, scala e (a certe condizioni) efficacia
Partiamo da quello che funziona. O almeno, da quello che mi ha davvero convinto sul campo: l’AI generativa è veloce. Molto veloce! Più veloce di noi... Quando si tratta di generare una bozza, proporre cinque titoli alternativi, adattare un testo da un pubblico all’altro, o tradurre in tre lingue la sintesi di una presentazione, è come avere un assistente che non dorme mai. E non sbuffa mai. Capita spesso che in studio mi servano idee per una caption, un paragrafo-tappo per un articolo, o una sintesi per una newsletter: in questi casi, ChatGPT è la mia prima tappa. Non perché sia infallibile, ma perché è dannatamente utile per risparmiare tempo.
Se c’è una cosa in cui l’AI generativa eccelle, è la velocità. Attività che prima richiedevano ore – scrivere una bozza di blog post, preparare cinque variazioni di un titolo, tradurre un testo – oggi possono essere svolte in pochi minuti da strumenti come ChatGPT. Per una piccola impresa con risorse limitate, questo è oro: significa pubblicare contenuti più rapidamente e liberare tempo del team per altre attività creative o strategiche. In pratica, un articolo che prima richiedeva otto ore fra stesura e revisioni, ora può essere pronto in due o tre ore effettive di lavoro umano, perché l’AI ha accelerato le parti più meccaniche.
E velocità fa rima con scala: con lo stesso team oggi si può produrre più contenuto di prima. Ero curioso di trovare dei numeri che potessero indicare quanta consapevolezza diffusa ci fosse in questo e ho trovato delle statistiche molto interessanti che mi dicono che non sono certo l’unico ad averlo capito.
L’AI generativa non è più fantascienza: a livello globale il 78% delle organizzazioni dichiara di utilizzarla nel 2024 [1]. Nel marketing, circa il 70% delle aziende ha già iniziato a impiegarla [2] in attività come la creazione di contenuti personalizzati e la segmentazione del pubblico. Eppure, tra le piccole e medie imprese l’adozione resta agli inizi: nell’UE solo circa l’11% delle imprese sotto i 250 dipendenti ha usato sistemi di AI nel 2024 [3]. Anche guardando alle funzioni marketing in generale, appena il 10–14% delle aziende dichiara di impiegare [4] l’AI generativa in modo realmente continuativo nei processi di marketing e vendite – segno che c’è ancora molta strada tra l’entusiasmo teorico e la pratica quotidiana.
Ma oltre a fare di più, più in fretta, l’AI può aiutare anche a fare meglio – almeno su alcuni fronti. Se ben integrata (e guidata) l’AI generativa può potenziare davvero il lavoro del copywriter umano. Non è solo teoria: in un esperimento con 758 consulenti, Harvard e BCG hanno riscontrato che i gruppi supportati da GPT-4 completavano le task il 25% più rapidamente, svolgendone il 12% in più, e con una qualità finale oltre il 40% superiore rispetto al gruppo senza AI [5]. In altre parole, l’AI accelera le bozze e migliora i risultati, ma solo quando rimane al servizio del professionista (e non viceversa).
Proprio perché “accelera”, l’AI generativa può far scivolare rapidamente verso errori clamorosi se usata senza controllo. Il NIST, nel suo framework di AI responsabile, segnala il rischio di “confabulazione”: i modelli generativi tendono a inventare contenuti falsi ma plausibili e a presentarli con assoluta sicurezza [6]. Senza un filtro umano, l’utente rischia di prendere per buone queste allucinazioni e magari pubblicarle o agire di conseguenza. Ecco perché le linee guida NIST raccomandano esplicitamente di prevedere revisione umana aggiuntiva e maggiore oversight nei flussi che integrano l’AI generativa [6].
Un ulteriore vantaggio, spesso sottovalutato, è la personalizzazione. I modelli generativi, se ben istruiti, possono adattare uno stesso messaggio a pubblici diversi in modo convincente. Pensiamo alle campagne email: l’AI può aiutare a riscrivere lo stesso contenuto modulando il tono per diversi segmenti di clientela, oppure a tradurre in più lingue mantenendo lo stile. Dove una PMI in passato avrebbe rinunciato a localizzare un testo per mancanza di budget, ora può provarci, magari usando l’AI per una prima stesura in inglese o tedesco e poi rifinendo con un madrelingua. Il risultato? Comunicazione più ampia e targettizzata senza far lievitare i costi. Studi recenti confermano che l’uso dell’AI generativa in ambito pubblicitario porta costi più bassi e profitti maggiori proprio grazie a queste efficienze di produzione.
OK, in sintesi: l’AI generativa oggi è un po’ come lo smartphone nel mondo della fotografia. Ha democratizzato la creazione di contenuti. Dove prima solo un copywriter professionista sapeva sfornare un buon testo pubblicitario, ora chiunque – imprenditore, assistente, stagista – con l’aiuto di ChatGPT può ottenere un copy discreto per una pagina web o un post social. MA… questo non significa che improvvisamente siamo diventati tutti fotografi professionisti, artisti, videomaker o scrittori… NO! Questo non significa automaticamente che otterremo testi eccellenti, così come fare una foto col telefono non ci rende Annie Leibovitz. Ma, certamente, da un lato alza l’asticella del minimo sindacale: email, post e descrizioni di prodotto possono uscire con meno refusi, con una struttura più pulita e persino con qualche tocco creativo inaspettato. E per tante PMI già questo è un salto di qualità, ma soprattutto alza l’asticella per chi queste cose le faceva già, professionalmente. Velocizza, migliora, ottimizza, verifica, estende, approfondisce quello che il professionista già faceva prima.
Proprio qui c'è l'inghippo. Il professionista. Quando uso questa parola, non la uso a caso. Parlo di persone che di mestiere già facevano il fotografo e oggi lo possono fare meglio. Parlo di persone che già facevano il copywriter, e oggi – grazie all’AI – possono farlo ancora meglio. Ma se prima tu non sapevi scrivere di Dumas, perché magari neanche sai chi è Dumas, e oggi ti cimenti in una critica letteraria sui Tre Moschettieri generata da un prompt scritto al volo, ecco… quello che esce, a te sembrerà un capolavoro. Ma per chi è del mestiere, per chi sa di cosa sta parlando, per chi ha studiato, scritto, sbagliato, corretto e riscritto centinaia di volte... quel testo suonerà stonato, artificiale, insincero. Ho usato parole diplomaticamente ineccepibili, ma quello che avrei voluto scrivere è: stupido, anti-culturale e falso.
Questo è il punto. L’AI può elevare il lavoro di chi ha competenza. Ma non può colmare, per magia, un vuoto di cultura, esperienza o sensibilità. Quella scorciatoia che sembra brillante all’inizio rischia di trasformarsi in un boomerang: invisibilità, perdita di credibilità, una voce indistinta tra mille. L’AI non è un diploma. È un amplificatore. E se non c’è niente da amplificare, si sente solo rumore.
E quello che ho visto succedere è che dopo un po' si lascia perdere... non vedo più post di critica letteraria sui Tre Moschettieri o su Dumas scritti da chi prima si occupava di fondi di investimento a Malta o articoli di approfondimento sull'AI, solo perché chi scriveva ha attivato l'abbonamento PRO su ChatGPT... oppure vedo ancora insistere, vedo anche questo... ma nell'anonimato, senza evidenze, senza successo, nell'indifferenza corale e nel silenzio più totale. È come contare sotto la doccia, lì siamo tutti Pavarotti o Mina... ma meno male che non ci sente nessuno. Forse solo i vicini. Ma già abituati. E consapevoli che la doccia dura solo pochi minuti.
06
Rischi e limiti: se non la governi, l’AI scrive… ma non per te
Ho visto cose che voi umani non potreste immaginarvi. Navi da combattimento in fiamme al largo dei bastioni di Orione. E ho visto i raggi B balenare nel buio vicino alle porte di Tannhäuser. E tutti quei momenti andranno perduti nel tempo, come lacrime nella pioggia.
// 01
Creatività ed empatia
Sì, ho visto cose che....
Articoli che sembravano usciti da un manuale di istruzioni Ikea, comunicati stampa scritti con il tono di una lavatrice in fase centrifuga, testi LinkedIn che iniziavano con “Nel mondo di oggi, in continua evoluzione…”, pieni zeppi di icone e iconcine buttate lì a caso, grassetti sparsi ovunque, corsivi alla rinfusa e parole per cui neanche Treccani potrebbe soccorrermi. Ecco, quando vedo questo, come minimo non vado oltre. Chiudo. E il bello è che chi li ha pubblicati ne andava pure fiero.
Il fatto è questo: se usi l’AI per scrivere e ti affidi a lei come se fosse uno scrittore fantasma onnisciente, quello che ottieni non è contenuto, ma una copia sbiadita della copia della copia... della copia. Perfettamente leggibile, per carità, certo. Ma anche completamente dimenticabile. Come quelle frasi che, appena le hai lette, le devi rileggere perchè pensavi ad altro, e non ti ricordi più cosa hai letto e.... nemmeno chi le ha scritte. O peggio: ti sembrano già lette mille volte. Si dimenticano subito e andranno perduti nel tempo (...come lacrime nella pioggia).
Vabbè, comunque, con tutto quello che sa fare l'AI, fin qui sembrerebbe comunque una festa: più contenuti, più in fretta, a costi minori. Dov’è la fregatura? La fregatura – o meglio, la sfida – sta in ciò che l’AI non sa fare (o garantire) altrettanto bene quanto un essere umano. E vale la pena guardarlo in faccia, perché prendere l’AI per quello che non è può costare caro in termini di figuracce con i clienti, danni di branding o, semplicemente, testi poco efficaci.
Cambiamo un attimo prospettiva e torniamo alle aziende.
// 02
Voce di brand e coerenza
Ogni azienda ha (o dovrebbe avere) un tono di voce riconoscibile: lessico, stile e valori che traspaiono dai testi. Ecco, mantenere questa coerenza non è affatto scontato per un’AI. Se le chiedo di scrivere un post LinkedIn “come farebbe Apple”, magari ottengo un tono elegante e minimal. Ma se poi le chiedo un testo per un flyer locale, potrebbe cambiare registro senza rendersi conto che sta tradendo la personalità del brand.
L’AI fatica a rispettare le linee guida editoriali in modo consistente – a meno che non gliele si ribadisca pedissequamente ad ogni richiesta. Il rischio è di ottenere contenuti un po’ schizofrenici: oggi formali, domani scanzonati, dopodomani ultra-tecnici, disorientando i clienti. Questo è ancora più evidente in lavori molto più complessi e lunghi: l’AI fatica a mantenersi sui binari, ha memoria corta, ad un certo punto sbarella, si dimentica delle direttive, inizia a metterci del suo. Ma anche quando i testi sono brevi, se cambiamo contesto – per esempio da web a stampa, o da tecnico a promozionale – le cose diventano molto difficili dal punto di vista della governabilità del ToV e della coerenza di stile.
Questo succede perché il modello genera ogni pezzo “ex novo” in base al prompt, senza avere una memoria profonda dello storico di comunicazione del brand (a meno di addestramenti specifici). E se provi a far training caricando testi aziendali, entri in un terreno tecnico e complesso non alla portata di tutti.
Insomma, senza un controllo umano l’output rischia di essere blando e generico, e soprattutto disallineato rispetto all’identità che vuoi costruire. Un contenuto che “potrebbe averlo scritto chiunque” raramente fa fare bella figura al tuo marchio.
Ma esploriamo un attimo quella che secondo me è davvero la nota più dolente, ma spesso, forse, anche la più sottovalutata e per questo la più pericolosa.
// 03
Accuratezza e affidabilità
I modelli generativi a volte inventano. Nel gergo si parla di “allucinazioni”: l’AI assembla frasi che sembrano credibili ma contengono informazioni sbagliate, inesatte o addirittura inesistenti. Può citare una statistica fasulla, attribuire a qualcuno una frase che non ha mai detto, o usare un dato vecchio spacciandolo per attuale. Senza un fact-checking umano accurato, c’è il serio pericolo di pubblicare strafalcioni.
Per chi ha ChatGPT avrà notato (ma c'è anche nelle altre AI in forme diverse o molto simili) che c'è una frase scritta in piccolo, ma onnipresente: "ChatGPT può commettere errori. Assicurati di verificare le informazioni importanti." E a volte, nonostante sia lì, sempre, presente – ma forse proprio per questo – ce ne dimentichiamo. Presi dal flusso, presi dalle ottime cose che otteniamo, testi fantastici, metafore perfette, numeri e calcoli strepitosi in pochi minuti... ce ne dimentichiamo.
E mio nonno, buonanima che non c'è più, direbbe: "E qui casca l'asino!"
Immagina un articolo sul tuo blog aziendale che per errore dica che una certa tecnologia è stata vietata in Europa (magari confondendo normative), o un post social che cita uno “studio Harvard” inesistente. La figuraccia è assicurata.
Ma a volte non si tratta di semplici figuracce. Parliamo di danni veri e propri: danni sul brand, sulla credibilità… e sono cose che poi difficilmente si recuperano. Se una fidanzata ti tradisce e tu lo scopri… poi le cose non sono più come prima, o no!? La puoi perdonare sì, puoi ricostruire, con fatica, e magari andando da uno psicoterapeuta, ma non è più come prima. E a volte il danno è irrimediabile. Porta alla separazione. Ah ma in 20 anni è successo solo una volta. Una volta sola è di troppo, perché crollano i valori fondamentali, crolla la fiducia, crolla tutto.
Anche quando non commette errori marchiani, l’AI tende comunque a scrivere con grande sicurezza anche cose che andrebbero sfumate. Manca dell’istinto di cautela che un essere umano avrebbe su affermazioni delicate. Per questo in ambiti regolati o specialistici – finanza, medicina, legge – l’AI lasciata sola è un pericolo pubblico: non coglie le implicazioni etiche o legali di ciò che scrive e non ha esperienza diretta di quel settore.
Google lo sa bene: il suo algoritmo di ricerca non penalizza di per sé i contenuti generati da AI, ma punisce severamente i contenuti “non utili” o di bassa qualità. Traduzione: se usi l’AI per pubblicare fuffa superficiale o inesatta a raffica, il tuo posizionamento ne risentirà eccome – esattamente come accadrebbe con un cattivo copy umano.
Ci sono poi anche altri aspetti, MAI da sottovalutare, ma che molti neanche sanno che esistono. Ma sono altrettanto importanti se non vitali.
// 04
Questioni di copyright e originalità
Quando ho iniziato ad utilizzare l'AI per i miei copy mi chiedevo spesso, sbalordito: "Ma dove li prende questi testi? Se li inventa? Fa copia / incolla da altri siti? Prende un pezzo da uno, un pezzo da un altro e poi li mette insieme?"
Ecco quindi la domanda fondamentale: i testi generati dai Large Language Model (LLM) – cioè i modelli linguistici di grandi dimensioni come ChatGPT – sono veramente originali? La risposta è: ni. Questi modelli non estraggono frasi da un database, né fanno copia-incolla diretto. Funzionano in modo probabilistico: rimescolano, riformulano e ricombinano ciò che hanno appreso durante la fase di addestramento, basata su miliardi di parole e contenuti disponibili pubblicamente.
Di solito il risultato non è una copia 1:1 di una fonte esistente, ma non si può escludere che frasi o formulazioni peculiari vengano riprodotte molto da vicino, specialmente se ricorrono spesso nei dati di partenza o se il prompt richiama strutture comuni.
Questo apre interrogativi legali non da poco: chi detiene il copyright di un testo generato? E se quel testo contiene brani simili a opere protette, di chi è la responsabilità? La normativa fatica a stare al passo e ad oggi c’è molta incertezza al riguardo.
Inoltre, attenzione al capitolo dati: gli stessi esperti NIST avvertono che l’uso di dataset estesi (magari contenenti informazioni personali) per addestrare o far funzionare l’AI comporta potenziali rischi di uso non autorizzato o esposizione di dati sensibili [8]. In una PMI questo significa fare doppia attenzione a cosa si inserisce nei prompt e dove vengono conservati i testi generati dall’AI, per evitare fughe di dati o violazioni della privacy aziendale.
Per un’azienda significa esporsi (in teoria) al rischio di contestazioni per violazione di diritti d’autore, ad esempio se un redattore pigro pubblicasse output di AI non rielaborato che per sfortuna attinge un po’ troppo da un articolo altrui.
Inoltre, dal punto di vista della SEO, contenuti troppo simili ad altri già presenti sul web non portano valore aggiunto – e potrebbero essere filtrati dai motori di ricerca.
Insomma, l’AI deve essere usata anche con criterio “giuridico”, specialmente se genera testi creativi o narrativi: dobbiamo trattarla come un assistente autore da tenere d’occhio, perché non sia mai che per automatizzare il lavoro ci ritroviamo poi a gestire grane legali o penalizzazioni online.
Per questo, nel mio metodo, ho adottato una prassi molto semplice ma ferrea: quando affido all’AI un compito che coinvolge dati, percentuali o riferimenti esterni – come ad esempio in questo stesso articolo – chiedo sempre che venga citata la fonte. Non solo: pretendo che sia possibile rintracciarla direttamente, evitando scorciatoie, link generici o redirect opachi. E se il percorso verso la fonte originale risulta troppo tortuoso, poco chiaro o ambiguo, preferisco scartare l’informazione. Perché un dato non verificabile è un dato che non vale. Punto. È una questione di rigore, ma anche – e soprattutto – di credibilità.
Infine, c'è un aspetto anche esso non da sottovalutare. E anche io ne sono stato vittima. Fortunatamente ho imparato a muovermi e a destreggiarmi, ma non sempre è facile.
Parlo dell'hype che c'è intorno all'AI. Basta scorrere i social o anche le notizie e la cosa balza proprio all'occhio. C'è AI ovunque. AI che fa i video da sola, AI che ti fa da segretario, che fa shopping al posto tuo, che ti prenota un viaggio, che scrive libri interi da vendere su Amazon, di tutto e di più! L'hype si potrebbe tagliare a fette con un coltello come una pagnotta di pane…
// 05
Sovrastima e disillusione
Uno dei rischi più sottili e subdoli: le aspettative errate. L’entusiasmo intorno all’AI ha creato a volte la falsa impressione che basti schiacciare un bottone per avere contenuti perfetti, come avere un copywriter instancabile in scatola.
Molte PMI hanno provato strumenti generativi con questa speranza e ne sono rimaste deluse: i testi grezzi spesso richiedono parecchio editing, e senza qualcuno che li sappia valutare criticamente si rischia di pubblicare materiale sub-par.
Serve quindi consapevolezza che l’AI non è una bacchetta magica, ma un acceleratore subordinato alla direzione umana. Come ha detto un esperto durante un panel sull’argomento, abbiamo probabilmente sovrastimato ciò che l’AI farà nel breve termine e sottostimato ciò che farà nel lungo termine.
Il che, tradotto, significa: oggi non aspettarti miracoli (ancora ci vuole occhio umano), ma non abbassare la guardia perché in futuro potrebbe davvero rivoluzionare tutto. Equilibrio, dunque, e niente corse solitarie dell’algoritmo senza pilota.
07
Morale della favola
In conclusione, l’AI generativa non è (ancora) il nostro “nuovo copywriter” in senso stretto – non aspetta in ufficio al posto del redattore che hai licenziato. Anzi, richiamalo subito, chiedi scusa e riassumilo con un bonus! Piuttosto, è diventata il nuovo super-apprendista: velocissimo, infaticabile, in grado di scrivere in dieci secondi quello che noi scriviamo in trenta minuti, ma pur sempre bisognoso della guida di un senior.
Nelle PMI questo si traduce in un’opportunità concreta: chi saprà integrare l’AI nei propri processi creativi avrà contenuti prodotti in meno tempo, con maggior volume e potenzialmente più efficaci, senza snaturare la propria voce. Chi invece pensasse di delegare tutto e “lasciar fare al robot” rischierebbe di ottenere comunicazioni senz’anima, imprecise o dannose.
D’altronde, la storia di ogni innovazione tecnologica insegna che il massimo beneficio si ha quando la tecnologia potenzia l’uomo, non quando lo rimpiazza. E qui non viene rimpiazzato nessuno, che che ne dicano i giornalisti disinformati, con titoloni sparati per fare audience, oppure influencer con manie click bait.
E inoltre, come diceva Marshall McLuhan: "Non è l’uomo che ha modellato gli strumenti, ma gli strumenti che hanno modellato l’uomo."
E qui sono d'accordo con McLuhan. Ma questo non è un processo immediato, istantaneo o improvviso... richiede tempo, assimilazione, conoscenza da acquisire, consapevolezza. E questo processo, perché sia davvero efficace, utile e soprattutto "sano", richiede attenzione, metodo e intelligenza... umana.
08
[OPZIONALE] - Un gioco per capire davvero (solo per lettori pazienti)
In questo articolo c’è un refuso. Uno solo.
È passato indenne a due giri di revisione con intelligenza artificiale, ma l’ha visto al volo un amico. Un umano.
Perché lo lascio qui? Per ricordarmi (e ricordarci) che la scrittura non è solo velocità: è attenzione. È quella frazione di secondo in cui l’occhio umano sente la nota stonata e il senso precipita nel punto sbagliato.
Se anche tu individui il refuso, o magari lo hai già fatto, allora hai colto "in diretta" l’idea che attraversa tutto il pezzo: l’AI accelera, la regia resta nostra. E la differenza tra un testo “corretto” e un testo "vivo" a volte è una lettera.
Fonti e Bibliografia
[1] Stanford Institute for Human-Centered AI, AI Index Report 2025
[2] Eastwood, B., MIT Sloan Management Review, It’s Time for Everyone in Your Company to Understand Generative AI (2023)
[3] Eurostat (Commissione Europea), Use of Artificial Intelligence in Enterprises (2024)
[4] Acar, O. A., A Practical Guide for Marketers Who Want to Use GenAI, Harvard Business Review (2023)
[5] Dell’Acqua, F., Ye, H., Boudreau, K., Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity, Harvard Business School Working Paper 24-013 (2023)
[6] NIST – National Institute of Standards and Technology, Generative AI Risk Management Profile (2024) – rischio di “confabulazione”
[7] NIST – Generative AI Risk Management Profile (2024) – raccomandazione di revisione/oversight umano
[8] NIST – Generative AI Risk Management Profile (2024) – rischi di privacy e dati sensibili
_________________
McLuhan, Marshall – Gli strumenti del comunicare (1964)
Testo seminale sul ruolo dei media come estensioni cognitive e culturali dell’essere umano. Citato nel testo per il celebre aforisma: “Non è l’uomo che ha modellato gli strumenti, ma gli strumenti che hanno modellato l’uomo.”
Dick, Philip K. – Do Androids Dream of Electric Sheep? (1968)
Romanzo di fantascienza da cui è tratto il film Blade Runner. Citato nel testo nella famosa scena finale (“tutti quei momenti andranno perduti nel tempo, come lacrime nella pioggia”) come riferimento emotivo e simbolico alla deumanizzazione delle AI.