{"id":1923,"date":"2026-03-06T14:23:09","date_gmt":"2026-03-06T13:23:09","guid":{"rendered":"https:\/\/userbot.ai\/blog\/?p=1923"},"modified":"2026-03-18T11:42:27","modified_gmt":"2026-03-18T10:42:27","slug":"l-ai-capisce-cio-che-scrivi-ma-non-cio-che-intendi","status":"publish","type":"post","link":"https:\/\/userbot.ai\/blog\/l-ai-capisce-cio-che-scrivi-ma-non-cio-che-intendi\/","title":{"rendered":"Il tuo agente AI capisce quello che scrivi. Ma non quello che intendi."},"content":{"rendered":"\n<p><em>Perch\u00e9 la differenza tra un agente che funziona e uno che delude spesso non sta nel modello scelto, ma nelle parole usate per istruirlo.<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p>C&#8217;\u00e8 una scena che chi lavora con <strong>agenti AI<\/strong> riconosce immediatamente. <\/p>\n\n\n\n<p>L&#8217;agente \u00e8 stato configurato con cura, testato in decine di scenari, approvato. Va in produzione. <\/p>\n\n\n\n<p>E poi, in un caso che nessuno aveva previsto esplicitamente, non un caso strano, anzi, <strong>un caso normalissimo<\/strong>, fa qualcosa di sbagliato. <\/p>\n\n\n\n<p>Non di molto. <\/p>\n\n\n\n<p>Ma abbastanza da creare un problema.<\/p>\n\n\n\n<p>La reazione tipica \u00e8 cercare il bug nel codice, nel modello, nell&#8217;integrazione. <strong>Raramente si guarda dove il problema spesso davvero si nasconde: nelle istruzioni. Nel linguaggio con cui \u00e8 stato detto all&#8217;agente cosa fare.<\/strong><\/p>\n\n\n\n<p>Quello che segue non \u00e8 un articolo di tecnologia in senso stretto. \u00c8 un articolo su <strong>come funziona davvero la comunicazione con un Large Language Model<\/strong> e su perch\u00e9, padroneggiare questa differenza, \u00e8 una delle leve pi\u00f9 sottovalutate per chi commissiona o supervisiona un progetto AI. <\/p>\n\n\n\n<p>Partiamo dall&#8217;inizio, e cio\u00e8 da <strong>cosa distingue un LLM da un essere umano quando legge un testo.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong><br><strong><strong>Gli LLM leggono le parole. Gli umani leggono le intenzioni.<\/strong><\/strong><\/strong><\/h2>\n\n\n\n<p>Quando un collega riceve una procedura scritta male, <strong>la interpreta<\/strong>. Usa il contesto, l&#8217;esperienza, il buon senso. <\/p>\n\n\n\n<p>Se manca un&#8217;indicazione, suppone quella pi\u00f9 ragionevole. Se una regola non copre un caso specifico, <strong>estrapola l&#8217;intenzione di chi l&#8217;ha scritta.<\/strong><\/p>\n\n\n\n<p>Un LLM non fa niente di tutto questo; o meglio, lo fa in modo molto meno affidabile di quanto si pensi. I modelli linguistici hanno sviluppato una capacit\u00e0 impressionante di generare risposte pertinenti e coerenti. <strong>Ma non ragionano per intenzioni: ragionano per pattern linguistici<\/strong>. La differenza, in produzione, si vede.<\/p>\n\n\n\n<p class=\"has-text-color has-link-color wp-elements-db163313b4c2636f7456f69a30b72140\" style=\"color:#5a6fcc\"><em>Un esempio concreto:<\/em><\/p>\n\n\n\n<p class=\"has-text-align-left has-white-color has-text-color has-background has-link-color wp-elements-db506c69ddb7f975986383f7be0518b6\" style=\"background-color:#5a6fcc;padding-right:var(--wp--preset--spacing--60);padding-left:var(--wp--preset--spacing--60)\">Un agente per il supporto clienti di una societ\u00e0 di noleggio viene istruito a <em>&#8220;gestire le richieste di modifica prenotazione&#8221;<\/em>. Arriva un cliente che vuole cancellare e ri-prenotare per date diverse. L&#8217;agente non gestisce la richiesta perch\u00e9 tecnicamente non \u00e8 una modifica, ma \u00e8 una cancellazione seguita da una nuova prenotazione. Un operatore umano avrebbe capito l&#8217;intenzione in mezzo secondo. L&#8217;agente no, perch\u00e9 quella casistica non era scritta da nessuna parte.<\/p>\n\n\n\n<p>Questo \u00e8 il punto di partenza da cui discendono tutti gli altri problemi che vedremo. <strong>Non \u00e8 una questione di intelligenza del modello: \u00e8 una questione strutturale, legata a come i LLM elaborano il linguaggio<\/strong>. Tenerlo a mente cambia il modo in cui si scrivono le istruzioni e, di conseguenza, il modo in cui si comporta l&#8217;agente.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/osf.io\/preprints\/psyarxiv\/c5gh8_v1\" target=\"_blank\" rel=\" noreferrer noopener\"><img loading=\"lazy\" decoding=\"async\" width=\"589\" height=\"883\" src=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/fdfdsdffsd-edited.jpg\" alt=\"\" class=\"wp-image-1993\" srcset=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/fdfdsdffsd-edited.jpg 589w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/fdfdsdffsd-edited-200x300.jpg 200w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/fdfdsdffsd-edited-542x813.jpg 542w\" sizes=\"auto, (max-width: 589px) 100vw, 589px\" \/><\/a><\/figure>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><em>I modelli linguistici non condividono il nostro bagaglio implicito di esperienza e cultura. Ogni inferenza che per noi \u00e8 ovvia, per loro deve essere scritta.<\/em><\/p>\n<\/blockquote>\n\n\n\n<h2 class=\"wp-block-heading\"><strong><br><strong><strong>Il peso delle parole prescrittive<\/strong><\/strong><\/strong>: <strong>&#8220;must&#8221; vs &#8220;should&#8221;<\/strong><\/h2>\n\n\n\n<p>Se il problema di fondo \u00e8 che i modelli leggono il testo alla lettera, la prima conseguenza pratica riguarda il tipo di istruzioni che si danno. In particolare, la <strong>differenza tra un&#8217;indicazione prescrittiva<\/strong>, qualcosa che l&#8217;agente deve fare senza eccezioni, <strong>e una raccomandazione<\/strong>, che pu\u00f2 essere ignorata in presenza di ragioni sufficienti.<\/p>\n\n\n\n<p>Dire a un agente &#8220;usa sempre e solo la lingua italiana&#8221; \u00e8 diverso da dire &#8220;rispondi in italiano&#8221;. Nel secondo caso, il modello ha una via d&#8217;uscita implicita. Se l&#8217;utente scrive in inglese, se il contesto \u00e8 ambiguo, se riporta una fonte citata in francese, il modello potrebbe scegliere di non seguire quell&#8217;indicazione, perch\u00e9 l&#8217;istruzione stessa glielo consentiva.<\/p>\n\n\n\n<p>Nella pratica quotidiana, chi scrive le istruzioni di un agente tende a usare un linguaggio naturale usando termini come: &#8220;dovresti&#8221;, &#8220;di norma&#8221;, &#8220;cerca di&#8221;, perch\u00e9 \u00e8 il modo in cui comunichiamo tra esseri umani, dove il contesto colma le lacune. <strong>Con un LLM, quelle sfumature diventano varchi<\/strong> <strong>operativi.<\/strong> <\/p>\n\n\n\n<p class=\"has-text-color has-link-color wp-elements-e3bb51699304b8f21b86e50d47ceba73\" style=\"color:#5a6fcc\"><em>Un esempio concreto:<\/em><\/p>\n\n\n\n<p class=\"has-white-color has-text-color has-background has-link-color wp-elements-2fb49adfadc4fd16093f2520ab8f1bdf\" style=\"background-color:#5a6fcc;padding-right:var(--wp--preset--spacing--60);padding-left:var(--wp--preset--spacing--60)\">Un agente configurato per &#8220;<em>preferibilmente non citare i competitor<\/em>&#8221; discuter\u00e0 di competitor non appena un utente lo solleciter\u00e0 direttamente: non gli era stato proibito, solo sconsigliato.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong><br><strong><strong>Le istruzioni condizionali: quando &#8220;o&#8221; non basta<\/strong><\/strong><\/strong><\/h2>\n\n\n\n<p>Un&#8217;altra conseguenza diretta del modo in cui i modelli leggono il testo riguarda le <strong>istruzioni condizionali<\/strong>: quelle del tipo &#8220;se accade X, fai Y&#8221;. Sono le pi\u00f9 comuni, e anche quelle in cui gli errori di formulazione sono pi\u00f9 difficili da intercettare prima di andare in produzione.<\/p>\n\n\n\n<p class=\"has-text-color has-link-color wp-elements-e3bb51699304b8f21b86e50d47ceba73\" style=\"color:#5a6fcc\"><em>Un esempio concreto:<\/em><\/p>\n\n\n\n<p class=\"has-white-color has-text-color has-background has-link-color wp-elements-f783d72d6d822e9e41f9c51844525979\" style=\"background-color:#5a6fcc;padding-right:var(--wp--preset--spacing--60);padding-left:var(--wp--preset--spacing--60)\">Un agente per la gestione di richieste HR viene istruito a trasferire la conversazione a un operatore umano &#8220;se l&#8217;utente esprime insoddisfazione o richiede informazioni riservate&#8221;. In test, funziona. Poi in produzione arriva un utente che \u00e8 chiaramente frustrato e, nello stesso messaggio, chiede dati sensibili sul proprio contratto. L&#8217;agente non trasferisce. Perch\u00e9 l&#8217;istruzione era formulata come una condizione singola &#8220;o&#8221; e il modello non l&#8217;ha estesa alla combinazione di entrambe.<\/p>\n\n\n\n<p style=\"padding-right:0;padding-left:0\"><br>La versione corretta avrebbe dovuto essere esplicita: &#8220;se l&#8217;utente esprime insoddisfazione, o richiede informazioni riservate, o entrambe le cose&#8221;. <strong>Una piccola aggiunta, una differenza di comportamento significativa.<\/strong> E questo \u00e8 solo il caso pi\u00f9 semplice: gli stessi problemi emergono nelle condizioni negative, nelle eccezioni, nelle regole che si applicano &#8220;in tutti i casi tranne&#8221;, ovunque, cio\u00e8, ci sia una logica che il redattore dava per scontata e che il modello non pu\u00f2 inferire.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"672\" src=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-1200x672.jpg\" alt=\"\" class=\"wp-image-1970\" srcset=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-1200x672.jpg 1200w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-300x168.jpg 300w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-768x430.jpg 768w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-1536x860.jpg 1536w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-542x304.jpg 542w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-1084x607.jpg 1084w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-792x444.jpg 792w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1-1230x689.jpg 1230w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/immagineArticolo1.jpg 1600w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><em>Un buon sistema di istruzioni non si valuta su quanto funziona nei casi previsti. Si valuta su quanto funziona in quelli che nessuno aveva pensato di specificare.<\/em><\/p>\n<\/blockquote>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Le risposte dell&#8217;agente rimodellano la conversazione: il problema del contesto azzerato<\/strong><\/h2>\n\n\n\n<p>C&#8217;\u00e8 poi un effetto collaterale delle istruzioni scritte male che \u00e8 <strong>particolarmente insidioso<\/strong>, perch\u00e9 non si manifesta nella singola risposta sbagliata, ma nel modo in cui quella risposta <strong>cambia il filo dell&#8217;intera conversazione<\/strong>. <\/p>\n\n\n\n<p>Vediamo queste conversazioni:<\/p>\n\n\n\n<div class=\"wp-block-group is-nowrap is-layout-flex wp-container-core-group-is-layout-6c531013 wp-block-group-is-layout-flex\">\n<figure style=\"margin-top:0;margin-right:0;margin-bottom:0;margin-left:0;padding-top:0;padding-right:0;padding-bottom:0;padding-left:0\" class=\"wp-block-video\"><video height=\"720\" style=\"aspect-ratio: 420 \/ 720;\" width=\"420\" autoplay controls loop muted src=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/ConversazioneArticolo2.mp4\" playsinline><\/video><figcaption class=\"wp-element-caption\">Esempio di conversazione con istruzioni implicite.<\/figcaption><\/figure>\n\n\n\n<figure style=\"margin-top:0;margin-right:0;margin-bottom:0;margin-left:0;padding-top:0;padding-right:0;padding-bottom:0;padding-left:0\" class=\"wp-block-video\"><video height=\"720\" style=\"aspect-ratio: 380 \/ 720;\" width=\"380\" autoplay controls loop muted src=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/videoArticolo2.mp4\" playsinline><\/video><figcaption class=\"wp-element-caption\">Esempio di conversazione senza istruzioni implicite.<\/figcaption><\/figure>\n<\/div>\n\n\n\n<div class=\"wp-block-group\"><div class=\"wp-block-group__inner-container is-layout-constrained wp-block-group-is-layout-constrained\">\n<div class=\"wp-block-group\"><div class=\"wp-block-group__inner-container is-layout-constrained wp-block-group-is-layout-constrained\"><\/div><\/div>\n<\/div><\/div>\n\n\n\n<p><strong>Cosa \u00e8 cambiato tra la prima e la seconda conversazione?<\/strong> Il problema non \u00e8 che l&#8217;agente nella prima conversazione abbia dimenticato il contesto, tecnicamente era ancora l\u00ec. <strong>Il problema \u00e8 che la prima risposta<\/strong>, che indicava una incapacit\u00e0 di rispondere sul tema, <strong>ha funzionato come un reset implicito<\/strong>: ha segnalato al modello che quella richiesta era chiusa, e la conversazione successiva \u00e8 partita <strong>come se fosse nuova<\/strong>.<\/p>\n\n\n\n<p>Formulando la risposta diversamente, <em>&#8220;Non ho trovato quello che cercavi, puoi riformulare la domanda?&#8221;<\/em>, il contesto invece rimane attivo. L&#8217;utente riformula la domanda, l&#8217;agente collega la nuova richiesta a quella precedente, e il Prodotto Blu rimane il soggetto implicito della conversazione.<\/p>\n\n\n\n<p>Non \u00e8 un dettaglio tecnico marginale. \u00c8 capire che ci\u00f2 che entra nella memoria dell&#8217;agente, opera come un ulteriore layer di istruzioni e modella attivamente il contesto. In questo caso, quindi, <strong>le parole che l&#8217;agente usa per gestire l&#8217;incertezza non sono neutre: rimodellano attivamente il contesto in cui opera.<\/strong><\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><strong>Ogni risposta dell\u2019agente entra nel contesto e contribuisce al set di istruzioni.<\/strong><\/p>\n<\/blockquote>\n\n\n\n<h2 class=\"wp-block-heading\"><strong><strong>Il vocabolario aziendale non \u00e8 universale<\/strong><\/strong><\/h2>\n\n\n\n<p>C&#8217;\u00e8 un ultimo livello su cui il linguaggio fa la differenza, e riguarda non le istruzioni in s\u00e9 ma i termini che le istruzioni usano. Ogni organizzazione ha il suo <strong>lessico interno<\/strong> \u2014 categorie, processi, status, ruoli \u2014 che per chi lavora in azienda hanno un significato preciso e condiviso, ma che un modello addestrato su testi generici pu\u00f2 interpretare in modo diverso, o semplicemente non definito.<\/p>\n\n\n\n<p class=\"has-text-color has-link-color wp-elements-e3bb51699304b8f21b86e50d47ceba73\" style=\"color:#5a6fcc\"><em>Un esempio concreto:<\/em><\/p>\n\n\n\n<p class=\"has-white-color has-text-color has-background has-link-color wp-elements-dfae7e2a41c6e258508e9b306c18567f\" style=\"background-color:#5a6fcc;padding-right:var(--wp--preset--spacing--60);padding-left:var(--wp--preset--spacing--60)\">Un agente viene configurato per trattare in modo prioritario le richieste dei <em>&#8220;clienti senior&#8221;<\/em>. Per il team interno, &#8220;senior&#8221; significa clienti con contratto da oltre tre anni e fatturato sopra una certa soglia. Per il modello, &#8220;senior&#8221; pu\u00f2 indicare anzianit\u00e0, importanza gerarchica, o niente di specifico. Il risultato \u00e8 un agente che applica la priorit\u00e0 in modo incoerente, seguendo criteri che nessuno aveva inteso.<\/p>\n\n\n\n<p>La soluzione non \u00e8 &#8220;spiegare&#8221; il termine una volta nel testo delle istruzioni. \u00c8 <strong>costruire un glossario operativo<\/strong> che faccia parte integrante della configurazione dell&#8217;agente, con definizioni non ambigue e misurabili. Non <em>cliente senior = cliente importante<\/em>, ma <em>cliente senior = account con contratto attivo da almeno 36 mesi o con volume annuo superiore a una soglia definita<\/em>.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"799\" src=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/Gemini_Generated_Image_usqemusqemusqemu-1-1200x799.png\" alt=\"\" class=\"wp-image-1994\" srcset=\"https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/Gemini_Generated_Image_usqemusqemusqemu-1-1200x799.png 1200w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/Gemini_Generated_Image_usqemusqemusqemu-1-300x200.png 300w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/Gemini_Generated_Image_usqemusqemusqemu-1-768x512.png 768w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/Gemini_Generated_Image_usqemusqemusqemu-1-1536x1023.png 1536w, https:\/\/userbot.ai\/blog\/wp-content\/uploads\/2026\/03\/Gemini_Generated_Image_usqemusqemusqemu-1.png 2528w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p><strong>Questo vale ancora di pi\u00f9 per i termini che sembrano ovvi<\/strong> come &#8220;urgente&#8221;, &#8220;standard&#8221;, &#8220;nuovo cliente&#8221;, &#8220;caso semplice&#8221;. Proprio perch\u00e9 sembrano ovvi, raramente vengono definiti. E proprio per questo generano i comportamenti pi\u00f9 difficili da diagnosticare: <strong>l&#8217;agente non sbaglia in modo plateale, sbaglia in modo sottile, applicando una definizione che \u00e8 solo leggermente diversa da quella attesa.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong><strong>Cinque atteggiamenti per comunicare meglio con un LLM<\/strong><\/strong><\/h2>\n\n\n\n<p>Tutto quello che abbiamo visto non richiede competenze tecniche avanzate. Richiede invece un <strong>cambio di prospettiva<\/strong>: smettere di scrivere per un interlocutore che capisce le intenzioni, e iniziare a scrivere per uno che capisce solo le parole.<\/p>\n\n\n\n<p><strong>Immaginate di dare istruzioni a un bambino di quattro anni.<\/strong> <\/p>\n\n\n\n<p>I bambini piccoli non hanno pregiudizi n\u00e9 preconoscenze di contesto, bens\u00ec interpretano le istruzioni alla lettera, con una logica impeccabile e zero inferenze implicite. <\/p>\n\n\n\n<p class=\"has-white-color has-text-color has-background has-link-color wp-elements-03bcc2cf25e3a98fee19623989426da7\" style=\"background-color:#5a6fcc;padding-right:var(--wp--preset--spacing--60);padding-left:var(--wp--preset--spacing--60)\">Se dici &#8220;puoi vedere la televisione dopo aver mangiato&#8221;, il bambino prende una merendina e torna a reclamare la televisione. Non ha torto: ha mangiato. Il problema era nell&#8217;istruzione, che intendeva &#8220;dopo pranzo&#8221; ma non lo aveva detto. <\/p>\n\n\n\n<p><strong>Con un LLM funziona esattamente cos\u00ec. <\/strong><\/p>\n\n\n\n<p>Tenere presente questo mentre si scrive: pensare come un LLM, o come un bambino di quattro anni, \u00e8 forse il consiglio pi\u00f9 utile che si possa dare. Gli altri cinque discendono da l\u00ec.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Pesa le parole, non solo il senso.<\/strong>&nbsp; Ogni termine porta con s\u00e9 una sfumatura: &#8220;deve&#8221; e &#8220;dovrebbe&#8221; non sono sinonimi, &#8220;cliente&#8221; e &#8220;utente&#8221; potrebbero non esserlo nel tuo contesto. <\/li>\n\n\n\n<li><strong>Non dare niente per ovvio.<\/strong>&nbsp; Tutto quello che non \u00e8 scritto, non esiste. Se un&#8217;informazione \u00e8 rilevante per il comportamento dell&#8217;agente, va scritta. Se una categoria va applicata a certi casi, va detto esplicitamente quali sono quei casi.<\/li>\n\n\n\n<li><strong>Scrivi per i casi che non hai previsto, non solo per quelli che hai in mente.<\/strong>&nbsp; Le istruzioni nascono quasi sempre da scenari tipici. Ma gli agenti si trovano ad affrontare soprattutto quelli atipici: le combinazioni, le eccezioni, le richieste ibride. <\/li>\n\n\n\n<li><strong>Evita istruzioni vaghe.<\/strong>&nbsp; Costruzioni linguistiche come &#8220;gestisci opportunamente&#8221;, &#8220;rispondi in modo adeguato&#8221;, &#8220;valuta caso per caso&#8221; non comunicano nulla di operativo al modello. <\/li>\n\n\n\n<li><strong>Rileggi come se non sapessi nulla.<\/strong>&nbsp; Se nel leggere emergono ambiguit\u00e0, vuoti, o interpretazioni alternative, il modello le trover\u00e0 certamente prima e per lui saranno regole operative.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>La cura con cui si parla, non la tecnica con cui si programma<\/strong><\/h2>\n\n\n\n<p>Chi decide di adottare un agente AI in azienda di solito pensa alle sfide in termini di integrazione, sicurezza, governance dei dati. Sono sfide reali. Ma c&#8217;\u00e8 una sfida altrettanto reale che riceve meno attenzione, anche perch\u00e9 non sembra una sfida tecnologica: <strong>la qualit\u00e0 del linguaggio con cui l&#8217;agente viene istruito.<\/strong><\/p>\n\n\n\n<p><br>I segnali che qualcosa non va a questo livello sono spesso sottili. L&#8217;agente funziona bene nell&#8217;80% o pi\u00f9 dei casi. I casi problematici sembrano casuali, difficili da riprodurre in modo sistematico. Le correzioni risolvono un comportamento e ne aprono un altro. Se riconosci questo pattern, <strong>\u00e8 molto probabile che il problema non sia nel modello<\/strong>, ma in come gli \u00e8 stato detto cosa fare.<\/p>\n\n\n\n<p><br>Non serve essere ingegneri per affrontarlo. Serve un cambio di prospettiva: <strong>smettere di dare per scontato che l&#8217;agente sappia cosa si intende, e iniziare a scrivere come se dovesse capire tutto dalla sola lettura delle parole.<\/strong> Come si fa con un bambino piccolo, con pazienza e precisione <strong>sapendo che lui eseguir\u00e0 esattamente quello che gli hai detto<\/strong>, e che la responsabilit\u00e0 di dirlo bene \u00e8 la tua.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><em>La differenza tra un agente che &#8220;ci siamo quasi&#8221; e uno che funziona davvero passa quasi sempre da qui: non da una scelta tecnologica, ma dalla cura con cui sono state scelte le parole.<\/em><\/p>\n<\/blockquote>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"Perch\u00e9 la differenza tra un agente che funziona e uno che delude spesso non sta nel modello scelto,&hellip;","protected":false},"author":7,"featured_media":1983,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"csco_display_header_overlay":false,"csco_singular_sidebar":"","csco_page_header_type":"","csco_page_load_nextpost":"","csco_page_reading_time":"","csco_page_toc_navigation":"","csco_post_video_location":[],"csco_post_video_location_hash":"","csco_post_video_url":"","csco_post_video_bg_start_time":0,"csco_post_video_bg_end_time":0,"csco_post_video_bg_volume":false,"footnotes":""},"categories":[41,22,24],"tags":[100,80],"class_list":{"0":"post-1923","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-intelligenza-artificiale","8":"category-business","9":"category-tecnologia","10":"tag-ai","11":"tag-artificial-intelligence","12":"cs-entry","13":"cs-video-wrap"},"_links":{"self":[{"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/posts\/1923","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/comments?post=1923"}],"version-history":[{"count":16,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/posts\/1923\/revisions"}],"predecessor-version":[{"id":1996,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/posts\/1923\/revisions\/1996"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/media\/1983"}],"wp:attachment":[{"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/media?parent=1923"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/categories?post=1923"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/userbot.ai\/blog\/wp-json\/wp\/v2\/tags?post=1923"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}