La serie sull'architettura dell'IA – Parte 2
Nella prima parte di questa serie abbiamo spiegato perché è importante scegliere l'architettura di IA giusta, soprattutto in contesti regolamentati in cui una decisione errata può avere conseguenze sempre più gravi col passare del tempo. In questa occasione ci soffermeremo sugli elementi costitutivi stessi.
I moderni sistemi di intelligenza artificiale non sono monolitici. Sono costituiti da livelli distinti, ciascuno dei quali svolge una funzione diversa. Capire a cosa serve ogni livello rende molto più facile valutare gli strumenti, porre le domande giuste ed evitare la trappola di acquistare funzionalità invece che infrastrutture.
Gli esempi riportati in questo articolo sono volutamente semplici. L'obiettivo è quello di illustrare come i livelli si integrano tra loro, non di riprodurre flussi di lavoro reali. Nel prossimo articolo vedremo come questa architettura si applica concretamente, in particolare nel settore dei servizi finanziari.
Livello 1: il modello di linguaggio di grandi dimensioni (LLM), il motore di ragionamento
Un modello linguistico di grandi dimensioni, o LLM, è il cuore della maggior parte dei moderni sistemi di intelligenza artificiale. È il componente che legge, scrive, riassume, analizza e genera risposte. Quando si parla di GPT-4, Claude o Gemini, ci si riferisce proprio agli LLM.
Immaginate l'LLM come un cervello. È in grado di ragionare e produrre contenuti su una vasta gamma di argomenti e formati, ma di per sé non conosce i vostri dati interni, il contesto specifico della vostra organizzazione né la metodologia utilizzata dal vostro team. Si tratta di un'intelligenza generica: potente, ma grezza.
Gli altri livelli servono a collegare tale intelligenza alle informazioni giuste e a indirizzarla verso risultati specifici e coerenti.
LIVELLO 1 – SOLO LLM
Il modello ne sa davvero molto
Ma solo ciò che ha imparato durante l'addestramento. Nessun dato in tempo reale. Nessun contesto aziendale. Nessun collegamento con il mondo esterno.
⚠️ Cosa manca ancora
Il modello non ha modo di accedere a nulla al di fuori dei dati utilizzati per l'addestramento. Non può consultare informazioni in tempo reale, interrogare i vostri sistemi interni né conoscere alcun aspetto specifico della vostra organizzazione. Si tratta di un'intelligenza generica, priva di qualsiasi collegamento con la vostra realtà.
Livello 2: MCP, il livello di connessione
MCP è l'acronimo di Model Context Protocol. Si tratta di uno standard aperto che definisce le modalità con cui i sistemi di intelligenza artificiale si collegano a fonti di dati e strumenti esterni. Introdotto originariamente da Anthropic e sempre più diffuso nel settore, l'MCP sostituisce un groviglio di integrazioni ad hoc con un protocollo comune, proprio come l'USB-C ha sostituito un cassetto pieno di cavi incompatibili.
In pratica, un server MCP mette a disposizione determinate funzionalità (interrogazione di un database, lettura da un archivio di documenti, verifica di un feed di dati in tempo reale, esecuzione di un codice) in modo che i sistemi di IA possano individuarle e utilizzarle in modo coerente. Anziché sviluppare un'integrazione personalizzata per ogni strumento a cui l'IA deve accedere, è sufficiente collegarli tramite MCP, e qualsiasi sistema di IA che supporti lo standard potrà utilizzarli.
Una cosa che vale la pena sottolineare: MCP gestisce l'accesso, non l'intelligenza. Determina dove l'IA può arrivare; ciò che fa con ciò che trova dipende comunque dal modello e dai livelli superiori.
LIVELLO 2 – MCP
MCP offre al modello un modo standard per interagire con l'esterno
Dati in tempo reale, API e strumenti interni, senza dover creare una connessione personalizzata per ogni utilizzo.
Dietro le quinte
⚠️ Cosa manca ancora
Il modello è ora in grado di accedere a dati esterni, ma non ha alcuna consapevolezza di come funzioni la vostra organizzazione. Non conosce il formato di output che preferite, la metodologia seguita dal vostro team né le competenze specifiche del settore che rendono unica la vostra analisi. I dati accessibili non sono sinonimo di dati utili.
Livello 3: Competenze, il livello del know-how
Se l'MCP risponde alla domanda «A cosa può accedere l'IA?», le competenze rispondono alla domanda «Come dovrebbe l'IA eseguire questa operazione specifica?».
Una "skill" è un pacchetto riutilizzabile e trasferibile che codifica un flusso di lavoro, una metodologia o una competenza settoriale specifici. Può raggruppare istruzioni, esempi, modelli e logica strutturata in un formato che un sistema di IA può caricare e applicare in modo coerente. E, proprio come l'MCP, le skill sono realizzate secondo uno standard aperto: ciò significa che una skill ben progettata può essere condivisa e riutilizzata su diversi sistemi di IA che supportano tale specifica, senza essere vincolata a una piattaforma specifica.
Una buona metafora ci viene da *Matrix*: quando Neo deve imparare il kung fu, non acquisisce questa conoscenza attraverso anni di pratica, ma gli viene semplicemente installata. Le competenze funzionano in modo simile: forniscono a un sistema di IA una capacità riutilizzabile che codifica le competenze in una forma che può essere applicata immediatamente e in modo coerente.
Questo approccio risulta particolarmente efficace nelle organizzazioni che hanno «un modo specifico di operare». Ad esempio, i rapporti degli analisti nel settore finanziario seguono una struttura particolare. Le note di conformità hanno requisiti rigorosi in termini di formato e tono. Le decisioni relative agli appalti seguono una metodologia di approvazione predefinita. Senza competenze, sarebbe necessario spiegare nuovamente tali requisiti ogni volta che si svolge un'attività. Con le competenze, la metodologia viene codificata una volta sola e applicata in modo coerente, indipendentemente da chi la gestisce o dal modello sottostante che la alimenta.
In pratica, una competenza non è altro che un insieme strutturato di documenti: istruzioni, esempi, modelli e materiale di riferimento che il modello legge e segue, proprio come le guide metodologiche o le procedure operative standard già in uso nel vostro team. La differenza sta nel fatto che è formattata in modo tale che un sistema di intelligenza artificiale possa applicarla in modo coerente e automatico, senza dover fare affidamento sulla memoria di qualcuno per ricordare i passaggi corretti.
Non tutte le organizzazioni sono pronte a sviluppare skill complete fin dal primo giorno. La maggior parte delle principali piattaforme offre una versione semplificata dello stesso concetto attraverso i progetti: un modo per organizzare e conservare il contesto, le istruzioni e i file tra una conversazione e l’altra, in modo che il modello possa mantenere le vostre preferenze e conoscenze senza dover essere reimpostato ogni volta. I progetti sono meno potenti e portabili rispetto a una skill, ma rappresentano un punto di partenza pratico per i team che desiderano garantire la coerenza senza l’onere di dover creare e distribuire skill all’interno dell’organizzazione.
La distinzione da tenere presente: MCP = accesso. Competenze = metodo.
LIVELLO 3 – COMPETENZE
La competenza indica al modello cosa deve sapere. L'MCP gli indica dove cercare.
Insieme, una domanda che da sola avrebbe messo in difficoltà il modello ottiene una risposta precisa e strutturata.
Dietro le quinte
Ecco le previsioni del tempo in tutte le sedi dei nostri uffici:
New York 7 °C, parzialmente nuvoloso Londra 12 °C, cielo coperto San Paolo 24 °C, rovesci
Singapore 31 °C Umido Madrid 16 °C Sereno
⚠️ Cosa manca ancora
Il modello è in grado di accedere ai dati corretti e di applicare la vostra metodologia, ma i flussi di lavoro complessi e articolati in più fasi richiedono comunque che qualcuno coordini manualmente ogni fase. Più fasi comporta un'attività, maggiore è lo sforzo umano necessario per collegarle tra loro.
Livello 4: Agenti, il livello di orchestrazione
Un agente è un sistema che combina un modello di linguaggio di grandi dimensioni (LLM) con strumenti, istruzioni e logica per svolgere attività articolate in più fasi con un certo grado di autonomia. Mentre un semplice assistente si limita a rispondere a una domanda, un agente pianifica, recupera le informazioni, esegue le operazioni, verifica i propri risultati e si adatta quando qualcosa non va come previsto.
Se l'LLM è il cervello, l'MCP è il tessuto connettivo che lo collega al mondo e le competenze sono le capacità acquisite a cui può attingere, allora l'agente è l'operatore che mette tutto insieme per portare effettivamente a termine un'azione.
È qui che l’«assistente AI» diventa un «sistema AI». Un assistente si limita a rispondere sulla base delle sue conoscenze fisse. Un agente è in grado di cercare informazioni e di intraprendere azioni in modo autonomo.
LIVELLO 4 – AGENTE
Gli agenti pianificano, decidono e agiscono
Il modello logico-linguistico (LLM) elabora le ragioni, i modelli di controllo multiplo (MCP) creano connessioni, le competenze forniscono il metodo e l’agente coordina il tutto per raggiungere un risultato.
Dietro le quinte
I mesi migliori per visitare gli uffici sono i seguenti:
7-11 aprile New York – San Paolo 22-24 aprile Singapore
14-18 aprile Londra – Madrid
In tutti e quattro i livelli vale un unico principio: ogni livello risolve un problema diverso. Il modello di linguaggio di grandi dimensioni (LLM) fornisce il ragionamento. L'MCP garantisce l'accesso. Le competenze definiscono il metodo. Gli agenti assicurano l'orchestrazione. Un sistema che è solido in un livello ma carente in un altro mostrerà rapidamente le sue lacune in produzione: impressionante in una demo, inaffidabile su larga scala.
In che modo i principali laboratori di IA stanno implementando questi livelli
I principali laboratori di intelligenza artificiale hanno adottato architetture sorprendentemente simili, nonostante abbiano affrontato il problema partendo da presupposti diversi.
Il segno più evidente di questa convergenza è proprio l'MCP. Quello che era nato come protocollo open source di Anthropic è stato adottato da tutte le principali piattaforme. OpenAI, Google e Microsoft supportano tutte l'MCP, rendendolo lo standard comune per collegare i sistemi di IA a strumenti e dati esterni. Per le organizzazioni che sviluppano integrazioni, ciò significa che le connessioni in cui investono oggi hanno molte meno probabilità di rimanere vincolate a un unico fornitore.
Al di là del livello di connessione, ogni laboratorio sta completando lo stack a modo suo:
- Anthropic ha applicato la stessa filosofia degli "standard aperti" al lancio di Skills, una soluzione portatile che consente di codificare metodologie e competenze settoriali utilizzabili su più piattaforme. I plugin di Claude raggruppano connessioni MCP e competenze in pacchetti installabili, rendendo semplicissimo fornire a un sistema di IA sia l'accesso che il know-how in un unico passaggio.
- OpenAI ha sviluppato il proprio ecosistema di integrazioni sotto l'egida di Apps, che consentono a ChatGPT di accedere a strumenti e fonti di dati esterni.
- Microsoft ha reso Copilot Studio la propria piattaforma per la creazione di agenti, con connettori basati su MCP e una nuova funzionalità denominata "Notebooks" che garantisce la persistenza del contesto di progetto.
- Google supporta MCP su tutte le sue piattaforme per sviluppatori e cloud e ha recentemente introdotto i "Progetti" come strumento per conservare il contesto e le istruzioni tra una conversazione e l'altra.
La terminologia varia a seconda delle piattaforme, ma i concetti di fondo corrispondono agli stessi livelli:
LA SERIE SULL'ARCHITETTURA DELL'IA – PARTE 2
Come i principali laboratori di IA implementano i quattro livelli
La stessa architettura, quattro vocabolari diversi
| Antropico | OpenAI | Microsoft | ||
|---|---|---|---|---|
| App principale GenAI | Claude | ChatGPT | Copilota | Gemelli |
| Contesto persistente | Progetti | Progetti | Quaderni | Progetti |
| Livello di connessione | Connettori | Applicazioni | Connettori | Estensioni; MCP (solo dev/cloud) |
| Funzionalità dell'agente | Claude Cowork | Modalità agente | Copilot Studio | Agente Gemini |
Per chiunque stia sviluppando flussi di lavoro basati sull'intelligenza artificiale nel settore dei servizi finanziari, questa convergenza rappresenta una buona notizia, ma non risolve la questione della governance. Il modo in cui ciascuna piattaforma gestisce le connessioni dei dati, la metodologia e l'orchestrazione in più fasi determina se il sistema che si sviluppa oggi sarà in grado di reggere a un esame approfondito domani.
Cosa ci aspetta: agenti che agiscono e agenti che collaborano
Molti degli strumenti che le persone utilizzano già dispongono di agenti che operano dietro le quinte. Quando ChatGPT scrive codice, effettua ricerche sul web e sintetizza una risposta in un’unica sessione, è un agente all’opera. Lo stesso vale per Claude, Microsoft Copilot e un numero crescente di prodotti aziendali. Tuttavia, al momento questi agenti operano ancora entro i limiti di una finestra di chat e di una serie di collegamenti predefiniti con gli strumenti. Ma le cose stanno iniziando a cambiare.
La prima frontiera è rappresentata dagli agenti in grado di gestire un ambiente informatico completo per conto dell’utente: navigare, cliccare, spostarsi tra le applicazioni, senza limitarsi alla chat. Cowork di Anthropic e la modalità Agent di OpenAI forniscono all'IA un proprio spazio di lavoro in modalità sandbox dove può svolgere compiti utilizzando qualsiasi strumento disponibile, mentre progetti open-source come OpenClaw adottano un approccio diverso, consentendo a un agente IA di funzionare direttamente sul tuo computer locale con accesso al browser, ai file e alle app di messaggistica.
La seconda frontiera è rappresentata dagli agenti in grado di coordinarsi tra loro. Oggi, se si desidera che un sistema di intelligenza artificiale trasferisca un’attività, ad esempio da un agente di ricerca a un agente di verifica della conformità basato su una piattaforma diversa, è necessario che qualcuno esegua manualmente l’integrazione. Il protocollo A2A di Google è stato progettato per cambiare questa situazione, fornendo agli agenti un linguaggio comune per delegare le attività tra piattaforme e fornitori diversi.
Entrambe queste frontiere seguono lo stesso schema: maggiore autonomia, accesso più ampio, posta in gioco più alta. Un agente in grado di navigare sul web e utilizzare applicazioni per conto dell’utente è di gran lunga più potente di uno limitato a una finestra di chat, ma comporta anche maggiori rischi. Il settore sta ancora cercando di capire come rendere questi sistemi sufficientemente sicuri, verificabili e controllabili per gli ambienti regolamentati. Per i team che operano nel settore dei servizi finanziari, si tratta di un ambito da tenere d’occhio con attenzione, ma da affrontare con cautela.
Nel prossimo articolo di questa serie, mostreremo come si presentano questi quattro livelli nella pratica all'interno dei flussi di lavoro dei servizi finanziari, dove ogni livello svolge un compito specifico e tracciabile.
Seguici su LinkedIn o iscriviti alla nostra newsletter per non perderti nulla.




