Investire nell'era dell'intelligenza artificiale
Opera d'arte astratta raffigurante nastri traslucidi multicolori che si intrecciano su uno sfondo verde acqua, con cerchi chiari lungo il bordo sinistro.
AIArticoli

Di cosa sono fatti realmente i sistemi di IA: spiegazione dell'architettura

Pubblicato: 20 aprile 2026
Aggiornato: 20 aprile 2026
Punti di forza
  • I moderni sistemi di intelligenza artificiale sono costituiti da quattro livelli distinti — LLM, MCP, competenze e agenti — ciascuno dei quali risolve un problema diverso. Acquistare uno strumento senza capire quali livelli copra è il motivo per cui le organizzazioni si ritrovano con demo impressionanti e sistemi operativi inaffidabili.
  • Accesso e intelligenza non sono la stessa cosa. Un'intelligenza artificiale in grado di accedere ai tuoi dati ha comunque bisogno di una metodologia e di competenze specifiche nel settore per poterli utilizzare in modo proficuo.
  • I principali laboratori di intelligenza artificiale hanno adottato la stessa architettura. La terminologia varia, ma i livelli sottostanti sono coerenti: ciò significa che le integrazioni e le competenze che sviluppi oggi hanno meno probabilità di rimanere vincolate a un unico fornitore.

La serie sull'architettura dell'IA – Parte 2

Nella prima parte di questa serie abbiamo spiegato perché è importante scegliere l'architettura di IA giusta, soprattutto in contesti regolamentati in cui una decisione errata può avere conseguenze sempre più gravi col passare del tempo. In questa occasione ci soffermeremo sugli elementi costitutivi stessi.

I moderni sistemi di intelligenza artificiale non sono monolitici. Sono costituiti da livelli distinti, ciascuno dei quali svolge una funzione diversa. Capire a cosa serve ogni livello rende molto più facile valutare gli strumenti, porre le domande giuste ed evitare la trappola di acquistare funzionalità invece che infrastrutture.

Gli esempi riportati in questo articolo sono volutamente semplici. L'obiettivo è quello di illustrare come i livelli si integrano tra loro, non di riprodurre flussi di lavoro reali. Nel prossimo articolo vedremo come questa architettura si applica concretamente, in particolare nel settore dei servizi finanziari.

Livello 1: il modello di linguaggio di grandi dimensioni (LLM), il motore di ragionamento

Un modello linguistico di grandi dimensioni, o LLM, è il cuore della maggior parte dei moderni sistemi di intelligenza artificiale. È il componente che legge, scrive, riassume, analizza e genera risposte. Quando si parla di GPT-4, Claude o Gemini, ci si riferisce proprio agli LLM.

Immaginate l'LLM come un cervello. È in grado di ragionare e produrre contenuti su una vasta gamma di argomenti e formati, ma di per sé non conosce i vostri dati interni, il contesto specifico della vostra organizzazione né la metodologia utilizzata dal vostro team. Si tratta di un'intelligenza generica: potente, ma grezza.

Gli altri livelli servono a collegare tale intelligenza alle informazioni giuste e a indirizzarla verso risultati specifici e coerenti.

LIVELLO 1 – SOLO LLM

Il modello ne sa davvero molto

Ma solo ciò che ha imparato durante l'addestramento. Nessun dato in tempo reale. Nessun contesto aziendale. Nessun collegamento con il mondo esterno.

Assistente AI
Che tempo fa in questo momento nel nostro ufficio di New York?
Non ho accesso ai dati meteorologici in tempo reale né alle sedi della vostra azienda. In linea di massima, a marzo a New York il clima può variare da freddo a mite, con temperature che in genere oscillano tra i 1,7 e i 12,8 °C.

⚠️ Cosa manca ancora

Il modello non ha modo di accedere a nulla al di fuori dei dati utilizzati per l'addestramento. Non può consultare informazioni in tempo reale, interrogare i vostri sistemi interni né conoscere alcun aspetto specifico della vostra organizzazione. Si tratta di un'intelligenza generica, priva di qualsiasi collegamento con la vostra realtà.

Livello 2: MCP, il livello di connessione

MCP è l'acronimo di Model Context Protocol. Si tratta di uno standard aperto che definisce le modalità con cui i sistemi di intelligenza artificiale si collegano a fonti di dati e strumenti esterni. Introdotto originariamente da Anthropic e sempre più diffuso nel settore, l'MCP sostituisce un groviglio di integrazioni ad hoc con un protocollo comune, proprio come l'USB-C ha sostituito un cassetto pieno di cavi incompatibili.

In pratica, un server MCP mette a disposizione determinate funzionalità (interrogazione di un database, lettura da un archivio di documenti, verifica di un feed di dati in tempo reale, esecuzione di un codice) in modo che i sistemi di IA possano individuarle e utilizzarle in modo coerente. Anziché sviluppare un'integrazione personalizzata per ogni strumento a cui l'IA deve accedere, è sufficiente collegarli tramite MCP, e qualsiasi sistema di IA che supporti lo standard potrà utilizzarli.

Una cosa che vale la pena sottolineare: MCP gestisce l'accesso, non l'intelligenza. Determina dove l'IA può arrivare; ciò che fa con ciò che trova dipende comunque dal modello e dai livelli superiori.

LIVELLO 2 – MCP

MCP offre al modello un modo standard per interagire con l'esterno

Dati in tempo reale, API e strumenti interni, senza dover creare una connessione personalizzata per ogni utilizzo.

Assistente AI
Che tempo fa in questo momento nel nostro ufficio di New York?

Dietro le quinte

MCP 🌤 Servizio meteo – Previsioni a 30 giorni
Non ho accesso ai dati meteorologici in tempo reale né alle sedi della vostra azienda. In linea di massima, a marzo a New York il clima può variare da freddo a mite, con temperature che in genere oscillano tra i 1,7 e i 12,8 °C.

⚠️ Cosa manca ancora

Il modello è ora in grado di accedere a dati esterni, ma non ha alcuna consapevolezza di come funzioni la vostra organizzazione. Non conosce il formato di output che preferite, la metodologia seguita dal vostro team né le competenze specifiche del settore che rendono unica la vostra analisi. I dati accessibili non sono sinonimo di dati utili.

Livello 3: Competenze, il livello del know-how

Se l'MCP risponde alla domanda «A cosa può accedere l'IA?», le competenze rispondono alla domanda «Come dovrebbe l'IA eseguire questa operazione specifica?».

Una "skill" è un pacchetto riutilizzabile e trasferibile che codifica un flusso di lavoro, una metodologia o una competenza settoriale specifici. Può raggruppare istruzioni, esempi, modelli e logica strutturata in un formato che un sistema di IA può caricare e applicare in modo coerente. E, proprio come l'MCP, le skill sono realizzate secondo uno standard aperto: ciò significa che una skill ben progettata può essere condivisa e riutilizzata su diversi sistemi di IA che supportano tale specifica, senza essere vincolata a una piattaforma specifica.

Una buona metafora ci viene da *Matrix*: quando Neo deve imparare il kung fu, non acquisisce questa conoscenza attraverso anni di pratica, ma gli viene semplicemente installata. Le competenze funzionano in modo simile: forniscono a un sistema di IA una capacità riutilizzabile che codifica le competenze in una forma che può essere applicata immediatamente e in modo coerente.

Questo approccio risulta particolarmente efficace nelle organizzazioni che hanno «un modo specifico di operare». Ad esempio, i rapporti degli analisti nel settore finanziario seguono una struttura particolare. Le note di conformità hanno requisiti rigorosi in termini di formato e tono. Le decisioni relative agli appalti seguono una metodologia di approvazione predefinita. Senza competenze, sarebbe necessario spiegare nuovamente tali requisiti ogni volta che si svolge un'attività. Con le competenze, la metodologia viene codificata una volta sola e applicata in modo coerente, indipendentemente da chi la gestisce o dal modello sottostante che la alimenta.

In pratica, una competenza non è altro che un insieme strutturato di documenti: istruzioni, esempi, modelli e materiale di riferimento che il modello legge e segue, proprio come le guide metodologiche o le procedure operative standard già in uso nel vostro team. La differenza sta nel fatto che è formattata in modo tale che un sistema di intelligenza artificiale possa applicarla in modo coerente e automatico, senza dover fare affidamento sulla memoria di qualcuno per ricordare i passaggi corretti.

Non tutte le organizzazioni sono pronte a sviluppare skill complete fin dal primo giorno. La maggior parte delle principali piattaforme offre una versione semplificata dello stesso concetto attraverso i progetti: un modo per organizzare e conservare il contesto, le istruzioni e i file tra una conversazione e l’altra, in modo che il modello possa mantenere le vostre preferenze e conoscenze senza dover essere reimpostato ogni volta. I progetti sono meno potenti e portabili rispetto a una skill, ma rappresentano un punto di partenza pratico per i team che desiderano garantire la coerenza senza l’onere di dover creare e distribuire skill all’interno dell’organizzazione.

La distinzione da tenere presente: MCP = accesso. Competenze = metodo.

LIVELLO 3 – COMPETENZE

La competenza indica al modello cosa deve sapere. L'MCP gli indica dove cercare.

Insieme, una domanda che da sola avrebbe messo in difficoltà il modello ottiene una risposta precisa e strutturata.

Assistente AI
Che tempo fa oggi in ciascuna delle nostre sedi?

Dietro le quinte

Abilità 🏢 Sedi aziendali – 5 sedi
MCP 🌤 Servizio meteo – Previsioni a 30 giorni

Ecco le previsioni del tempo in tutte le sedi dei nostri uffici:

New York 7 °C, parzialmente nuvoloso Londra 12 °C, cielo coperto San Paolo 24 °C, rovesci

Singapore 31 °C Umido Madrid 16 °C Sereno

⚠️ Cosa manca ancora

Il modello è in grado di accedere ai dati corretti e di applicare la vostra metodologia, ma i flussi di lavoro complessi e articolati in più fasi richiedono comunque che qualcuno coordini manualmente ogni fase. Più fasi comporta un'attività, maggiore è lo sforzo umano necessario per collegarle tra loro.

Livello 4: Agenti, il livello di orchestrazione

Un agente è un sistema che combina un modello di linguaggio di grandi dimensioni (LLM) con strumenti, istruzioni e logica per svolgere attività articolate in più fasi con un certo grado di autonomia. Mentre un semplice assistente si limita a rispondere a una domanda, un agente pianifica, recupera le informazioni, esegue le operazioni, verifica i propri risultati e si adatta quando qualcosa non va come previsto.

Se l'LLM è il cervello, l'MCP è il tessuto connettivo che lo collega al mondo e le competenze sono le capacità acquisite a cui può attingere, allora l'agente è l'operatore che mette tutto insieme per portare effettivamente a termine un'azione.

È qui che l’«assistente AI» diventa un «sistema AI». Un assistente si limita a rispondere sulla base delle sue conoscenze fisse. Un agente è in grado di cercare informazioni e di intraprendere azioni in modo autonomo.

LIVELLO 4 – AGENTE

Gli agenti pianificano, decidono e agiscono

Il modello logico-linguistico (LLM) elabora le ragioni, i modelli di controllo multiplo (MCP) creano connessioni, le competenze forniscono il metodo e l’agente coordina il tutto per raggiungere un risultato.

Assistente AI
Quali sono le settimane migliori del mese prossimo per recarsi in ciascuna delle nostre sedi?

Dietro le quinte

Abilità 🏢 Sedi aziendali – 5 sedi trovate
MCP 🌤 Servizio meteo – Previsioni a 30 giorni
Agente 👤 Individuati i periodi migliori per viaggiare
MCP 📅 Calendario – Settimane disponibili trovate
Agente 👤 Itinerario settimanale pronto

I mesi migliori per visitare gli uffici sono i seguenti:

7-11 aprile New York – San Paolo 22-24 aprile Singapore

14-18 aprile Londra – Madrid

In tutti e quattro i livelli vale un unico principio: ogni livello risolve un problema diverso. Il modello di linguaggio di grandi dimensioni (LLM) fornisce il ragionamento. L'MCP garantisce l'accesso. Le competenze definiscono il metodo. Gli agenti assicurano l'orchestrazione. Un sistema che è solido in un livello ma carente in un altro mostrerà rapidamente le sue lacune in produzione: impressionante in una demo, inaffidabile su larga scala.

In che modo i principali laboratori di IA stanno implementando questi livelli

I principali laboratori di intelligenza artificiale hanno adottato architetture sorprendentemente simili, nonostante abbiano affrontato il problema partendo da presupposti diversi.

Il segno più evidente di questa convergenza è proprio l'MCP. Quello che era nato come protocollo open source di Anthropic è stato adottato da tutte le principali piattaforme. OpenAI, Google e Microsoft supportano tutte l'MCP, rendendolo lo standard comune per collegare i sistemi di IA a strumenti e dati esterni. Per le organizzazioni che sviluppano integrazioni, ciò significa che le connessioni in cui investono oggi hanno molte meno probabilità di rimanere vincolate a un unico fornitore.

Al di là del livello di connessione, ogni laboratorio sta completando lo stack a modo suo:

  • Anthropic ha applicato la stessa filosofia degli "standard aperti" al lancio di Skills, una soluzione portatile che consente di codificare metodologie e competenze settoriali utilizzabili su più piattaforme. I plugin di Claude raggruppano connessioni MCP e competenze in pacchetti installabili, rendendo semplicissimo fornire a un sistema di IA sia l'accesso che il know-how in un unico passaggio.
  • OpenAI ha sviluppato il proprio ecosistema di integrazioni sotto l'egida di Apps, che consentono a ChatGPT di accedere a strumenti e fonti di dati esterni.
  • Microsoft ha reso Copilot Studio la propria piattaforma per la creazione di agenti, con connettori basati su MCP e una nuova funzionalità denominata "Notebooks" che garantisce la persistenza del contesto di progetto.
  • Google supporta MCP su tutte le sue piattaforme per sviluppatori e cloud e ha recentemente introdotto i "Progetti" come strumento per conservare il contesto e le istruzioni tra una conversazione e l'altra.

La terminologia varia a seconda delle piattaforme, ma i concetti di fondo corrispondono agli stessi livelli:

LA SERIE SULL'ARCHITETTURA DELL'IA – PARTE 2

Come i principali laboratori di IA implementano i quattro livelli

La stessa architettura, quattro vocabolari diversi


Antropico OpenAI Microsoft Google
App principale GenAI Claude ChatGPT Copilota Gemelli
Contesto persistente Progetti Progetti Quaderni Progetti
Livello di connessione Connettori Applicazioni Connettori Estensioni; MCP (solo dev/cloud)
Funzionalità dell'agente Claude Cowork Modalità agente Copilot Studio Agente Gemini

Per chiunque stia sviluppando flussi di lavoro basati sull'intelligenza artificiale nel settore dei servizi finanziari, questa convergenza rappresenta una buona notizia, ma non risolve la questione della governance. Il modo in cui ciascuna piattaforma gestisce le connessioni dei dati, la metodologia e l'orchestrazione in più fasi determina se il sistema che si sviluppa oggi sarà in grado di reggere a un esame approfondito domani.

Cosa ci aspetta: agenti che agiscono e agenti che collaborano

Molti degli strumenti che le persone utilizzano già dispongono di agenti che operano dietro le quinte. Quando ChatGPT scrive codice, effettua ricerche sul web e sintetizza una risposta in un’unica sessione, è un agente all’opera. Lo stesso vale per Claude, Microsoft Copilot e un numero crescente di prodotti aziendali. Tuttavia, al momento questi agenti operano ancora entro i limiti di una finestra di chat e di una serie di collegamenti predefiniti con gli strumenti. Ma le cose stanno iniziando a cambiare.

La prima frontiera è rappresentata dagli agenti in grado di gestire un ambiente informatico completo per conto dell’utente: navigare, cliccare, spostarsi tra le applicazioni, senza limitarsi alla chat. Cowork di Anthropic e la modalità Agent di OpenAI forniscono all'IA un proprio spazio di lavoro in modalità sandbox dove può svolgere compiti utilizzando qualsiasi strumento disponibile, mentre progetti open-source come OpenClaw adottano un approccio diverso, consentendo a un agente IA di funzionare direttamente sul tuo computer locale con accesso al browser, ai file e alle app di messaggistica.

La seconda frontiera è rappresentata dagli agenti in grado di coordinarsi tra loro. Oggi, se si desidera che un sistema di intelligenza artificiale trasferisca un’attività, ad esempio da un agente di ricerca a un agente di verifica della conformità basato su una piattaforma diversa, è necessario che qualcuno esegua manualmente l’integrazione. Il protocollo A2A di Google è stato progettato per cambiare questa situazione, fornendo agli agenti un linguaggio comune per delegare le attività tra piattaforme e fornitori diversi.

Entrambe queste frontiere seguono lo stesso schema: maggiore autonomia, accesso più ampio, posta in gioco più alta. Un agente in grado di navigare sul web e utilizzare applicazioni per conto dell’utente è di gran lunga più potente di uno limitato a una finestra di chat, ma comporta anche maggiori rischi. Il settore sta ancora cercando di capire come rendere questi sistemi sufficientemente sicuri, verificabili e controllabili per gli ambienti regolamentati. Per i team che operano nel settore dei servizi finanziari, si tratta di un ambito da tenere d’occhio con attenzione, ma da affrontare con cautela.

Nel prossimo articolo di questa serie, mostreremo come si presentano questi quattro livelli nella pratica all'interno dei flussi di lavoro dei servizi finanziari, dove ogni livello svolge un compito specifico e tracciabile.

Seguici su LinkedIn o iscriviti alla nostra newsletter per non perderti nulla.

Rimani aggiornato

Ricevi direttamente nella tua casella di posta elettronica le analisi di mercato dei nostri esperti.

Yago González

Responsabile di prodotto senior, Iniziative GenAI, Clarity AI

Yago González è il responsabile della strategia alla base delle funzionalità di IA generativa Clarity AI . In precedenza, ha aperto la strada all'integrazione dell'IA generativa presso Iberia, la compagnia di bandiera spagnola, facente parte dell'International Airlines Group.

Ricerca e approfondimenti

Ultime notizie e articoli

AI

Di cosa sono fatti realmente i sistemi di IA: spiegazione dell'architettura

I moderni sistemi di intelligenza artificiale non sono monolitici. Comprendere i quattro livelli che li compongono e la funzione di ciascuno di essi è fondamentale per valutare quali strumenti si dimostrino effettivamente all'altezza in ambiente di produzione.

Il clima

La verità sul bilancio: cosa rivelano gli investimenti in verde sulla transizione climatica

La transizione verso un'economia a basse emissioni di carbonio viene spesso inquadrata in termini di impegni: obiettivi di zero emissioni nette, piani di transizione e strategie a lungo termine. Tuttavia, il ritmo e la credibilità di questa transizione dipendono in ultima analisi dalle modalità di allocazione del capitale. Gli investimenti in conto capitale (CapEx) costituiscono uno degli indicatori più tangibili dei progressi compiuti dalle imprese in questa transizione. A differenza degli obiettivi climatici o dei piani di transizione, il CapEx riflette…

AI

Perché la maggior parte delle presentazioni sull'IA non centrano il punto

Non tutti gli strumenti di IA sono progettati per ambienti regolamentati. Scopri cosa distingue l'infrastruttura di IA dalle funzionalità di IA e quali sono le sei domande da porre a qualsiasi fornitore.