L’Intelligenza artificiale nella Pubblica Amministrazione non è più una possibilità remota, ma una realtà che si fa spazio tra normative, opportunità e rischi concreti.
Fino al 20 marzo sono, infatti, in consultazione pubblica le Linee guida AgID per l’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione, adottate poche ora fa con la determinazione n. 17/2025.
Le tanto attese Linee guida mirano a fornire un quadro chiaro su come integrare queste tecnologie senza inciampare in violazioni di diritti fondamentali, problemi di trasparenza o falle nella sicurezza.
Per chi si occupa di transizione digitale, compliance o governance pubblica, queste linee guida rappresentano un riferimento essenziale. Ma cosa cambia davvero? E, soprattutto, quali sono le implicazioni pratiche per le amministrazioni? Andiamo al punto.
Indice
Un ecosistema normativo complesso
Le Linee guida si muovono in una direzione chiara: gestire l’adozione dell’IA con un approccio strutturato, allineandosi al Piano Triennale per l’Informatica nella PA 2024-2026 e, ovviamente, al Regolamento Europeo sull’Intelligenza Artificiale (AI ACT).
L’AI Act ha introdotto una classificazione dei sistemi di IA in base al rischio e stabilito nuovi obblighi di trasparenza e monitoraggio. Il documento dell’AgID traduce questi principi in indicazioni operative, offrendo strumenti concreti per valutare l’impatto, pianificare le implementazioni e garantire la conformità normativa.
Già da una semplice analisi del documento è facile ricavare alcuni elementi chiave:
– L’adozione dell’IA viene configurata come un modello operativo, non come una serie di interventi isolati. Questo approccio richiede alla PA l’adozione di una visione sistematica e strategica.
– La valutazione di impatto (DPIA) e la progettazione strategica sono fondamentali: ogni implementazione di IA richiederà una pianificazione sistematica scrupolosa e accurata.
– Il capitolo sulla sicurezza cibernetica assume particolare importanza, poiché considera l’IA non solo come strumento innovativo, ma anche come potenziale vulnerabilità.
– Un ruolo chiave viene attribuito all’acquisizione e allo sviluppo di competenze adeguate a livello individuale e organizzativo. Compare la figura dell’AI Architect, un esperto in grado di valutare e progettare l’architettura dei sistemi di intelligenza artificiale assicurando che siano scalabili, sicuri e performanti.
– Gli Allegati, inseriti per rispondere all’esigenza di adattamento costante alla velocità della materia (in pieno stile AI ACT), forniscono strumenti pratici e operativi. In particolare, si segnala l’Allegato A, contenente la valutazione del livello di maturità nell’adozione dell’IA (maturity model), un framework per valutare la preparazione della PA all’integrazione di queste tecnologie e identificare le aree di miglioramento, L’Allegato B sulla valutazione del rischio e l’Allegato C sulla valutazione di impatto.
L’intelligenza artificiale applicata agli appalti
Come usare l’intelligenza artificiale a sostegno dell’attività delle Stazioni Appaltanti, dai quesiti legali alla valutazione delle offerte € 90,00 + IVA* (€ 109,80 IVA* inclusa) per chi si iscrive entro il 6 marzo 2025 € 190,00 + IVA* (€ 231,80 IVA* inclusa) per chi si iscrive dopo il 6 marzo 2025 * Se la fattura è intestata ad Ente Pubblico, la quota è esente IVA, ai sensi dell’art. 10, D.P.R. n. 633/72 (e successive modificazioni)
25 Mar 2025 ore 9.00 – 12.00
109.80 €
Il concetto di Maturità nell’adozione dell’IA
Fra gli strumenti previsti dal documento, spicca il Maturity Model, un framework che aiuterà le amministrazioni a valutare il proprio livello di preparazione nell’adozione dell’intelligenza artificiale. Consentirà alle PA di analizzare l’adozione dell’IA in un’ottica ampia, prendendo in considerazione non solo la tecnologia, ma anche i processi, l’organizzazione, le competenze e gli strumenti a disposizione. Particolarmente utile per superare le false convinzioni sulle proprie capacità tecnologiche e per identificare le azioni necessarie per colmare eventuali lacune.
L’aspetto interessante, da non sottovalutare, è che questo framework è, in realtà, tipicamente applicato al mondo dell’enterprise. Il fatto che un’amministrazione pubblica sia sottoposta agli stessi criteri di valutazione di un’impresa dimostra come la linea di pensiero sia comune: l’intelligenza artificiale, per sua natura, non fa distinzioni nel suo impatto tecnologico e organizzativo.
Valutazione di impatto: DPIA, FRIA o AIIA?
Uno degli elementi centrali del documento è la valutazione di impatto, passaggio obbligato prima di adottare qualsiasi sistema di IA. Ogni amministrazione dovrà dimostrare di aver analizzato i potenziali rischi, di aver previsto misure di mitigazione e di poter garantire che l’uso dell’IA sia conforme ai principi di equità, trasparenza e accountability.
Nel documento si chiarisce un aspetto fondamentale: la diversa funzione di DPIA (Data Protection Impact Assessment), FRIA (Fundamental Rights Impact Assessment) e AIIA (Artificial Intelligence Impact Assessment), nello specifico:
– DPIA: si concentra sull’impatto del trattamento dei dati personali, in conformità con il GDPR. È obbligatoria quando un sistema di IA tratta dati particolari o presenta un rischio elevato per la privacy degli interessati.
– FRIA: amplia il perimetro della valutazione, considerando l’impatto dell’IA sui diritti fondamentali, a prescindere da un trattamento diretto di dati personali. Questo è cruciale per sistemi di IA che possono incidere su libertà civili, accesso ai servizi pubblici o equità nei processi decisionali.
– AIIA: introdotta in queste Linee Guida, rappresenta una valutazione complessiva che considera gli impatti tecnologici, organizzativi e sistemici dell’IA all’interno della PA. Include aspetti legati alla sicurezza, all’affidabilità e alla spiegabilità degli algoritmi, garantendo un’analisi più ampia rispetto ai singoli profili di rischio giuridico.
L’integrazione di questi tre strumenti supera la visione tradizionale della tecnologia legata solo alla protezione dei dati e introduce una logica più ampia di valutazione dell’impatto socio-tecnologico. Non si tratta solo di garantire che un sistema non violi il GDPR, ma di assicurarsi che l’uso dell’IA sia effettivamente giustificato, proporzionato e privo di conseguenze discriminatorie o dannose per i cittadini.
Dalla pianificazione al ritiro: il ciclo di vita dell’IA
Altrettanto interessante il riferimento esplicito ad un “ciclo di vita dell’IA”, che parte dalla fase di pianificazione e design, attraversa l’implementazione e il monitoraggio, fino ad arrivare alla disattivazione e al ritiro del sistema. Un approccio che richiama da vicino la struttura dell’AI Act e che impone un’attenzione costante lungo l’intera filiera tecnologica.
La gestione dell’IA nella PA non può fermarsi all’implementazione. Tutto il processo deve essere costantemente monitorato per garantire che il sistema funzioni correttamente, non introduca distorsioni o discriminazioni e continui a essere utile per gli obiettivi per cui è stato progettato. Quando un sistema di IA diventa obsoleto o non più necessario, dovrà esserne previsto il ritiro, evitando così il rischio di tecnologie inutilizzate che rimangono in funzione senza un reale controllo.
A questo si aggiunge un altro passaggio cruciale: la definizione di un piano operativo. L’adozione dell’IA non potrà più avvenire in modo estemporaneo, ma dovrà essere il risultato di una strategia ben definita, con obiettivi chiari, risorse allocate e un sistema di monitoraggio continuo.
IA e GDPR: le prime connessioni operative
Un passaggio importante si trova, poi, nel paragrafo 3.4, dove riusciamo ad intravedere un primo elenco di finalità che potrebbero giustificare l’uso dell’IA ai sensi del GDPR. Le leva cui dare priorità dovrà essere il miglioramento dell’efficienza della PA e del rapporto con il cittadino, a seguire il miglioramento dei servizi pubblici.
Master in Intelligenza artificiale per avvocati e imprese
Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale € 650,00 + IVA* (€ 793,00 IVA inclusa*) per chi si iscrive entro il 27 febbraio 2025 € 720,00 + IVA* per chi si iscrive dopo il 27 Febbraio 2025 Sconto 25% da 2 o 4 partecipanti : € 540 + IVA* Sconto 35% da 5 partecipanti in poi € 468+ IVA* * Se la fattura è intestata ad Ente Pubblico, la quota è esente IVA, ai sensi dell’art. 10, D.P.R. n. 633/72 (e successive modificazioni)
20 Mar 2025 – 16 Mag 2025 7 appuntamenti, ore 14.30 – 17.30
793.00 €
Lo sviluppo delle competenze: un nodo cruciale
Un altro elemento chiave delle Linee guida è l’enfasi sullo sviluppo delle competenze interne alla PA. L’adozione dell’IA non può essere limitata alla dimensione tecnologica, ma dovrà essere accompagnata da un cambiamento gestionale, organizzativo e culturale. Un vero e proprio cambio di mindset. Questa sarà, forse, la parte più complessa.
Il documento introduce nuove figure professionali all’interno della PA, tra cui l’AI Architect (o AI Strategist), esperto incaricato di valutare e progettare l’architettura dei sistemi di intelligenza artificiale, garantendo scalabilità, sicurezza e performance.
Conclusioni
Le nuove Linee guida rappresentano un passo importante verso un’adozione più consapevole dell’intelligenza artificiale nella Pubblica Amministrazione. Tuttavia, il loro successo dipenderà dalla capacità delle amministrazioni di tradurre queste indicazioni in pratiche concrete.
Bisognerà adottare l’IA in modo progressivo, partendo da ambiti prioritari e meno rischiosi. Le amministrazioni dovranno essere in grado di identificare in anticipo gli obiettivi e le aree di applicazione, definendo una roadmap strategica. Si partirà dal miglioramento dell’efficienza operativa e si proseguirà con l’efficientamento dei servizi ai cittadini e alle imprese.
L’intelligenza artificiale nella PA non è più un’opzione, ma una realtà. Ora si tratta di capire come governarla nel modo più efficace.
* L’autrice, Avv. Giovanna Panucci, è DPO e AI Strategist
Scrivi un commento
Accedi per poter inserire un commento