Intelligenza artificiale e appalti pubblici: la proposta anti-corruzione dell’Italia
L’Italia punta sull’intelligenza artificiale per rendere più trasparenti e pulite le gare d’appalto pubbliche. Di recente, durante l’esame parlamentare del DDL sull’IA, è stato approvato un ordine del giorno (ODG) presentato dal deputato Manlio Messina (Fratelli d’Italia) che impegna il Governo a introdurre sistemi di AI nelle procedure di appalto pubblico. L’idea è di sfruttare algoritmi avanzati per affiancare l’occhio umano nei controlli, individuando anomalie e segnali di corruzione in modo più veloce ed efficiente. Questo atto politico, pur non avendo forza di legge immediata, fissa una direzione chiara: obbligare l’uso dell’IA nei contratti pubblici, inizialmente per gli appalti di lavori sopra 150.000 € (sotto la soglia UE). Vediamo in dettaglio cosa prevede questa proposta, come si collega al nuovo Codice dei Contratti Pubblici e quali opportunità e sfide comporta l’adozione dell’AI come strumento anti-corruzione nella Pubblica Amministrazione.
Indice dei contenuti
ToggleL’ordine del giorno Messina e il via libera all’IA negli appalti
L’ordine del giorno presentato dall’on. Messina, approvato alla Camera, impegna il Governo “a valutare l’opportunità di assumere ogni iniziativa di competenza, anche normativa, volta ad implementare l’impiego dell’AI nelle procedure di appalto pubblico, rendendolo obbligatorio in primis per gli appalti di lavori di valore ≥150.000 € e sotto la soglia europea”. In parole semplici, il Parlamento chiede all’Esecutivo di muoversi per introdurre concretamente l’uso di algoritmi intelligenti nei processi di gara, come ulteriore strumento di verifica e vigilanza. L’obiettivo dichiarato è affiancare la supervisione umana con controlli automatizzati, in grado di segnalare irregolarità o pattern anomali nel flusso degli appalti pubblici, un po’ come i sistemi di moderazione automatica segnalano contenuti problematici sui social network.
Messina ha spiegato le ragioni della sua proposta sottolineando i benefici attesi: “L’intelligenza artificiale può e deve diventare uno strumento fondamentale per garantire maggiore trasparenza, efficienza ed efficacia nell’azione amministrativa. Rendere obbligatorio l’uso dell’IA nella gestione degli appalti pubblici significa ridurre al minimo le interferenze dovute a negligenza o, peggio, al dolo di funzionari corrotti. È un principio sacrosanto, che tutela l’interesse pubblico e rafforza la fiducia dei cittadini nelle istituzioni”. In altre parole, secondo il deputato, l’AI può aiutare a blindare le gare d’appalto contro favoritismi e illeciti, assicurando che decisioni e aggiudicazioni siano prese su dati oggettivi e controllabili, anziché lasciate alla totale discrezionalità dei singoli funzionari.
Pur trattandosi “solo” di un ordine del giorno, dunque di un atto di indirizzo politico, la sua approvazione rappresenta un segnale importante. Come ha dichiarato lo stesso Messina, è “un ulteriore passo avanti nella digitalizzazione della Pubblica Amministrazione, in linea con quanto già previsto dall’art. 30 del Codice dei contratti pubblici”. Infatti l’ODG mira proprio a dare seguito a quanto disposto nel nuovo Codice Appalti (D.Lgs. 36/2023): in particolare l’articolo 30 di tale Codice, entrato in vigore ad aprile 2023, per la prima volta ammette espressamente l’uso di procedure automatizzate, inclusa l’intelligenza artificiale, nel ciclo di vita dei contratti pubblici. Questa norma stabilisce che le stazioni appaltanti, per migliorare l’efficienza, “provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’IA e le tecnologie di registri distribuiti (blockchain), nel rispetto delle specifiche disposizioni in materia”. Inoltre disciplina le regole che le amministrazioni devono seguire per utilizzare tali sistemi nelle gare e sulle piattaforme di e-procurement. In sintesi, la base legale c’è già: ora il Parlamento sprona il Governo a passare dalla teoria ai fatti, implementando davvero questi strumenti e rendendone l’uso obbligatorio almeno per certe fasce di appalti.
Vantaggi potenziali: trasparenza, velocità e lotta alla corruzione
L’adozione di sistemi di AI negli appalti pubblici promette una serie di benefici importanti. Primo fra tutti, una maggiore trasparenza nelle procedure: algoritmi e software possono registrare e analizzare ogni passaggio della gara in maniera oggettiva, riducendo gli spazi per decisioni arbitrarie o manipolazioni. Un esempio viene dalla Corea del Sud, dove il sistema nazionale di e-procurement (KONEPS) pubblica online in tempo reale tutte le offerte e i risultati di gara, eliminando di fatto la possibilità che funzionari intervengano con scelte discrezionali “dietro le quinte”. Un sistema simile in Italia garantirebbe che tutti i dati di un appalto (partecipanti, ribassi, punteggi, aggiudicatari) siano immediatamente tracciati e controllabili, scoraggiando accordi sottobanco.
Inoltre l’IA può incrementare significativamente la velocità e l’efficacia dei controlli. Un algoritmo di machine learning ben addestrato può setacciare in pochi secondi enormi quantità di informazioni – ad esempio banche dati sui partecipanti alle gare, elenchi di imprese collegate, documentazione amministrativa – incrociando i dati per trovare anomalie che indichino potenziali frodi. Come evidenziato dagli esperti, l’IA è in grado di individuare schemi sospetti nei dati, effettuare audit automatizzati e controlli incrociati che rafforzano la trasparenza e promuovono un ambiente più integro. In pratica, il software potrebbe segnalare casi di offerte anormalmente basse, criteri di gara “tagliati su misura” per un certo concorrente, collegamenti societari nascosti tra un appaltatore e un membro della commissione, e così via. Questo tipo di analisi preventiva consente di intervenire prima che il danno sia fatto, bloccando sul nascere eventuali irregolarità.
La lotta alla corruzione riceverebbe dunque un aiuto poderoso: un sistema automatico di allerta potrebbe ridurre drasticamente il peso delle “relazioni” e dei favoritismi nelle assegnazioni, facendo emergere con dati oggettivi se una gara non è regolare. Lo stesso Manlio Messina sottolinea che obbligare l’uso dell’IA negli appalti significa “ridurre al minimo le interferenze dovute a negligenza o, peggio, al dolo di funzionari corrotti”. In altre parole, si mira a togliere terreno a quei comportamenti opachi che costituiscono il terreno fertile della corruzione: niente più pratiche che si perdono nei cassetti giusti, bandi costruiti ad hoc, punteggi gonfiati arbitrariamente. L’algoritmo monitorerà tutti i passaggi chiave e farà suonare un campanello d’allarme quando qualcosa devia dai parametri normali.
Un beneficio indiretto ma fondamentale di questo approccio sarebbe anche il rafforzamento della fiducia dei cittadini verso le istituzioni. Se le gare d’appalto – da sempre percepite come un settore ad alto rischio di tangenti e “mazzette” – diventano più pulite e sorvegliate da occhi elettronici imparziali, l’opinione pubblica potrebbe recuperare fiducia nella spesa pubblica e nella buona gestione. Trasparenza ed equità nelle aggiudicazioni significano aziende migliori che vincono i contratti, servizi pubblici di qualità più alta e minor spreco di denaro pubblico. Non a caso, nel caso ucraino di ProZorro (di cui parleremo più avanti), la completa apertura dei dati di gara ha ampliato la partecipazione delle imprese oneste e rafforzato la concorrenza, aiutando a risparmiare miliardi di fondi pubblici. Dunque, l’AI applicata agli appalti può generare un circolo virtuoso: meno corruzione, più concorrenza, più qualità e più fiducia nel sistema.
Rischi e limiti: quando l’algoritmo può diventare un problema
Accanto ai vantaggi, è fondamentale riconoscere che l’uso dell’intelligenza artificiale nelle decisioni pubbliche pone anche rischi e limiti significativi. L’entusiasmo tecnologico dev’essere bilanciato da cautela e buona governance, altrimenti si rischia di sostituire problemi vecchi con problemi nuovi. Ecco le principali criticità da tenere presenti:
Bias algoritmici e discriminazioni
Gli algoritmi non sono magicamente neutrali: il loro funzionamento dipende dai dati con cui sono addestrati e dagli obiettivi fissati dai programmatori. Un rischio concreto è che i sistemi di AI introducano bias, ossia distorsioni e pregiudizi, nelle valutazioni. Ciò può accadere se i dati storici contengono già tracce di discriminazione o pratiche scorrette (per esempio, se in passato alcuni fornitori venivano esclusi ingiustamente, l’algoritmo potrebbe “impararlo” e continuare a penalizzarli). Oppure l’AI potrebbe privilegiare determinati indicatori in apparenza neutrali ma che, di fatto, sfavoriscono sistematicamente alcuni soggetti (PMI, aziende di regioni svantaggiate, nuovi entranti sul mercato, ecc.). Un caso emblematico è avvenuto nei Paesi Bassi, dove un sistema algoritmico anti-frode (chiamato SYRI) ha generato migliaia di false segnalazioni di illeciti fiscali colpendo soprattutto le fasce più deboli della popolazione, a causa di pregiudizi incorporati nel modello. Questo esempio evidenzia come un’IA “distorta” possa addirittura creare ingiustizie invece di eliminarle. Nel contesto appalti, sarebbe inaccettabile se un algoritmo etichettasse erroneamente come “a rischio” aziende oneste solo perché appartenenti a una certa categoria, magari escludendole da gare future. Bisogna quindi prevenire con cura i bias, tramite dataset il più possibile completi e rappresentativi e verifiche costanti dei risultati prodotti.
Trasparenza della “scatola nera”
Un altro nodo cruciale è la trasparenza algoritmica. Molti sistemi di intelligenza artificiale, specialmente quelli basati su reti neurali o tecniche di deep learning, operano come scatole nere: producono output (decisioni, punteggi, allerte) senza che sia immediatamente comprensibile come siano arrivati a quelle conclusioni. In ambito pubblico questo è problematico, perché le decisioni amministrative devono essere motivate e comprensibili. Se un’impresa viene esclusa o segnalata da un algoritmo, ha il diritto di sapere perché. Al momento, la nostra PA manca di un registro pubblico e sistematico di dove e come vengono impiegati algoritmi decisionali. Ciò rende difficile perfino sapere se una data decisione è stata presa da un umano o da una macchina. Questo deficit di trasparenza va colmato: sarà necessario accompagnare ogni sistema AI adottato con la pubblicazione dei criteri, dei dati e delle logiche su cui si basa. Solo rendendo l’algoritmo auditabile da esperti esterni e comprensibile agli stakeholder si potrà evitare un oscuramento delle procedure invece di una loro illuminazione. Inoltre, documentare il funzionamento è essenziale per individuare ed eliminare eventuali errori o distorsioni nel software stesso.
Il ruolo umano e la responsabilità
Un rischio correlato all’uso massiccio di AI è quello della deresponsabilizzazione dell’amministrazione pubblica. Se ci si affida ciecamente al verdetto della macchina, i funzionari potrebbero tendere a “alzare le mani” e accettare automaticamente ciò che l’algoritmo suggerisce, senza un vaglio critico. Questo è pericoloso perché, per quanto utile, l’AI deve restare uno strumento di supporto, non un sostituto totale del decisore umano. La discrezionalità e il giudizio esperto di un responsabile di procedimento non possono essere completamente azzerati: ci saranno sempre casi particolari, sfumature o elementi contestuali che un algoritmo potrebbe non cogliere. Inoltre, dal punto di vista giuridico, le responsabilità devono rimanere in capo a persone fisiche o enti ben identificati. Un sistema automatizzato non può (né legalmente né eticamente) prendere decisioni irrevocabili al posto degli organi competenti, senza che nessuno sia in grado di rispondere di eventuali errori. La sfida quindi è integrare l’IA nei processi decisionali mantenendo però un “pilota umano” all’interno: il funzionario deve usare l’output dell’algoritmo come indicazione, ma poi verificare, motivare e assumersi la responsabilità dell’atto finale. In Italia, la giurisprudenza amministrativa ha già tracciato questa linea: in alcune pronunce si è stabilito che l’uso di algoritmi è lecito solo se l’interessato è messo a conoscenza dei criteri e se resta possibile un intervento umano correttivo prima della decisione definitiva. In sintesi, l’IA non deve mai diventare un alibi per “scaricare” la colpa su una macchina: dietro ogni algoritmo serve una struttura di governance umana pronta a intervenire.
Norme e garanzie: verso un uso responsabile dell’AI in PA
Per mitigare i rischi sopra descritti ed evitare derive pericolose, occorre operare entro un quadro di regole e garanzie ben definito. Fortunatamente, sia a livello italiano che europeo, l’attenzione a questi aspetti è alta, e si stanno delineando principi chiari su come l’AI debba essere governata nel settore pubblico.
In primo luogo, l’Italia dispone già di normative generali che impongono trasparenza e controlli sull’operato algoritmico della PA. Oltre al citato art. 30 del Codice Appalti – che richiama il rispetto delle “disposizioni in materia” quando si usano AI e blockchain – va ricordato che il GDPR (Regolamento UE 2016/679 sulla privacy) all’art. 22 riconosce ai cittadini il diritto a non essere sottoposti a decisioni automatizzate senza adeguate tutele, e comunque a ottenere spiegazioni sul funzionamento degli algoritmi che li riguardano. Inoltre, il principio di trasparenza amministrativa nella legge 241/1990 può essere interpretato estensivamente per includere anche la trasparenza degli eventuali automatismi decisionali usati nei procedimenti.
Dal canto suo, l’Unione Europea sta per varare l’AI Act, un regolamento sull’intelligenza artificiale che introdurrà obblighi stringenti per i cosiddetti “sistemi ad alto rischio”. È probabile che molti utilizzi di AI nella Pubblica Amministrazione – incluso un algoritmo che monitora appalti pubblici – rientreranno in questa categoria high risk. Di conseguenza, essi dovranno soddisfare requisiti rigorosi di trasparenza, documentazione, valutazione di conformità e supervisione umana. Ad esempio, il fornitore dovrà effettuare analisi d’impatto prima dell’uso, mantenere registri delle operazioni dell’AI, permettere ispezioni da parte delle autorità di vigilanza e garantire che i risultati vengano sempre rivisti da personale qualificato prima di incidere sui diritti di qualcuno. Il Regolamento europeo prefigura anche un sistema di governance con Autorità nazionali competenti: in Italia sarà verosimilmente designato un ente (o più enti, come il Garante Privacy e l’AgID) per sovrintendere all’implementazione dell’AI Act e verificare che i sistemi impiegati dalla PA siano conformi alle nuove norme. Già oggi, l’AgID (Agenzia per l’Italia Digitale) ha elaborato un Piano Triennale che include linee guida per l’adozione dell’AI nella PA, in coerenza con gli obiettivi europei. Tale piano enfatizza che l’IA pubblica va sviluppata in maniera etica, trasparente e rispettosa delle normative vigenti (AI Act e GDPR).
In pratica, per ogni progetto di intelligenza artificiale applicato agli appalti, si dovranno prevedere audit indipendenti periodici, per verificare che l’algoritmo funzioni come previsto e non produca effetti discriminatori. Dovranno essere pubblicate preventivamente le specifiche tecniche essenziali: ad esempio quali dati verranno utilizzati, quali pattern o anomalie l’AI cercherà, con quali soglie di allerta. Ancora, sarà fondamentale assicurare che le decisioni finali non siano mai completamente automatiche: l’AI potrà filtrare o raccomandare, ma l’atto conclusivo (come l’esclusione di un’offerta sospetta) dovrà essere formalizzato da un responsabile umano, che se ne assume la responsabilità giuridica. Tutto ciò richiederà probabilmente aggiornamenti normativi puntuali (linee guida ANAC, regolamenti attuativi, ecc.) per tradurre i principi generali in procedure operative nel settore degli appalti. La buona notizia è che questa “cassetta degli attrezzi” normativi sta prendendo forma: non si parte da zero, e il caso italiano potrà avvalersi anche delle migliori pratiche internazionali.
Esperienze internazionali a confronto: Corea del Sud, Ucraina, UE
Nel percorso di implementazione dell’AI anti-corruzione, l’Italia può guardare alle esperienze di altri Paesi e organizzazioni internazionali che hanno già intrapreso strade simili. Corea del Sud, Ucraina e Unione Europea offrono casi di studio interessanti su come la tecnologia può rendere più trasparenti ed efficienti gli appalti pubblici.
Il modello della Corea del Sud
La Corea del Sud è considerata un pioniere nella digitalizzazione degli appalti. Il suo sistema integrato di e-procurement, chiamato KONEPS (Korea ON-line E-Procurement System), è attivo da oltre 20 anni e ha reso praticamente elettronica ogni fase delle gare pubbliche. Uno dei risultati più apprezzati di KONEPS è proprio la drastica riduzione di spazi per la corruzione: tutte le opportunità di gara sono pubblicate centralmente online, le offerte si presentano in via telematica, e l’apertura delle buste avviene in tempo reale di fronte a tutti gli utenti collegati. Non c’è possibilità, dunque, che un funzionario nasconda un’offerta o la modifichi dopo la scadenza: il sistema registra ogni azione e la rende visibile. Questa totale tracciabilità ha portato a un aumento di fiducia e a un calo dei ricorsi. Inoltre, l’automazione ha migliorato l’efficienza: il governo sudcoreano risparmia ogni anno miliardi di dollari grazie alla centralizzazione degli acquisti e alla riduzione di costi amministrativi. KONEPS ha ottenuto riconoscimenti internazionali, come il United Nations Public Service Award, ed è spesso indicato dall’OCSE come best practice in tema di integrità negli appalti. Pur non essendo basato su AI sofisticate (ma su regole e digitalizzazione), rappresenta la base su cui ora la Corea sta innestando strumenti di intelligenza artificiale. Ad esempio, si lavora a modelli predittivi per individuare tentativi di collusione tra imprese nelle gare (bid rigging) analizzando pattern di offerta, e il paese ha di recente varato una “Basic AI Act” nazionale per promuovere l’uso etico dell’AI nel settore pubblico. Insomma, dalla Corea arriva la conferma che piattaforme trasparenti e algoritmi possono davvero ridurre gli abusi e rendere gli appalti più meritocratici.
L’esperienza di ProZorro in Ucraina
Un caso emblematico di AI e open data contro la corruzione è quello dell’Ucraina. Dopo la rivolta del 2014 contro il regime corrotto, un gruppo di giovani attivisti digitali sviluppò ProZorro (che in ucraino significa “trasparente”), un sistema di e-procurement open source pensato per ribaltare le opacità del vecchio sistema. ProZorro, adottato poi ufficialmente dal governo ucraino, si basa su un modello multipiattaforma: diverse piattaforme private sono collegate a un unico database centrale, garantendo apertura totale in ogni fase della gara. La vera innovazione è stata coinvolgere la società civile attraverso la comunità Dozorro (“cane da guardia”), che analizza i dati aperti degli appalti, individua anomalie e contratti ad alto rischio, e li segnala alle autorità competenti. In pratica i cittadini e i media possono monitorare ogni appalto in tempo reale, avvisando se qualcosa pare sospetto (es. offerte sempre allo stesso ribasso, partecipanti riconducibili a un unico proprietario occulto, ecc.). Grazie a questa trasparenza radicale e al supporto di algoritmi di data mining, ProZorro ha ottenuto risultati notevoli: secondo stime riportate dalla strategia anticorruzione USA del 2021, il sistema ha aiutato l’Ucraina a risparmiare quasi 6 miliardi di dollari di fondi pubblici dal 2017. Inoltre, ha aperto il mercato a molte più imprese, rendendo più difficile per i soliti noti spartirsi gli appalti. L’esperienza ucraina dimostra come big data e intelligenza artificiale, uniti alla partecipazione civica, possano diventare armi potenti contro la corruzione. Certo, va detto che l’Ucraina ha potuto costruire questo sistema quasi da zero dopo uno shock politico, mentre in Italia bisognerà integrare l’AI in strutture esistenti; ma le lezioni di ProZorro – imparzialità, trasparenza totale, coinvolgimento della società civile – restano un faro importante.
Le iniziative nell’Unione Europea
A livello di Unione Europea, il tema degli appalti pubblici è da tempo al centro di politiche di digitalizzazione e anti-frode. La Commissione UE ha sviluppato strumenti informatici avanzati per aiutare gli Stati membri a individuare irregolarità nell’uso di fondi pubblici. Un esempio è il sistema ARACHNE: una piattaforma di data mining creata per supportare le Autorità di Gestione dei fondi strutturali nell’eseguire controlli antifrode. ARACHNE raccoglie in un unico database i dati di tutti i progetti finanziati dalla UE (Fondo Sociale, Fondi regionali, ecc.), li arricchisce con informazioni esterne (es. registri imprese, elenchi di persone politicamente esposte, liste di sanzioni) e calcola oltre 100 indicatori di rischio relativi a possibili frodi, conflitti di interesse e anomalie. Lungi dal sostituirsi ai controllori umani, questo strumento fornisce alert mirati: segnala ad esempio se un beneficiario ha collegamenti con paradisi fiscali, se un contraente ha troppe aggiudicazioni sospette o se un progetto presenta costi anomali rispetto alla media. La Commissione Europea ha incoraggiato fortemente gli Stati a usare ARACHNE: dal 2021 ne propone l’uso obbligatorio per tutti i programmi cofinanziati, e l’Italia ha già iniziato a sperimentarlo nella gestione dei fondi comunitari. Anche se ARACHNE riguarda i fondi UE, il suo principio può essere applicato in generale agli appalti: utilizzare analytics e AI per un controllo mirato e intelligente, che rafforzi (senza rimpiazzare) il lavoro degli organismi anticorruzione come ANAC. Inoltre l’UE, attraverso programmi come OpenPEPPOL e il dispiegamento di appalti elettronici in tutti i Paesi membri, sta ponendo le basi di un sistema di procurement sempre più digitale e integrato. Questa infrastruttura comune faciliterà anche l’adozione di AI, poiché standardizza dati e procedure. Infine, con l’AI Act l’Europa sarà la prima a dotarsi di una cornice normativa organica per l’uso dell’intelligenza artificiale: un equilibrio tra innovazione e tutele che sarà cruciale anche per il settore degli appalti.
Prossimi passi per l’Italia: come passare dalle parole ai fatti
L’approvazione dell’ODG Messina è solo il primo step di un percorso che dovrà tradursi in azioni concrete. Cosa occorre perché l’intelligenza artificiale entri davvero, e con successo, nel mondo degli appalti pubblici italiani?
In primo luogo, serve una strategia operativa da parte del Governo e delle amministrazioni competenti. Probabilmente il Ministero delle Infrastrutture (che sovrintende al Codice Appalti) insieme al MITD (Ministero dell’Innovazione Tecnologica) dovranno istituire un programma ad hoc. Si potrebbe immaginare la creazione di un gruppo di lavoro interistituzionale con ANAC, AgID, Dipartimento Funzione Pubblica e magari esperti del settore AI, per definire un piano di implementazione. Questo piano dovrebbe stabilire quali piattaforme e strumenti adottare o sviluppare: ad esempio, integrare moduli di AI nelle piattaforme di e-procurement già esistenti (come la piattaforma Consip, o quelle regionali) per analizzare i dati di gara in tempo reale. Oppure creare un sistema centralizzato a cui le stazioni appaltanti possano collegarsi per far “controllare” le proprie gare dall’algoritmo centrale.
Un aspetto cruciale saranno le risorse e le competenze. Implementare l’AI ha un costo: servono investimenti in software, infrastrutture cloud, sicurezza informatica (i dati delle gare sono delicati) e soprattutto formazione del personale. L’ODG non specifica dettagli di budget, ma per dare seguito all’impegno il Governo potrebbe destinare parte dei fondi del PNRR (che già prevede la digitalizzazione della PA) allo sviluppo di queste soluzioni. Allo stesso tempo, bisognerà formare i dipendenti pubblici all’uso corretto dei nuovi strumenti: sia i funzionari delle stazioni appaltanti, che dovranno interagire con l’AI e interpretarne i segnali, sia gli ispettori e autorità di controllo, che dovranno capire e verificare il funzionamento dell’algoritmo. Un sondaggio condotto nel 2025 tra oltre 1000 dipendenti pubblici italiani ha rivelato che la maggioranza vede positivamente l’IA come aiuto per la produttività, ma oltre un quarto richiede percorsi di formazione specializzata per poterne sfruttare appieno le potenzialità. Questo indica che c’è apertura al cambiamento, ma anche la necessità di colmare un gap di conoscenze.
Dal punto di vista normativo, dopo l’ordine del giorno potranno seguire atti più vincolanti. Ad esempio, il Governo potrebbe inserire nella prossima legge di bilancio una norma che finanzi e avvii la sperimentazione dell’AI negli appalti in alcuni settori pilota (per dire, grandi opere infrastrutturali, sanità, enti locali più digitalizzati). Oppure emanare un decreto attuativo in cui stabilire le modalità tecniche per rendere operativo l’art. 30 del Codice: definendo quali categorie di appalti devono usare strumenti di AI, con quali requisiti minimi e chi ne sorveglia l’utilizzo. Un ruolo chiave in fase attuativa lo avrà certamente l’ANAC (Autorità Anticorruzione): l’Authority potrebbe emanare linee guida o determinazioni indicando alle amministrazioni come usare l’IA negli affidamenti pubblici in modo conforme alle norme anticorruzione e di trasparenza. Non solo: ANAC potrebbe anche dotarsi essa stessa di sistemi di AI per potenziare la propria attività di vigilanza. Ad esempio, incrociando i dati dell’Anagrafe Unica delle Stazioni Appaltanti e del Casellario delle imprese con algoritmi che segnalino appalti a rischio, su cui poi l’Autorità intervenga per un controllo approfondito.
In sintesi, i prossimi passi concreti dovranno riguardare: tecnologia, persone e regole. Tecnologia, scegliendo o sviluppando le soluzioni AI più adatte (magari anche facendo ricorso al mercato e alle aziende innovative italiane nel campo dell’analytics); persone, formando i funzionari pubblici e magari inserendo nuove figure professionali (data scientist, esperti di diritto digitale) nella PA; regole, aggiornando le normative secondarie e predisponendo un sistema di monitoraggio e audit continuo su questi strumenti. Con questo mix, l’ordine del giorno potrà tradursi in realtà e non restare lettera morta. Come ha affermato Messina, “con questo atto si rafforza l’impegno verso una Pubblica Amministrazione moderna, trasparente e libera da condizionamenti illeciti”: adesso è il momento di dare sostanza a tale impegno, trasformando la volontà politica in innovazione amministrativa sul campo.
Opportunità e condizioni per il successo
L’idea di utilizzare l’intelligenza artificiale contro la corruzione negli appalti pubblici apre scenari di grande opportunità: un’amministrazione più trasparente, efficiente e capace di evitare sprechi e ruberie potrebbe finalmente realizzarsi, con beneficio per l’intero sistema Paese. Tuttavia, perché questa visione abbia successo, sono indispensabili precise condizioni al contorno. In conclusione della nostra analisi, vale la pena ribadire quali sono i fattori decisivi che determineranno il buon esito (o meno) di questa iniziativa.
Anzitutto, la qualità tecnica dell’implementazione farà la differenza. Un algoritmo efficace, costruito su dati affidabili e aggiornati, potrà davvero individuare le “spie” della corruzione; al contrario, un sistema progettato male rischierebbe di produrre troppi falsi positivi (intasando gli uffici di segnalazioni inutili) o falsi negativi (mancando proprio i casi più subdoli di collusione). Servirà quindi coinvolgere le migliori competenze ICT e data science, magari collaborando con università e centri di ricerca, per tarare con finezza i modelli di AI da adottare. In parallelo, la volontà istituzionale e politica dovrà rimanere forte: implementare l’IA anticorruzione significherà anche toccare interessi consolidati e rompere meccanismi opachi, cosa che potrebbe incontrare resistenze. Sarà importante che il Governo e gli enti coinvolti mostrino determinazione e coesione nell’applicare le nuove soluzioni, spiegandone i benefici a tutti gli attori (anche alle imprese, che dovranno adeguarsi a un modo più trasparente di partecipare alle gare).
Un altro elemento chiave sarà la fiducia degli utenti – in questo caso, sia i cittadini sia gli stessi dipendenti pubblici – nel sistema. L’AI può incutere timori (di essere “sorvegliati” da una macchina, o di perdere il controllo delle decisioni). Per ottenere collaborazione, bisognerà assicurare la massima chiarezza: far capire che l’algoritmo non è un “grande fratello” fuori controllo, ma uno strumento al servizio della comunità, sotto il controllo dell’uomo. In tal senso, trasparenza e formazione saranno gli antidoti a paure e incomprensioni. Se ben spiegato e gestito, l’utilizzo dell’AI potrebbe addirittura valorizzare il lavoro dei funzionari onesti, sollevandoli da compiti ripetitivi e dando loro strumenti migliori per individuare i colleghi corrotti.
Infine, il successo richiederà un approccio graduale e flessibile: partire magari con progetti pilota in alcuni settori, valutare i risultati, correggere il tiro dove emergono criticità e poi estendere su più ampia scala. L’AI stessa impara per tentativi ed errori: allo stesso modo, anche la sua integrazione nella PA andrà “addestrata” progressivamente. Monitoraggi indipendenti e feedback da parte di società civile e imprese potranno aiutare a perfezionare il sistema lungo il cammino.
In conclusione, l’intelligenza artificiale offre una chance storica per combattere la corruzione negli appalti pubblici italiani, rendendo reale quel controllo capillare e imparziale che finora è esistito più sulla carta che nella prassi. Non esistono bacchette magiche: l’AI non eliminerà da sola tutti i mali, ma può diventare un potente alleato dell’uomo onesto, un moltiplicatore delle capacità di vigilanza e analisi del settore pubblico. Perché ciò accada, dovremo costruire un ecosistema di fiducia, competenza e trasparenza attorno a questi strumenti. Se affronteremo con serietà anche i rischi (etici, tecnici, organizzativi) e li mitigheremo con le giuste contromisure, le opportunità supereranno di gran lunga i timori. A quel punto, potremo davvero dire che l’innovazione tecnologica avrà messo un freno alle vecchie pratiche corruttive, inaugurando una nuova era di appalti più puliti, aperti e meritocratici. È una sfida ambiziosa ma raggiungibile, e l’ordine del giorno approvato è il segnale che l’Italia è pronta a raccoglierla.