Le imprese devono attrezzarsi per tutelarsi dalle decisioni automatizzate relative alle procedure digitali di evidenza pubblica pregiudizievoli dei loro interessi. È questa l’esigenza che discende da un’attenta ed evolutiva lettura di alcune disposizioni del nuovo codice dei contratti pubblici. Le stazioni appaltanti e gli enti concedenti hanno l’obbligo di assicurare la tracciabilità e la trasparenza delle attività svolte, l'accessibilità ai dati e alle informazioni, la conoscibilità dei processi decisionali automatizzati e dovranno rendere le piattaforme utilizzate accessibili. Quali sono, quindi, le azioni che le imprese possono attuare per scongiurare gli errori dell’intelligenza artificiale o per tutelarsi da ogni eventuale decisione che reputano illegittima?
Le
imprese devono imparare a
tutelarsi dalle
insidie e
trabocchetti degli
appalti digitali. Anche gli algoritmi e le cosiddette intelligenze artificiali commettono errori, che diventano vizi del provvedimento amministrativo: gli operatori economici, che presentano offerte, devono, quindi, sfruttare il diritto di accesso agli strumenti informatici e digitali. Non solo. Devono anche attrezzarsi per essere in grado di far valere le proprie ragioni contro le decisioni automatizzate relative alle procedure digitali di evidenza pubblica. È questa l’esigenza che discende
de plano da un’attenta ed evolutiva lettura di alcune disposizioni del nuovo codice dei contratti pubblici (
Questo simbolo indica la disponibilità del documento su One FISCALE
Clicca il link verde per accedere alla piattaforma
D.Lgs. 36/2023).
Vediamo, dunque, quali conseguenze per le imprese emergono da questa entrata in scena del digital public procurement.
Leggi anche
Cosa prevede il codice dei contratti per gli appalti digitali
Il punto di partenza è l’articolo 19 del nuovo codice dei contratti pubblici, che disegna un ciclo di vita tutto digitale degli stessi contratti: dal bando all’esecuzione tutto deve essere digitale.
A riguardo della fase di selezione del contraente, l’articolo 30 codifica la parziale abdicazione dell’intelligenza umana a favore della cosiddetta intelligenza artificiale, con la porta spalancata ad arginare l’irruzione delle procedure automatizzate.
A corredo di tutto ciò abbiamo un piccolo comma dell’articolo 35, che rappresenta il cavallo di Troia a vantaggio delle imprese, che non vogliono diventare vittime del robot-appaltante.
Occorre, a questo punto, dare qualche dettaglio di questi quadri, con spirito equilibrato.
Cosa devono garantire le stazioni appaltanti
Il primo quadro (articolo 19) illude con la rubrica (nella parte in cui fa salire sul palco i “diritti digitali”), visto che la sostanza della norma è l’obbligo di assoggettamento al digitale.
Beninteso, non c’è spazio, qui, né per Cassandra né per de Cervantes: il mondo digitale è inevitabile ed è altrettanto inevitabile che le imprese ne abbiano contezza.
Le attività e i procedimenti amministrativi connessi al ciclo di vita dei contratti pubblici, dunque, dovranno essere svolti digitalmente, mediante le piattaforme e i servizi digitali infrastrutturali delle stazioni appaltanti e degli enti concedenti (terzo comma dell’articolo 19 citato).
Lasciando, qui, da parte la questione drammatica e cruciale della sicurezza informatica, ci si deve concentrare sul fatto che le stazioni appaltanti e gli enti concedenti dovranno assicurare la tracciabilità e la trasparenza delle attività svolte, l'accessibilità ai dati e alle informazioni, la conoscibilità dei processi decisionali automatizzati e dovranno rendere le piattaforme utilizzate accessibili, nei limiti di cui all'articolo 35, che tratteremo dopo (sesto comma dell’articolo 19 citato).
Ancora più enfasi deve essere riservata alla regola per cui, se possibile (e cioè sempre) e in relazione al tipo di procedura di affidamento, le stazioni appaltanti e gli enti concedenti dovranno ricorrere procedure automatizzate nella valutazione delle offerte ai sensi dell'articolo 30 del codice dei contratti.
Quali sono gli obblighi delle stazioni appaltanti
Il secondo quadro è rappresentato proprio dall’articolo 30, che impone (non ci si faccia trarre in inganno dalla presenza nella lettera della disposizione del servile “potere”, poiché è una mera metonimia per “dovere”) agli enti appaltanti e concedenti di automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, incluse l'intelligenza artificiale e le tecnologie di registri distribuiti (alias blockchain).
A proposito di IA e blockchain, l’articolo 30 sciorina un doppio filone di doveri specifici a carico di stazioni appaltanti ed enti concedenti:
1) assicurare la disponibilità del codice sorgente, della relativa documentazione, e di ogni altro elemento utile a comprenderne le logiche di funzionamento;
2) introdurre negli atti di indizione delle gare clausole volte ad assicurare le prestazioni di assistenza e manutenzione necessarie alla correzione degli errori e degli effetti indesiderati derivanti dall'automazione.
A proposito delle decisioni assunte mediante automazione, il dettato normativo ne tratteggia i requisiti di legittimità.
Le decisioni automatizzate saranno legittime se e in quanto:
1) siano conoscibili e comprensibili (e cioè ogni operatore economico ha diritto a conoscere l'esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative sulla logica utilizzata);
2) la decisione algoritmica non sia esclusiva (e cioè deve esistere nel processo decisionale un contributo umano capace di controllare, validare o smentire la decisione automatizzata;
3) gli algoritmi non discriminino (e cioè il titolare deve mettere in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti degli operatori economici).
Nonostante quanto sopra, allo stato attuale, gli ingegneri dell’informatica e del digitale dicono che le intelligenze artificiali possono sbagliarsi: anzi, è proprio questa possibilità di inesattezza un elemento, allo stato, strutturale delle intelligenze artificiali.
|
Considerato ciò, stazioni appaltanti ed enti concedenti devono mettere le mani avanti, fin da subito, e adottare ogni misura tecnica e organizzativa per garantire le rettificazioni dei fattori che comportano inesattezze dei dati e la minimizzazione del rischio di errori, oltre che a impedire effetti discriminatori nei confronti di persone fisiche sulla base della nazionalità, dell'origine etnica, delle opinioni politiche, della religione, delle convinzioni personali, dell'appartenenza sindacale, dei caratteri somatici, dello status genetico, dello stato di salute, del genere o dell'orientamento sessuale.
Se, dunque, nonostante tutto, il robot-appaltante dovesse sbagliare, allora devono scattare le procedure di rettificazione, così da metterci una pezza.
Questo secondo quadro termina con un obbligo di trasparenza, a carico delle pubbliche amministrazioni: pubblicare sul sito istituzionale, nella sezione “Amministrazione trasparente”, l'elenco delle soluzioni tecnologiche utilizzate ai fini dello svolgimento della propria attività.
Diritto dell’impresa di accedere alle piattaforme digitali
Il terzo quadro è rappresentato dall’ultimo comma dell’articolo 35, ai sensi del quale, se indispensabile ai fini della difesa in giudizio dei propri interessi giuridici rappresentati in relazione alla procedura di gara, l’impresa concorrente alla gara ha diritto di accesso alle piattaforme digitali e alle infrastrutture informatiche utilizzate dalla stazione appaltante o dall'ente concedente, anche se coperte da diritti di privativa intellettuale.
Fin qui tre statici fotogrammi, ma occorre passare a seguire uno sviluppo dinamico.
Quali sono i rischi dell’appalto digitale per le imprese
Visto tutto in prospettiva, le imprese potranno subire pregiudizio per effetto dell’uso di strumenti non umani, i quali andranno a svolgere l’istruttoria e, per ora, la proposta di decisione, sulla quale, sempre per ora, c’è il veto dell’umano.
Come tutelarsi dall’intelligenza artificiale
Le azioni di tutela, a disposizione delle imprese, pertanto, comprendono:
a) azioni preventive consistenti nella richiesta di conoscere i documenti che illustrano come opera l’intelligenza artificiale;
b) azioni preventive tese a segnalare agli enti appaltanti e concedenti vizi tecnici e operativi dell’algoritmo;
c) azioni preventive tese a sollecitare enti appaltanti e concedenti a realizzare effettive procedure correttive di decisioni sbagliate del robot;
d) azioni, successive a provvedimenti pregiudizievoli, finalizzate a conoscere i passaggi logici svolti dal robot per arrivare alla proposta di decisione;
e) azioni, successive a provvedimenti pregiudizievoli, finalizzate a partecipare al procedimento, mediante contestazione dei passaggi logici svolti dalla cosiddetta intelligenza artificiale;
f) azioni, successive a provvedimenti pregiudizievoli, finalizzate ad ottenere dall’autorità giurisdizionale (per la quale, almeno nell’immediato, le leggi processuali non hanno sdoganato l’utilizzo degli algoritmi nel sillogismo decisionale) il vaglio su vizi dell’istruttoria e dei provvedimenti finali consistenti in illogici passaggi svolti dalla cosiddetta intelligenza artificiale.
A fronte di quanto sopra ci si chiede se le singole imprese possano essere lasciate da sole, una per una, appalto per appalto, a monitorare, controllare, segnalare e contestare l’illegittimità o l’eccesso di potere commesse dai sistemi automatizzati.
|
Ci si chiede, retoricamente, se non si debba pensare, invece, alla iniziativa proattiva di una authority di regolazione del sistema: si tratta, infatti, di aspetti che hanno una rilevanza trasversale e generale, la quale necessariamente va al di là delle singole procedure.
Affrontare la questione, sfuggendo a sterili tentazioni luddiste, ma nel contempo con un approccio strutturale, è ancora più importante alla luce di quel che accadrà in un periodo breve, se non brevissimo. I temi della disciplina degli appalti digitali dovranno, presumibilmente, essere rivisitati e riformulati a fronte della prevedibile irruzione di sistemi basati sul deep learning, non governabili o non completamente governabili dall’intelligenza umana, considerato che si tratta di sistemi che creeranno da sé stesse e per sé stesse le logiche del funzionamento.
Copyright © - Riproduzione riservata
Per accedere a tutti i contenuti senza limiti abbonati a
IPSOA Quotidiano Premium
1 anno
€ 118,90
(€ 9,90 al mese)
Primi 3 mesi
€ 19,90
poi € 35,90 ogni 3 mesi