Il DDL 1146, presentato dal governo Meloni e dal Ministro della Giustizia Nordio, è il primo tentativo italiano di regolamentare l’intelligenza artificiale (IA). La legge si pone l’obiettivo di promuovere un utilizzo etico, sicuro e trasparente dell’IA, cercando un equilibrio tra innovazione, tutela dei diritti fondamentali e sicurezza nazionale. Tuttavia, alcune criticità emergono rispetto a fattori come l’impatto sull’innovazione, la protezione dei dati e la governance dell’IA.
1. Principi Generali e Finalità della Legge
📌 Cosa prevede la legge?
- L’IA deve essere sviluppata e utilizzata rispettando diritti fondamentali, trasparenza, sicurezza e protezione dei dati personali.
- Viene promossa una visione antropocentrica, secondo cui l’IA deve supportare l’essere umano e non sostituirne le decisioni.
- La legge garantisce che l’uso dell’IA non comprometta il metodo democratico e non alteri l’equilibrio sociale ed economico.
⚠️ Criticità
🔹 Definizioni troppo generiche – La legge parla di “uso corretto” dell’IA senza fornire parametri chiari.
🔹 Rischio di freno all’innovazione – Un’eccessiva regolamentazione potrebbe rallentare le aziende italiane nel settore IA rispetto ai concorrenti internazionali.
✅ Esempio pratico
- Se una banca usa un sistema di IA per valutare il rischio di credito dei clienti, dovrà garantire che i criteri di valutazione siano trasparenti e non discriminatori. Ad esempio, non potrebbe escludere automaticamente i residenti in certe zone geografiche.
2. Applicazioni Specifiche dell’IA
La legge disciplina l’uso dell’IA in diversi settori chiave.
📌 Sanità
- L’IA può essere usata per diagnosi, prevenzione e cura delle malattie, ma il medico deve sempre avere l’ultima parola.
- È vietato l’uso dell’IA per selezionare o condizionare l’accesso alle cure.
⚠️ Criticità
🔹 Responsabilità in caso di errore – Se un sistema di IA diagnostica una malattia in modo errato, chi ne risponde? L’ospedale, il medico o il produttore dell’algoritmo?
✅ Esempio pratico
- Un ospedale utilizza un sistema di IA per rilevare tumori nei raggi X. Se il software non riconosce un tumore e il paziente subisce danni, sarà fondamentale capire se il medico ha seguito ciecamente l’IA o se ha esercitato un giudizio clinico indipendente.
📌 Lavoro
- L’IA deve migliorare sicurezza e produttività, senza discriminare i lavoratori.
- Il datore di lavoro deve informare i dipendenti se utilizza sistemi IA per valutare prestazioni o assegnare compiti.
⚠️ Criticità
🔹 Sorveglianza eccessiva – Se un’azienda usa IA per monitorare i lavoratori in tempo reale, si rischia una violazione della privacy.
🔹 Sostituzione del lavoro umano – Non è chiaro se la legge protegge abbastanza i posti di lavoro dall’automazione.
✅ Esempio pratico
- Una grande azienda di logistica utilizza l’IA per ottimizzare le consegne e assegnare turni. Un lavoratore potrebbe essere penalizzato ingiustamente dall’algoritmo per presunte basse performance, senza possibilità di spiegare la sua situazione.
📌 Pubblica amministrazione
- L’IA potrà semplificare i procedimenti amministrativi, ma le decisioni finali resteranno umane.
⚠️ Criticità
🔹 Burocrazia digitale inefficiente – Se non ben progettati, gli algoritmi potrebbero replicare gli stessi errori della burocrazia tradizionale, invece di risolverli.
✅ Esempio pratico
- Un sistema IA aiuta a smistare le domande per i sussidi sociali. Tuttavia, se il sistema esclude automaticamente certe categorie di persone senza supervisione umana, si rischiano ingiustizie.
3. Identificazione dei Contenuti Generati da IA
- Qualsiasi contenuto audiovisivo generato o modificato con IA dovrà essere etichettato con il marchio “IA”.
⚠️ Criticità
🔹 Difficile da applicare – Molti contenuti sono già modificati con IA (es. Photoshop, miglioramenti vocali nei podcast), dove si traccia il confine?
🔹 Disinformazione – La legge non specifica come evitare che video falsificati (deepfake) vengano usati per manipolare l’opinione pubblica.
✅ Esempio pratico
- Un politico viene diffamato con un deepfake che lo mostra mentre dice frasi mai pronunciate. Senza un sistema di verifica, il danno può essere irreparabile.
4. Tutela del Diritto d’Autore
- Le opere generate con IA non saranno protette da copyright, a meno che non vi sia un contributo creativo umano.
⚠️ Criticità
🔹 Difficile definire il “contributo umano” – Se uno scrittore usa IA per creare una storia e poi la modifica leggermente, chi detiene i diritti?
🔹 Impatto sui creatori di contenuti – La legge protegge abbastanza artisti e scrittori dall’uso massivo dell’IA per generare contenuti?
✅ Esempio pratico
- Un’azienda usa IA per creare illustrazioni per libri senza assumere artisti. Se l’IA si basa su stili preesistenti, gli autori originali devono essere riconosciuti e retribuiti?
5. Sanzioni Penali
- La legge introduce nuovi reati legati all’IA, come la diffusione di immagini e voci falsificate.
- Le pene per truffe online e frodi informatiche sono aumentate se avvengono tramite IA.
⚠️ Criticità
🔹 Difficoltà di applicazione – Dimostrare la colpevolezza in un caso di frode basata su IA può essere complicato.
✅ Esempio pratico
- Un truffatore usa un deepfake vocale per impersonare un CEO e convincere un dipendente a effettuare un bonifico fraudolento.
Conclusioni
Il DDL 1146 è un passo importante per regolamentare l’IA in Italia, ma solleva numerose criticità: ✅ Pro: Protezione dei diritti umani, trasparenza, cybersecurity, lotta alle frodi.
❌ Contro: Regolamentazione poco chiara, rischio di frenare l’innovazione, problemi di applicabilità.

📌 Prossimi passi: Serviranno norme attuative dettagliate per chiarire come le aziende e le istituzioni dovranno adeguarsi.