Cari lettori,
questa settimana vi proponiamo l'intervista all'On Daniela Morfino.
Onorevole Daniela Morfino, siamo lieti di avviare ufficialmente una collaborazione tra IoStaccoLaSpina APS e Lei sui temi cruciali della tutela dei minori nella dimensione digitale. Entrambi facciamo parte dell’Intergruppo Parlamentare “Social e Infanzia”, un gruppo trasversale che pone al centro la protezione dell’infanzia davanti alle sfide del mondo digitale e propone soluzioni concrete da presentare al Governo e alle istituzioni competenti per garantire un ambiente digitale più sicuro, educativo e rispettoso dei diritti dei bambini e degli adolescenti.
La ringraziamo per il tempo che ci dedica: di seguito alcune domande su temi normativi di particolare rilevanza per il nostro impegno comune.
Riguardo al testo della proposta di legge Camera n. 2612
La proposta di legge di cui è primo firmatario e promotore, depositata il 22 settembre 2025, mira a rafforzare la tutela contro la violenza digitale – in particolare la diffusione di immagini intime non consensuali, deep fake, e contenuti lesivi mediante tecnologie digitali e AI.
- Onorevole, può spiegare come questa iniziativa legislativa affronta il tema della protezione dei minori in rete, tenendo conto delle evoluzioni tecnologiche come l’intelligenza artificiale e la diffusione di deep fake? In che modo questa legge va oltre il quadro previsto dal Digital Services Act e dall’AI Act europeo per garantire strumenti efficaci di rimozione e prevenzione dei contenuti dannosi per i più giovani?
Il punto di partenza è semplice: per i minori il tempo è tutto. Quando circolano immagini intime non consensuali o deep fake, il danno si moltiplica in minuti. Con questa proposta vogliamo quindi rendere la tutela rapida, coordinata e realmente esigibile, prevedendo un meccanismo chiaro di presa in carico e di intervento. L’idea è affiancare al quadro europeo (DSA e AI Act) una risposta nazionale più operativa: una cabina di regia e procedure accelerate che non restino sulla carta. In altre parole: non solo regole generali, ma strumenti concreti per rimozione, prevenzione della ripubblicazione e protezione effettiva dei più giovani.
Riguardo l’atto parlamentare identificato come 1/00518
Abbiamo consultato la scheda AIC di questo atto, che risulta legato all’iter parlamentare in materia di tutela dei minori nella dimensione digitale.
- Qual è l’obiettivo specifico dell’atto 1/00518 e in che modo si integra con il quadro di iniziative legislative già in discussione (come le proposte su verifica dell’età digitale, consenso informato, e rimozione dell’immagine dei minori)? Quali sono le principali novità che questa iniziativa intende introdurre o rafforzare?
L’obiettivo della mozione è dare un indirizzo politico chiaro: chiedere che lo Stato metta ordine e rafforzi l’azione contro la violenza digitale, soprattutto quando coinvolge donne e minori. Si integra con le proposte già in discussione perché non riguarda un singolo tassello, ma spinge a costruire un quadro coerente: verifica dell’età, tutela del consenso, rimozione rapida, prevenzione e monitoraggio. La novità, se vogliamo, è l’insistenza sulla attuazione: responsabilità definite, coordinamento tra soggetti pubblici e strumenti di controllo dei risultati, non solo annunci. E anche un’attenzione maggiore a dati e monitoraggio, perché senza misurare l’impatto non si correggono le lacune.
Educazione digitale e prevenzione
Oltre alle misure sanzionatorie o di contrasto, molte proposte hanno un focus educativo per sostenere i minori e le famiglie a orientarsi in modo consapevole fra rischi e opportunità digitali.
- Alla luce dell’evoluzione tecnologica connessa all’intelligenza artificiale e ai social network, quanto ritiene prioritario inserire nei percorsi scolastici e nei piani educativi strumenti di alfabetizzazione digitale che includano non solo competenze tecniche, ma anche aspetti critici, relazionali e di benessere digitale?
Io considero questa la vera infrastruttura di lungo periodo. Perché possiamo anche rafforzare sanzioni e procedure, ma se i ragazzi e le famiglie non hanno strumenti culturali e relazionali, continueremo a intervenire quando il danno è già fatto. Oggi l’alfabetizzazione digitale deve includere sìa competenze tecniche, ma anche la parte più delicata: consenso, confini, dinamiche di pressione sociale, reputazione, benessere digitale, e la capacità di riconoscere manipolazioni come i deep fake. È una forma di educazione civica contemporanea: serve a proteggere, ma anche a responsabilizzare. E va resa strutturale, non episodica.
Age verification e consenso dei minori
In questi mesi diversi atti e proposte hanno posto l’attenzione sul consenso digitale dei minori, verifica dell’età e limiti di accesso ai servizi online.
- Qual è la sua visione sulla definizione di un’età minima nazionale per il consenso digitale (per esempio, tra 14, 15 o 16 anni) e sull’introduzione di sistemi di verifica dell’età affidabili? Quali garanzie di tutela reale per i minori e le famiglie ritiene indispensabili affinché tali strumenti non restino solo formali, ma efficaci nella pratica?
Sul tema dell’età e del consenso, la mia visione è pragmaticamente orientata all’efficacia: se introduciamo sistemi di verifica dell’età, devono essere affidabili, difficili da aggirare e soprattutto rispettosi della privacy, perché non possiamo proteggere i minori creando una sorveglianza generalizzata. Per questo servono requisiti tecnici chiari, controlli, audit e responsabilità delle piattaforme. E serve anche chiarezza sulle conseguenze: se le piattaforme non applicano davvero le regole, devono esserci sanzioni e misure correttive.
Ruolo delle piattaforme e responsabilità
Molti interventi legislativi in discussione mirano a dare maggiore responsabilità giuridica alle piattaforme digitali per il contenuto e la privacy dei minori.
- Secondo lei, come si può promuovere un equilibrio efficace tra responsabilità delle piattaforme digitali, tutela della libertà di informazione e protezione dei diritti dei minori? Quali strumenti normativi e di enforcement ritiene più urgenti per garantire questo equilibrio?
L’equilibrio non si trova chiedendo alle piattaforme di “decidere cosa è vero o falso”, ma chiedendo loro di essere responsabili quando il contenuto è chiaramente illecito o gravemente lesivo, specie se riguarda minori. Qui serve rapidità e tracciabilità: procedure di rimozione trasparenti, tempi certi, canali dedicati per i casi urgenti e misure che riducano la ripubblicazione seriale. Allo stesso tempo, per tutelare la libertà di informazione, servono garanzie: motivazioni delle decisioni, possibilità di ricorso e supervisione delle autorità. In sintesi: fermezza nei casi gravi, correttezza procedurale in tutti gli altri.
Onorevole,la ringraziamo per aver condiviso con noi approfondimenti e visioni su temi così delicati e strategici per il futuro dei nostri ragazzi. La collaborazione tra IoStaccoLaSpina APS e il suo impegno parlamentare rappresenta un passo importante verso un dibattito pubblico e istituzionale più consapevole, propositivo e orientato al benessere dei minori in un mondo sempre più digitale.
Siamo certi che tali dialoghi contribuiranno a costruire proposte legislative e politiche basate su evidenza, tutela e responsabilità sociale, e restiamo a disposizione per continuare questa collaborazione in tutte le sedi opportune.
Ringrazio L’Epoca Culturale e IoStaccoLaSpina APS: su questi temi la collaborazione tra istituzioni e società civile è fondamentale. La sfida è proteggere donne e minori con strumenti adeguati all’era dell’IA, senza scorciatoie e senza lasciare nessuno/a solo/a. E farlo con un approccio completo: regole, enforcement, educazione e responsabilità condivisa.
A presto!

Nessun commento:
Posta un commento
Posta un commento