• Commercio elettronico

18 giugno 2024

Digital Service Act: rivoluzione digitale e impatti sul mercato

Il 28 maggio Sprint Soluzioni Editoriali ed INDICAM hanno organizzato un evento online dedicato al "Digital Service Act" a cui hanno preso parte esperti della materia per illustrare ai partecipanti le tappe della rivoluzione digitale e gli impatti della normativa sul mercato. All'evento hanno preso parte l'Avv. Eleonora Lenzi, l'Avv. Riccardo Traina Chiarini e Luca Vespignani, segretario di FPMcon le relazioni rispettivamente intitolate: "Il DSA introduce nuovi obblighi per le piattaforme di e-commerce", "DSA e applicabilità ai sistemi di IA" ed infine "DSA e l’impatto sul mercato dei contenuti digitali e audiovisivi".


La prima relazione del Webinar, dal titolo "Il DSA introduce nuovi obblighi per le piattaforme di e-commerce", è stata illustrata dall'Avv. Eleonora Lenzi dello Studio "Stefanelli&Stefanelli" che in via preliminare compie le seguenti precisazioni: il “Digital Service Act” (o DSA) è il Regolamento UE 2022/2065 del Parlamento europeo e del Consiglio del 19 ottobre 2022 relativo ad un mercato unico dei servizi digitali, che modifica la direttiva 2000/31, è entrato in vigore nel novembre del 2022 e si applica a tutti i fornitori di servizi intermediari dal 17 febbraio 2024.

Emerge dall'intervento che lo scopo del legislatore comunitario è quello di contribuire al corretto funzionamento del mercato interno dei servizi intermediari stabilendo norme armonizzate per un ambiente online sicuro, prevedibile e affidabile che faciliti l'innovazione e tuteli i diritti fondamentali, compreso il principio della protezione dei consumatori. Un altro obiettivo è quello di garantire la libera concorrenza e le pari opportunità per tutti quei soggetti che invece si approcciano al mondo del digitale come operatore, quindi da un punto di vista economico.

La legge sui servizi digitali (DSA) si applica a tutti gli intermediari e piattaforme online nell'Unione europea, ad esempio mercati online, social network, piattaforme di condivisione di contenuti, app store e piattaforme di viaggio e alloggio online. In particolare, il DSA si applica a tutti quei servizi intermediari che sono offerti a destinatari, quindi a utenti, il cui luogo di stabilimento si trova nell'Unione o che sono ubicati nell'Unione, indipendentemente dal luogo di stabilimento dei prestatori di tali servizi intermediari che possono trovarsi in territorio extracomunitario (come ad esempio negli Stati Uniti, in India, in Cina), ma, in tal caso, hanno, l’obbligo di designare un proprio rappresentante legale all'interno della Unione europea per agevolare, da un lato, la trasparenza e, dall’altro, la comunicazione degli utenti con le piattaforme stesse.

Il Regolamento prevede vari tipi di servizi intermediari, distinguendo:

  • servizi di semplice trasporto («mere conduit»): servizi consistenti nella trasmissione, su una rete di comunicazione, di informazioni fornite da un destinatario del servizio, o nella fornitura dell'accesso a una rete di comunicazione
  • servizi di memorizzazione temporanea («caching»): consistenti nella trasmissione, su una rete di comunicazione, di informazioni fornite da un destinatario del servizio, che comporta la memorizzazione automatica, intermedia e temporanea di tali informazioni, effettuato al solo scopo di rendere più efficiente la trasmissione successiva ad altri destinatari su loro richiesta
  • servizi di memorizzazione di informazioni («hosting»): consistenti nella memorizzazione di informazioni fornite da un destinatario del servizio e su richiesta di quest'ultimo, quindi le c.d. piattaforme online.

All’interno della categoria delle piattaforme online, definite appunto come un servizio di memorizzazione di informazioni che, su richiesta di un destinatario del servizio, memorizza e diffonde informazioni al pubblico, rientra anche la sottocategoria delle piattaforme di e-commerce, che consentono ai consumatori di concludere contratti a distanza con gli operatori commerciali.

Il DSA oltre a fornire una definizione delle varie tipologie di destinatari, quindi, intermediari, prevede una serie di misure a scalare, cominciando dalle misure minime che si applicano a tutti gli intermediari, per poi stabilire misure/obblighi aggiuntivi che si applicano ai fornitori dei servizi di hosting e altre misure particolari per le piattaforme online, fino ad arrivare alle piattaforme e motori di ricerca di grandi dimensioni (VLOP e VLOSE) che hanno misure particolari riservate solo a questi ultimi.

Le piattaforme di e-commerce rientrano fra i soggetti che sono tenuti al rispetto di un numero di misure piuttosto importante, dunque tra i soggetti più attenzionati, anche perché il legislatore comunitario quando riferisce del settore e-commerce non distingue di fatto fra i marketplace, e quindi grandi soggetti, che mettono a disposizione prodotti o servizi, anche fornitori terzi, dai siti proprietari.

Tra gli obblighi minimi applicabili a carico di tutti gli intermediari vi sono la messa a disposizione di punti di contatto con le autorità degli Stati membri, la Commissione, il Comitato europeo per i servizi digitali, ma anche con i destinatari, l’utilizzo di un linguaggio chiaro e semplice nella stesura dei termini e delle condizioni in cui vengono stabilite le regole sia delle modalità di uso della piattaforma del servizio sia delle modalità di acquisto, la messa a disposizione del pubblico di relazioni chiare su qualsiasi moderazione dei contenuti da loro effettuata durante il periodo in questione e anche sulla gestione dei reclami, c.d. obbligo di trasparenza, e la collaborazione con le autorità sia comunitarie sia degli Stati membri.

A questi si aggiungono altri obblighi che si applicano solo ai servizi di hosting, quali la creazione e la messa a disposizione di meccanismi di segnalazione, quindi di meccanismi che permettono agli utenti di segnalare eventuali contenuti illegali, ma anche la trattazione di queste segnalazioni di contenuti illegali e il dar conto delle decisioni che sono state prese con un obbligo di motivazione delle anzidette decisioni, nonché denunciare i reati eventualmente rilevati.

Poi ci sono ulteriori obblighi che si applicano invece alle piattaforme online (non si parla ancora di piattaforme e-commerce), che si sommano ai precedenti, quali la predisposizione di un sistema online gratuito per la risoluzione e per la gestione dei reclami da parte degli utenti, ma anche quello di dare informazioni in merito alla possibilità di accedere ai meccanismi di risoluzione online delle controversie, la predisposizione di misure tecniche e organizzative che garantiscano che venga data priorità alle segnalazioni presentate dai segnalatori attendibili indicati dal coordinatore dei servizi digitali dei diversi Stati membri, cioè dei soggetti che hanno una “patente di attendibilità” rispetto alla segnalazione dei contenuti illegali.

Sussiste, inoltre, l’obbligo di sospendere i soggetti che in qualche modo forniscono contenuti illegali, l’obbligo di indicare nei termini e nelle condizioni la politica dell’intermediario in merito alla gestione degli abusi, l’obbligo di trasparenza, l’obbligo di progettazione delle interfacce in modo tale da non ingannare il destinatario o spingerlo a prendere determinate decisioni, con il divieto di manipolazione dell’utente, in presenza di pubblicità, claims o contenuti pubblicitari, l’obbligo di rendere chiaro al destinatario che si tratta di contenuti commerciali; nei sistemi che propongono all'utente determinati prodotti che si basano su algoritmi, vi è l’obbligo di indicare nei termini e nelle condizioni i parametri utilizzati per tali algoritmi ed, infine, la predisposizione di misure adeguate a protezione dei minore, che non siano in alcun modo aggirabili.

Il DSA, in ultimo, prevede obblighi che riguardano nello specifico le piattaforme di e-commerce e che si vanno a sommare a tutti gli obblighi e adempimenti precedentemente illustrati, tra cui vi è l’obbligo di tracciabilità degli operatori commerciali, pertanto, in questo caso si parla di marketplace e non di siti proprietari, perché c’è un obbligo per l’intermediario di raccogliere tutta una serie di informazioni sugli operatori commerciali che offrono i propri servizi o prodotti sulle piattaforme, un obbligo di verifica delle informazioni e un obbligo di impedire la vendita in caso di informazioni incomplete o di mancanza di comunicazione KYBC - “know your business client".

A questi si aggiunga l’obbligo di informare i consumatori su prodotti o servizi illegali e, ancora, un obbligo di progettazione dell'interfaccia in modo da che sia garantita la possibilità di fornire ai consumatori, agli utenti tutta una serie di informazioni complete.

Sono esentate dall’osservare gli obblighi aggiuntivi applicabili alle piattaforme online e alle piattaforme di e-commerce, in quanto più gravosi per loro, le microimprese e le piccole imprese, anche se si tratta di piattaforme online, quali definite nella raccomandazione 2003/361/CE, recepite nel Decreto del 18 aprile 2005 di “Adeguamento alla disciplina comunitaria dei criteri di individuazione di piccole e medie imprese”. Tuttavia resta fermo che si applicano anche a tali soggetti gli obblighi generali minimi previsti dal DSA per tutti i prestatori di servizi intermediari.

Le violazioni degli obblighi previsti dal DSA a carico delle società che offrono i servizi di intermediazione in esso contemplati comportano l’applicazione di sanzioni che possono arrivare fino al 6 % del relativo fatturato annuo mondiale.


L'intervento successivo è dell'Avv. Riccardo Traina Chiarini dello Studio "Trevisan&Cuonzo", che presenta la relazione dal titolo "DSA e applicabilità ai sistemi di IA" e, posta la premessa che il DSA si applica, in pratica, a qualsiasi soggetto che operi in rete e che consenta agli utenti di navigare in rete, di accedere a contenuti in rete e ancora di più alla categoria delle c.d. piattaforme online o motori di ricerca online di grandi dimensioni (che costituiscono fondamentalmente quelle piattaforme che si rivolgono a un numero superiore ai 45 milioni di utenti attivi su base mensile), si chiede se tra tutti questi soggetti, a cui Digital Service Act si applica, vi rientrino anche i sistemi di intelligenza artificiale.

Precisando che tali sistemi riguardano sistemi di intelligenza artificiale generativa, che consentono all'utente di produrre contenuti sulla base di indicazioni che possono essere indicazioni testuali, quindi generazione di un contenuto a sua volta testuale, ma anche audiovisive, appunto image to image, video to video etc, il relatore sostiene che è interessante domandarsi dove si possono collocare i sistemi di intelligenza artificiale all'interno delle categorie di intermediari elencate dal DSA (intermediari in generale, hosting provider, piattaforme online o piattaforme online di grandi dimensioni).

  • A tal riguardo, il relatore riferisce di aver posto questo quesito allo stesso chatbot basato su intelligenza artificiale e apprendimento automatico, sviluppato da OpenAI, ChatGPT, che alla domanda se il DSA si possa applicare ad essa, ha risposto che: «ChatGPT, nella sua versione web autonoma, può essere considerato un servizio di hosting ai sensi del DSA e, pertanto, deve rispettare i relativi obblighi di trasparenza, rimozione di contenuti illegali e protezione dei diritti degli utenti. La specificità delle interazioni e la natura temporanea della memorizzazione delle informazioni influenzano il grado e il tipo di obblighi applicabili, ma la conformità generale al DSA è necessaria se il servizio è accessibile agli utenti nell’UE».

Posto che la definizione di hosting provider stabilisce che fondamentalmente è un hosting provider qualsiasi prestatore che svolge un servizio di memorizzazione di informazioni fornite a richiesta di un destinatario del servizio, un sistema di intelligenza artificiale può essere considerato un servizio di «hosting» a cui si applicano le regole corrispondenti del Digital Service Act, tenendo conto di una serie di considerazioni di seguito riportate dal relatore stesso.

I sistemi di IA come ChatGPT o Google Gemini, per elaborare sistemi di generazione di immagini, devono effettivamente memorizzare informazioni, devono dunque memorizzare i prompt, le indicazioni e i contenuti eventualmente forniti dagli utenti. Nello specifico, ChatGPT adesso permette anche di caricare dei documenti su cui si può andare ad eseguire analisi o produrre nuovi contenuti.

Da ciò si evince che, a proposito delle informazioni che l’utente fornisce al sistema, si può parlare di input, anche se - aggiunge il relatore - nella fattispecie è possibile parlare anche di output perché il contenuto che il sistema di intelligenza artificiale restituisce all’utente è effettivamente lo svolgimento di un determinato compito e quindi la fornitura di un determinato contenuto secondo le indicazioni dell’utente stesso. Pertanto, secondo il relatore, si potrebbe dire che anche queste informazioni sono fornite o comunque richieste dal destinatario del servizio.

Posto che i sistemi di hosting sono una categoria all'interno della quale c'è una categoria molto più regolata, che è quella delle piattaforme online e quindi anche delle "very large online Platform", le piattaforme online di grandi dimensioni, il relatore ritiene lecito chiedersi se ChatGPT possa essere ritenuta una piattaforma online.  A tal proposito richiama la lettera i) dell’articolo 3 del Digital Service Act, che definisce «piattaforma online» come un servizio di memorizzazione di informazioni che, su richiesta di un destinatario del servizio, memorizza e diffonde informazioni al pubblico.

Al fine di fare chiarezza sulla questione, il relatore ritiene che potrebbe essere utile far riferimento alla sentenza VCAST Limited contro RTI SpA resa dalla Corte di Giustizia il 29 novembre 2017 (causa C-265/16), in cui la Corte in merito al servizio messo a disposizione degli utenti da una piattaforma online che registrava, a richiesta, programmi televisivi e consentiva di visualizzare gli stessi on demand in un secondo momento, ha affermato che effettivamente è possibile parlare di copia privata quando il servizio viene fornito comunque ad un numero indeterminato di utenti e, quindi, sostanzialmente un numero indeterminato di utenti, può richiedere, anche ipoteticamente nello stesso momento, la registrazione dello stesso programma, in modo da poterne fruire in un secondo momento.

Secondo il relatore, è possibile riscontrare assonanze tra questo servizio e quello di ChatGPT, che ha alla base la comunicazione teoricamente privata tra ChatGPT e l'utente, ma il contenuto fornito da ChatGPT può essere poi fornito (anche nello stesso momento) ad altri utenti il cui numero può essere chiaramente indefinito.

Un’altra ipotesi che - a detta del relatore -  si può formulare riguarda l’assimilabilità del sistema di IA al «motore di ricerca online», considerato un servizio di hosting dalla giurisprudenza di legittimità, e definito dalla lettera j dell’articolo 3 del Digital Service Act come un servizio intermediario che consente all'utente di formulare domande al fine di effettuare ricerche, in linea di principio, su tutti i siti web, o su tutti i siti web in una lingua particolare, sulla base di un'interrogazione su qualsiasi tema sotto forma di parola chiave, richiesta vocale, frase o di altro input, e che restituisce i risultati in qualsiasi formato in cui possono essere trovate le informazioni relative al contenuto richiesto”.

  • A tal proposito, Google Gemini risponde che : «È possibile che Gemini possa essere considerato un "motore di ricerca online" ai sensi del Digital Services Act (DSA), in base a come vengono definiti e strutturati i suoi servizi».

Infatti, secondo il relatore, risultano evidenti le somiglianze del motore di ricerca online con la dinamica delle “query” a ChatGPT o Google Gemini che restituiscono un risultato in qualsiasi formato (secondo il linguaggio del Digital Service Act),  sulla base di una ricerca eseguita sul web, tanto che è plausibile ritenere che il sistema di intelligenza generativa possa anche rientrare nella categoria dei motori di ricerca ai sensi del DSA.

A questo punto, dopo aver vagliato varie possibili definizioni dei sistemi IA ai sensi del Digital Service Act, sempre in via del tutto ipotetica ed interpretativa/evolutiva, aggiunge il relatore, è interessante capire quali risvolti pratici potrebbe avere l'applicabilità del DSA anche ai sistemi di intelligenza artificiale generativa.

In primis, l’applicabilità anche ai sistemi di IA degli obblighi minimi previsti dal DSA a carico di tutti gli intermediari quali l’obbligo di mantenere un punto di contatto o un rappresentante legale all'interno dell'Unione europea, l'obbligo di adeguare le proprie condizioni generali, le proprie conditions, alle prescrizioni del Digital Service Act, l'obbligo di contrastare i contenuti illegali (in questo caso ci sono anche delle previsioni secondo cui i servizi intermediari si devono adeguare all'ordine proveniente da un’autorità giudiziaria o amministrativa in relazione alla fornitura di informazioni, in relazione alla rimozione di contenuti, etc.), l'implementazione di meccanismi di segnalazione e azione e di meccanismi per la piattaforma online di gestione dei reclami e di risoluzione delle controversie.

L’ulteriore considerazione che si può fare attiene, proprio, alla questione della responsabilità per i contenuti illeciti diffusi online tramite questi sistemi, in applicazione dell’articolo 6 del DSA.

Ma l’ulteriore domanda che è lecito porsi, a parere del relatore, è se IA come ChatGPT o Google Gemini hanno un ruolo meramente tecnico, per il fatto che si tratta di sistemi totalmente gestiti e resi operativi grazie all'algoritmo, oppure se possono considerarsi hosting provider attivi, che non hanno un ruolo meramente tecnico, ma un ruolo di controllo delle informazioni, di contributo anche di tipo editoriale alla diffusione, quantomeno, alla indicizzazione e alla categorizzazione delle informazioni che vengono diffuse e caricate tramite la piattaforma. Chiaramente dal fatto che il ruolo del prestatore del servizio sia un ruolo meramente tecnico, e non un ruolo attivo, dipende l'applicabilità dell'esenzione di responsabilità.

Tra gli obblighi che potrebbero essere a carico delle IA, così come definite, rientra l'obbligo di rimozione di contenuti illegali o, più utilmente, di disabilitazione all'accesso o quello di prevenire che lo stesso tipo di informazione illegale venga poi fornita ad altri utenti, quindi, fondamentalmente di autocensura del sistema stesso per impedire che vi sia ulteriore diffusione dei contenuti illeciti ad altri soggetti.

Infine, i sistemi di intelligenza artificiale potrebbero essere soggetti ad obblighi di trasparenza e a quelli relativi alla pubblicità, in vista di un eventuale scenario futuro in cui ChatGPT o Google Gemini dovessero proporre contenuti sponsorizzati, come il motore di ricerca Google o altri motori di ricerca fanno in questo momento, ed, in particolare, in applicazione dell’articolo 26 del DSA.

Oltre all’applicabilità di sistemi di raccomandazione rivolti alla IA, un ulteriore obbligo a carico della stessa potrebbe essere quello della protezione dei minori proprio in relazione alla fornitura di contenuti pubblicitari, disciplinata dall’articolo 28 del DSA.

Quando si parla non solo di piattaforme online, ma addirittura di piattaforme online di grandi dimensioni, - precisa il relatore - ci sono ulteriori obblighi che vengono imposti ai provider, appunto ai gestori delle grandi piattaforme, che attengono, in particolare, alla categoria di “risk assessment mitigation”, riguardanti, secondo il linguaggio del Digital Service Act, da un lato, la valutazione di rischi che vengono individuati, chiamati rischi sistemici, e, dall'altro, l'obbligo di dotarsi e di implementare misure che consentano di attenuare quei rischi.

Questo perché, se un determinato contenuto viene diffuso ad un numero così elevato di utenti, come quello che permette di superare il limite per essere classificati come piattaforme di grandi dimensioni, ossia 45 milioni di utenti nell'Unione europea, chiaramente ci sono dei rischi per la società in generale.

Proprio sulla base di questi presupposti, la Commissione europea ha fatto una richiesta di informazioni ad alcune piattaforme online che integrano all'interno del loro sistema funzionalità di intelligenza artificiale tra cui Bing, Google, Facebook, Instagram, Snapchat, Tik Tok, Youtube e X, dove è stato chiesto loro di fornire informazioni in merito alle iniziative adottate, cioè, da un lato, le loro valutazioni in relazione, appunto, ai rischi sistemici che possono essere provocati dall'utilizzo di un numero così ampio di utenti e, dall'altro, quali sono le misure che pensavano di adottare per l'attenuazione di questi rischi.


L’ultimo intervento è di Luca Vespignani, segretario di FPM, "Federazione contro la Pirateria Musicale e Multimediale" ed è dedicato al "DSA e l’impatto sul mercato dei contenuti digitali e audiovisivi".

La FPM è stata fondata nel 1996 da IFPI (“International Federation of the Phonographic Industry”) e da FIMI (“Federazione Industria Musicale Italiana”) con lo scopo di proteggere i diritti di proprietà intellettuale dei suoi associati e di sensibilizzare le istituzioni e l'opinione pubblica sui rischi e i danni causati dal fenomeno. Dall'esperienza di FPM nel settore nasce il DcP, ossia Digital Content Protection”, che integra le expertise ventennali maturate nell’ambito della Federazione con le più avanzate soluzioni tecnologiche a tutela dei diritti di proprietà intellettuale.

Le priorità di IFPI per il Digital Service Act è “non danneggiare”, ovverosia:

  • preservare il regime di responsabilità limitata così come stabilito nella direttiva sul commercio elettronico e mantenere la distinzione tra ruolo “attivo” e “passivo” delle piattaforme in linea con la giurisprudenza CJEU;
  • assicurarsi che gli standard di “good notice and action” per il copyright non siano resi inefficaci;
  • assicurasi che le buone pratiche nazionali che impongono l’obbligo di “Stay Down” sui servizi di hosting continuino ad essere applicate.

Infatti, con riguardo al secondo punto, l’art. 17 della direttiva sul diritto di autore pone a carico della piattaforma, che offre un servizio di condivisione dei contenuti, alcuni obblighi da porre in essere per evitare di essere responsabile dei contenuti dei propri utenti e la stessa è chiamata a dimostrare di aver compiuto i massimi sforzi in questo senso. Tra questi obblighi vi è quello di impedire la visualizzazione di contenuti protetti dal diritto d’autore, registrati nella piattaforma dai titolari dei diritti, quello di eliminare qualsiasi contenuto protetto dal diritto d’autore, al ricevimento di un avviso valido da parte del titolare dei diritti, quello di impedire il nuovo caricamento dei contenuti e quello di ottenere una licenza.

Il DSA afferma espressamente che le nuove norme previste dal DSA non vanno ad incidere sulle norme previste sia dalla direttiva e-commerce che dalla direttiva copyright, ma anzi, il DSA si configura come lex generalis e la Direttiva copyright, in particolare, come lex specialis, con la conseguenza che sui relativi contenuti, che ovviamente sono contenuti e parti più limitate rispetto a quelle toccate dal DSA, si applica la seconda, che ha previsioni molto più precise e più stringenti sulla diffusione dei contenuti tutelati da copyright.

La potenziale sovrapposizione tra i due regimi giuridici è disciplinata dall’art. 2, par. 4, lett. b, del DSA che indica che “il regolamento non pregiudica le norme stabilite da (…) diritto dell’Unione in materia di diritto d’autore e diritti connessi”. Il considerando 11 aggiunge che “il regolamento fa salvo il diritto dell’Unione in materia di diritto d’autore e diritti connessi, (…) il quale sancisce norme e procedure specifiche che non dovrebbero essere pregiudicate”. Questo significa che il DSA intende chiaramente istituire un meccanismo più generale che sarà integrato da una regolamentazione settoriale.

Poste queste premesse normative, l’intervento mette in luce alcune criticità che permangono anche in presenza nelle nuove norme previste dal DSA, non solo per quanto riguarda il diritto d’autore ma anche per i marchi, e tali sono:

  • il mantenere il riferimento all’URL come requisito obbligatorio per gli avvisi o notice, in netto contrasto con la giurisprudenza italiana in merito;
  • l’applicazione della disposizione KYBC (“Know Your Business Customer”) solo ai marketplaces;
  • il non fornire disposizioni aggiuntive più significative riguardo ai Trasgressori Recidivi;
  • i “Point of Contact”.

A proposito del primo punto critico, il relatore evidenzia che tale previsione ha un grande impatto pratico e che, sia a causa delle difficoltà dal punto di vista tecnico, perché non è sempre possibile segnalare l’URL, ma anche da un punto di vista dell'agevolazione del lavoro dei segnalatori dei titolari dei diritti che chiedono la rimozione dei contenuti, sarebbe stato necessario eliminare il riferimento al web come elemento necessario.

Per quanto riguarda il secondo aspetto, il relatore ritiene che sarebbe stato opportuno estendere gli obblighi relativi al moderno business customer anche ai contenuti protetti da copyright, richiamando il ruolo ricoperto dall’Intelligenza Artificiale nella produzione di deepfake, ossia la creazione o modifica di foto, video e audio, partendo da contenuti reali (immagini e audio), e la rischiosità dell’utilizzo di tale tecnica su piattaforme di grandi dimensioni, come ad es. Youtube e Spotify. La conseguenza di tale fenomeno - ravvisa il relatore - è che sarebbero state più che utili previsioni normative che affiancassero agli obblighi tecnologici di prevenzione e di caricamento dei deepfake, obblighi anche sulla selezione degli utenti e delle aziende dei customer che, appunto, possono caricare contenuti.

Vi è poi il tema dei Repeating Infringers”, a proposito dei quali, secondo il relatore, il DSA avrebbe dovuto prevedere policy stringenti ed efficaci sull'intervento sui trasgressori recidivi ed infine vi è il punto critico dei Point of Contact”, rispetto ai quali, sempre secondo il relatore, sarebbe stato necessario definire meglio in cosa devono consistere e quali doveri hanno. L'obbligo del “Point of Contact”, a giudizio del relatore, risulta, nei fatti, privo di effetti pratici e senza effetti positivi sulla tutela dei diritti d'autore e, in generale, sulla proprietà intellettuale.

Il relatore pone poi l’ulteriore tema critico che riguarda il mondo del diritto d’autore e concerne le piattaforme di “Instant Messaging” (o messaggistica istantanea), in merito alle quali iDigital Service Act lascia intuire che non sia possibile applicare il DSA, in linea generale, ai sistemi di messaggistica istantanea, se non nel caso in cui gli eventuali contenuti illegali vengano diffusi tramite gruppi pubblici o aperti. La problematicità di tale assetto normativo risulta evidente se si considera - come riferito dal relatore - che presunti gruppi chiusi, in cui vengono caricati contenuti illegali, possono vantare migliaia se non decine di migliaia di utenti e gruppi aperti, che diffondono contenuti illegali, possono essere, invece, frequentati da poche centinaia di utenti.

Uno dei temi più critici del DSA, secondo il relatore, riguarda i c.d. “Trusted Flaggers”, ossia i c.d. segnalatori attendibili (che hanno dunque delle linee prioritarie di segnalazione), in capo ai quali sono stati posti degli obblighi burocratici che prima non c’erano. Basti pensare - aggiunge il relatore - alle modalità con cui devono essere comunicate le segnalazioni (l'esempio più eclatante è quello già menzionato dell'obbligo di segnalare l’URL come elemento distintivo nella segnalazione) e alla rendicontazione che i trusted flaggers sono obbligati a presentare ogni anno per testimoniare il lavoro eseguito.

Il relatore fa quindi presente la mancanza all'interno del DSA di qualsiasi tipo di obbligo per le piattaforme di adottare delle best practice tecniche, quindi dei sistemi tecnologici, per agevolare questi segnalatori attendibili, ossia un'attività automatizzata di ricerca e richiesta di contenuti illeciti e di richiesta di rimozione dei contenuti, ma, anzi, pone in risalto il fatto che tali segnalatori sono costretti ad implementare sistemi molto complessi da un punto di vista tecnico e molto costosi, che diventano poi molto costosi anche per il titolare dei diritti che vuole tutelare, appunto, i propri diritti.

Infine, residua il tema critico dell’Organismo di risoluzione delle dispute o ADR (dall'inglese “Alternative Dispute Resolution”), per inciso trattasi di dispute tra segnalatori e piattaforme, in merito al quale il relatore evidenzia una discrasia tra il regime passato, in cui le eventuali procedure di risoluzione di eventuali dispute erano molto agevoli e veloci, ed il momento attuale, in cui il regolamento della procedura di certificazione degli organismi risoluzione, che prevede come risolvere queste dispute, predispone - a detta del relatore - un meccanismo decisamente più macchinoso e complesso di quella che era ormai una prassi operativa di tutti i giorni.

Secondo il relatore, stupisce il fatto che per la risoluzione delle controversie attinenti alla materia in esame non sia stata incaricata direttamente l’AGCOM (Autorità per le Garanzie nelle Comunicazioni), che ha all'interno anche un suo dipartimento che si occupa di risoluzione delle dispute ed ha adottato da un decennio un regolamento sul diritto d’autore che mette in atto quello che dovrebbe fare in futuro il DSA, cioè mette in atto una procedura con la quale i titolari dei diritti possono chiedere la rimozione dei contenuti, la rimozione selettiva dei contenuti e, nel caso in cui la piattaforma non operi questa rimozione selettiva dei contenuti, avvia una procedura che conduce al blocco, quindi, alla disabilitazione all'accesso del sito.

Conclusivamente, il relatore auspica che il DSA abbia, al di là della sua applicazione operativa, anche un effetto di deterrenza e che spinga molte piattaforme all'adeguamento spontaneo.

Per ulteriori approfondimenti sugli interventi dei relatori è disponbile la videoregistrazione del webinar insieme alle slides redatte dai medesimi relatori sulla piattaforma FORMAZIONE PI, sezione Eventi.