Digital Services Act: la nuova proposta di Regolamento per le piattaforme

di Silvia Martinelli

Tratto da “Il Quotidiano Giuridico”, il quotidiano di informazione giuridica del gruppo Wolters Kluwer Italia e curato da Cedam, Utet Giuridica, Leggi d’Italia e Ipsoa.

La Commissione europea ha presentato, il 15 dicembre 2020, una nuova proposta di regolamento in materia di servizi digitali e responsabilità delle piattaforme, denominata “Digital Services Act”. Il Regolamento proposto mira a ridefinire la disciplina applicabile alle piattaforme online, modificando la Direttiva 31/2000 ed introducendo nuove disposizioni in materia di trasparenza, obblighi informativi e accountability per la moderazione dei contenuti.

Commissione Europea, Proposal for a Regulation on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC (Digital Services Act), 15 dicembre 2020

La Commissione europea ha presentato, il 15 dicembre 2020, una nuova proposta di regolamento in materia di servizi digitali e responsabilità delle piattaforme, denominata “Digital Services Act”. Il Regolamento proposto mira a ridefinire la disciplina applicabile alle piattaforme online, modificando la Direttiva 31/2000 ed introducendo nuove disposizioni in materia di trasparenza, obblighi informativi e accountability.

La proposta, parte del “Digital Services Act package”, il nuovo pacchetto di proposte della Commissione europea per il Digital Single Market, interviene sulla Direttiva 31/2000, cosiddetta direttiva e-commerce, nella quale è disciplinata anche la responsabilità del provider, oggetto di numeri contrasti giurisprudenziali e dottrinali, e che ora viene ritoccata per rispondere alle esigenze emerse dal 2000 ad oggi con la moltiplicazione dei servizi online e la ridefinizione del mercato.

Alle nozioni tradizionali di provider è aggiunta quella di “piattaforma online”, definita come il provider di un servizio di hosting che, su richiesta di un destinatario del servizio, memorizza e diffonde al pubblico informazioni, a meno che tale attività non sia una caratteristica minore e puramente accessoria di un altro servizio e, per ragioni oggettive e tecniche, non possa essere utilizzata senza quell’altro servizio e l’integrazione del servizio non sia solo un mezzo per aggirare l’applicabilità del Regolamento. Commissione Europea, Proposal for a Regulation on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC (Digital Services Act), 15 dicembre 2020.

La proposta mantiene l’impianto originario della Direttiva 31/2000, ovvero la regola secondo la quale la piattaforma non è tenuta ad un obbligo di sorveglianza rispetto ai contenuti immessi sulla piattaforma dagli utenti, ma introduce nuove norme in materia di trasparenza, obblighi informativi e accountability, in gran parte recependo gli orientamenti e gli indirizzi giurisprudenziali emersi nel corso degli anni, ora proposti come regolamento europeo per una maggiore armonizzazione e certezza giuridica.

In particolare, la proposta di Regolamento stabilisce:

(a) un quadro per l’esenzione dalla responsabilità dei prestatori di servizi di intermediazione;

(b) due diligence obligations per alcune categorie specifiche di provider di servizi di intermediazione;

(c) nuove regole per l’attuazione, l’enforcement, la cooperazione e il coordinamento tra gli Stati membri in materia di servizi digitali.

Limitando il contributo agli aspetti concernenti la responsabilità della piattaforma e le modifiche che il Regolamento introdurrebbe, permangono le due regole fondamentali già contenute nella Direttiva 31/2000 in materia di responsabilità dell’hosting provider.

Il provider non è responsabile delle informazioni memorizzate su richiesta di un destinatario del servizio a condizione che il fornitore:

(a) non abbia una conoscenza effettiva di attività illegali o contenuti illegali e, per quanto riguarda le richieste di risarcimento danni, non è a conoscenza di fatti o circostanze da cui è evidente l’attività illegale o il contenuto illegale;

(b) dopo aver ottenuto tale conoscenza o consapevolezza, agisce rapidamente per rimuovere o disabilitare l’accesso al contenuto illegale.

Il provider deve, invece, attivarsi per rimuovere il contenuto illecito o fornire informazioni quando gli è richiesto da un’autorità amministrativa o giudiziaria.

Tuttavia, è specificato che le regola dell’esenzione non si applica se il destinatario del servizio agisce sotto l’autorità o il controllo del provider, né in materia di responsabilità derivante dalla disciplina per la tutela dei consumatori per le piattaforme online che consentono ai consumatori di concludere contratti a distanza con i professionisti, laddove tale piattaforma online presenti l’informazione specifica o altrimenti consenta la specifica transazione in questione in un modo tale un consumatore medio e ragionevolmente informato per credere che le informazioni, o il prodotto o servizio oggetto della transazione, siano forniti dalla piattaforma online stessa o da un destinatario del servizio che agisce sotto la sua autorità o controllo.

Inoltre, sebbene non vi sia nessun obbligo generale di sorveglianza e monitoraggio, né di ricercare attivamente fatti o circostanze che indichino un’attività illegale, i provider possono attuare indagini volontarie di propria iniziativa o altre attività volte a rilevare, identificare e rimuovere o disabilitare l’accesso a un contenuto illegale, senza che ciò determini la perdita del beneficio dell’esenzione dall’obbligo di sorveglianza, come già sostenuto nei precedenti indirizzi comunitari.

Riconfermato, quindi, l’impianto originario, così come era stato negli anni interpretato, ma con maggior specificazione delle eccezioni, seguono ulteriori disposizioni che introducono:

– una disciplina dettagliata sulla trasparenza e gli obblighi informativi per tutti i provider di intermediary services;

– alcune disposizioni aggiuntive applicabili ai soli servizi di hosting, concernenti i notice-and-take-down mechanisms; – alcune disposizioni applicabili alle sole “online platform” che non siano PMI;

– disposizioni applicabili alle sole “very large platform”.

Nell’ambito del primo gruppo di disposizioni vi è l’obbligo di stabilire un unico punto di contatto elettronico per il dialogo con le autorità degli stati membri e l’obbligo di nominare un legale rappresentante nel territorio dell’Unione per i provider stabiliti fuori dall’UE che offrano servizi ai cittadini dell’Unione; obblighi di trasparenza sulle restrizioni all’utilizzo del servizio, sulla content moderation e sull’algoritmic decisionmaking; obblighi di reporting rispetto alla content moderation, alle richieste ricevute dalle Autorità degli Stati membri, nonché sui complaint mechanism per i soggetti tenuti a predisporli.

Quanto alle misure aggiuntive per gli hosting, è introdotta una disciplina dettagliata e uniforme in materia di notice-and-take-down mechanisms, obbligatori per consentire le segnalazioni degli utenti rispetto ai contenuti illeciti. La procedura di segnalazione e decisione sulla stessa è disciplinata e prevede, in particolare, la motivazione della decisione di rimozione, con indicazione delle informazioni che tale motivazione deve contenere.

Per le piattaforme online è prevista come obbligatoria l’introduzione di un complaint mechanism interno rispetto alle decisioni della piattaforma concernenti la rimozione di un contenuto, la sospensione o terminazione del servizio, la sospensione o rimozione dell’account dell’user. La decisione assunta nel meccanismo di risoluzione delle controversie interno, potrò poi essere oggetto di ulteriore giudizio sia ricorrendo ai mezzi tradizionali, sia attraverso “out-of-court dispute settlement”, imparziale e indipendente e certificato dal Digital Services Coordinator dello stato membro.

Sono, inoltre, introdotte misure in materia di “trusted flaggers” per la segnalazione dei contenuti, in materia di sospensione degli account che pubblicano frequentemente contenuti illeciti, rispetto alla segnalazioni alle autorità cui le piattaforme sono tenute, nonché con riguardo alla tracciabilità degli utenti che sulla piattaforma offrono beni o servizi e in materia di online advertisement.

Infine, per le sole “very large platform” è introdotto un obbligo di risk assessment rispetto ai rischi derivanti dal funzionamento del servizio, riguardante, in particolare: la content moderation, la tutela dei diritti fondamentali, la manipolazione del servizio. La piattaforma sarà, quindi, tenuta, a porre in essere misure ragionevoli, proporzionate e effettive per la mitigazione del rischio rilevato, con obbligo di audit. Sono anche previsti obblighi aggiuntivi in materia di recommender systems, online advertising, data access. È introdotta la figura del compliance officer per monitorare tali aspetti.

La Commissione supporterà e promuoverà l’implementazione di standard, codici di condotta e protocolli per l’adeguamento.