Con 8 voti contro 3, la Corte Suprema decide di regolamentare i social network. Cosa cambia?
Il 26 giugno, il Tribunale federale ha concluso, con 8 voti contro 3, il processo che ridefinisce la responsabilità delle piattaforme digitali per i contenuti pubblicati da terzi. La decisione segna una svolta importante nell'interpretazione dell'articolo 19 del Quadro dei diritti civili brasiliani per Internet (legge n. 12.965/2014), che è stato considerato parzialmente incostituzionale.
All'articolo 19, il Marco Civil prevedeva che i fornitori di applicazioni Internet potessero essere ritenuti civilmente responsabili per i danni derivanti da contenuti generati da terzi solo se non avessero ottemperato all'ordine del tribunale di rimuoverli. Questa norma è stata ritenuta insufficiente a tutelare diritti fondamentali come l'onore, l'immagine e la dignità umana.
L'STF ha compreso che la protezione di questi diritti richiede un'azione più diligente da parte delle piattaforme, soprattutto di fronte alla diffusione di discorsi d'odio, disinformazione e crimini digitali.
Ciò significa che le piattaforme saranno ora ritenute civilmente responsabili se, dopo la notifica extragiudiziale da parte della vittima o del suo avvocato, non rimuoveranno i contenuti ritenuti illegali, il che rappresenta un cambiamento significativo, in quanto in precedenza era necessaria un'ordinanza del tribunale per tale responsabilità, il che rendeva la cosa difficile e talvolta richiedeva troppo tempo.
Tuttavia, per i casi di reati contro l'onore, come la calunnia, la diffamazione e la diffamazione, rimane l'obbligo di un ordine di rimozione da parte del tribunale. Tuttavia, se il contenuto è già stato riconosciuto come offensivo dalla magistratura e viene replicato, la piattaforma deve rimuoverlo con una semplice notifica.
Per quanto riguarda i contenuti sponsorizzati o incrementati artificialmente (uso di robot e targeting algoritmico), esiste una presunzione di responsabilità da parte delle piattaforme, anche in assenza di notifica preventiva. L'esenzione avviene solo se l'azienda dimostra di aver agito con ragionevole diligenza per rimuovere il contenuto.
Con la decisione della Corte Suprema, le piattaforme devono ora agire in modo proattivo per impedire la pubblicazione di contenuti che riguardano atti antidemocratici, terrorismo, incitamento al suicidio o all'autolesionismo, discriminazione basata su razza, etnia, religione, nazionalità, sessualità o identità di genere, reati sessuali contro le persone vulnerabili e pornografia infantile. L'omissione sistematica può generare responsabilità, anche in assenza di una notifica specifica.
D'altra parte, la decisione non cambia le regole della legislazione elettorale, che rimangono sotto la giurisdizione del Tribunale elettorale superiore (TSE). È inoltre necessario un ordine del tribunale per rimuovere i contenuti delle comunicazioni private (come WhatsApp, e-mail e riunioni a porte chiuse).
È importante notare che la decisione mira a rafforzare la protezione dei diritti fondamentali, a ridurre l'impunità digitale, a incoraggiare un'autoregolamentazione responsabile delle piattaforme e a combattere la disinformazione e l'incitamento all'odio.
Ciò che è certo è che le piattaforme dovranno ora rivedere i loro protocolli di moderazione, ampliare i loro team legali e tecnici e adottare meccanismi più agili per rispondere ai reclami. La decisione potrebbe anche portare a un aumento dei contenziosi e dei dibattiti sulla libertà di espressione rispetto alla responsabilità digitale.
In ogni caso, il fatto è che la decisione dell'STF ha inaugurato una nuova era nella regolamentazione di Internet in Brasile, imponendo un equilibrio più rigoroso tra libertà di espressione e protezione dei diritti. Si tratta di una svolta normativa che richiede un adeguamento tecnologico, legale ed etico delle piattaforme digitali.