É necessária uma mudança de paradigma para a proteção de dados. Isto porque, para começar, como diversas pesquisas e doutrinadores apontam, há uma fragilidade da base legal do consentimento, falando-se na sua ineficiência e ineficácia, pois raramente se tem na prática um consentimento livre e informado, diante da necessidade de uma educação digital, bem como pela insuficiência das informações prestadas, muitas vezes não claras e fragmentadas, quando o contrário se faria necessário, para que se pudesse falar em um consentimento verdadeiro. Tal problemática é agravada pela exigência da necessidade de um grande período de tempo para a leitura de todas as políticas de privacidade, e por serem os termos de serviço ou de uso verdadeiros contratos de adesão, com a vulnerabilidade da parte aderente (sem a possibilidade de alteração das cláusulas, ou se aceita, em conjunto ou não se tem acesso ao serviço ou produto). Além disso, temos a questão dos dados anônimos poderem ser revertidos em dados pessoais, permitindo a identificação do titular dos dados, através do cruzamento de dados, não abrangidos pelas políticas de privacidade, portanto, inexistindo o consentimento.
Bruno Bioni afirma a existência de diversos estudos apontando para a falibilidade dos processos de anonimização, rompendo com o conceito de “anonimização robusta”,[1] sendo corroborado pelo entendimento de Solon Barocas e Helen Nissenbaum. Em sentido semelhante se tem a mesma problemática também com os dados neutros pela possível associação com outros dados, acabando por serem transformados em dados sensíveis, segundo o que se denomina de “teoria do mosaico”. É o que explica, Isabel-Cecilia del Castillo Vázquez.[2]
Assim, não mais se sustenta vincular a proteção de dados com foco do consentimento, ressaltando-se que até mesmo a LGPD prevê diversas outras bases legais para o tratamento de dados ser reputado legítimo, portanto, o foco não está mais no consentimento do titular, ao contrário do que menciona, por exemplo, Patricia Peck Pinheiro.[3] Atualmente começa a se desenvolver as normas de proteção de dados com base no princípio da accountability, ou seja, não mais com foco no controle do seu titular, por meio do direito fundamental à autodeterminação informativa, nos termos do direito alemão, ou liberdade informática, consoante direito espanhol, com foco no consentimento, mas com foco nas empresas e demais pessoas jurídicas que lidam com o tratamento de dados, com a necessária observância da responsabilidade digital, da ética digital,[4] e da prestação de contas para o tratamento de dados, em razão dos riscos de vazamento, e da utilização para outras finalidades além das afirmadas.
Passa-se do paradigma da autodeterminação informativa com foco no consentimento, para uma arquitetura de gerenciamento dos riscos no tratamento de dados (Juliana Abrusio). Neste sentido, a necessidade da adoção e da previsão pela legislação de novos mecanismos, tais como, relatórios de impacto, auditorias de algoritmos (a LGPD prevê a possibilidade da Autoridade Nacional de Proteção de Dados realizar auditoria acerca de aspectos discriminatórios em tratamento automatizado de dados pessoais, ex vi do art. 20, § 2º), códigos de boas condutas, certificações e programas de governança. Fala-se em privacy by design (privacidade na concepção, desde a concepção), privacy by default (por valor, padrão predefinido, proteção máxima de forma automática) e privacy by business model, como derivações do princípio da accountability, envolvendo prestação de contas, responsabilização, fiscalização e controle social.
Contudo, critica-se a LGPD por prever de forma tímida, em comparação com a legislação internacional, nos termos basicamente do seu artigo 50, poucos exemplos de instrumentos para tal proteção, a fim de garantir o enforcement da regulamentação legal quanto à proteção de dados. Outra importante crítica é acerca da natureza jurídica da Autoridade Nacional de Proteção de Dados – ANPD, já que nos termos do art. 55 a mesma foi vinculada à Presidência da República, seguindo a linha da proposta da Inglaterra, ao contrário de propostas de Autoridades Independentes, como na França, Portugal e Irlanda. Entendemos que é essencial a garantia de que a ANPD seja de fato uma autoridade independente, para a prevenção contra possíveis ingerências ou interferências não parciais pelo Poder Executivo, garantindo com isso a necessária autonomia e o equilíbrio entre os Poderes.
O conceito de privacy by business model envolve a observância da privacidade abrangendo a forma de estruturação do modelo de negócio, desde sua concepção e elaboração de seu plano inicial, de modo a prever a proteção de dados pessoais, baseados no empoderamento do titular dos dados.
As ferramentas da privacy by design e privacy by default estão previstas pelo Regulamento da União Europeia, no Considerando 78, bem como no artigo 5º, ao tratar dos princípios relacionados ao processamento de dados desde a sua criação até a minimização de dados, bem como em seus artigos 24, 25, 32 e 42, ao reiterar a necessidade da adoção de medidas técnicas e organizacionais adequadas bem como assegurar um nível de segurança adequado; são práticas de proteção de dados com base na utilização da própria tecnologia, possibilitando o controle dos dados pelos titulares, conhecidas como privacy enhancing technologies (PETs), incorporando os conceitos de privacidade e proteção de dados desde à concepção da arquitetura dos sistemas (by design), e por padrões de configuração (by default). São exemplos de tais tecnologias: minimização, pseudoanonimização, anonimização de dados pessoais; transparência das funções e do tratamento de dados pessoais; medidas de segurança; criptografia assegurando a confidencialidade nas comunicações; biometria; desagregação; possibilidade de auditorias; plataformas de navegação, como a Plataform for Privacy Preferences (P3P), possibilitando ao usuário configurar quais tipos de dados podem ser coletados.[5] A Plataform for Privacy Preferentes foi divulgada pelo governo norte-americano Bill Clinton em 1997, baseando-se na adoção de certos standards técnicos visando a conscientização dos usuários e uma auto-regulamentação pelas empresas, em uma espécie de mixagem entre PETs e auto-regulamentação pelo próprio Governo.
Doneda traz a definição de Privacy Enhancing Techonoligies (PET) como “qualquer meio tecnológico desenhado para atuar na arquitetura tecnológica da privacidade, impossibilitando, limitando ou mesmo facilitando uma determinada ação”.[6] Cita como exemplos as iniciativas relacionadas com o comércio eletrônico, como o redirecionados de correio eletrônico finlandês anon.penet.fi, ou pela proteção do segredo nas comunicações como as tecnologias de encriptação, como o famoso sistemas PGP (Pretty Good Privacy), meios de pagamento e navegação anônimos na internet.[7] Para Doneda, contudo, tal tecnologia por si só não poderia ser tomada como instrumento de tutela e nem seria possível de ser qualificada juridicamente, podendo ser um instrumento de atuação de políticas públicas.[8]
Embora a LGPD não contenha tais conceitos de forma expressa, tais medidas são uma decorrência lógica dos artigos: 6º, 46, caput, e parágrafos 1º. e 2º, e em especial dos princípios previstos no art. 6º, quais sejam, transparência, segurança e prevenção.[9]
A LGPD-Lei Geral de Proteção de dados prevê importantes ferramentas de compliance, ou seja, não é suficiente apenas alegar a preocupação com a proteção de dados, deve ser comprovado o respeito à LGPD, por meio de documentação hábil. A principal ferramenta é o relatório de impacto da produção de dados pessoais, apontando o fluxo de dados e as respectivas bases legais.
Destaca-se, outrossim, há a proposta denominada de estratégia sharing the wealth, isto é, o compartilhamento pelas empresas da riqueza gerada pelo tratamento dos dados, associado à necessidade de transparência, permitindo um acesso prático e fácil aos dados em um formato pronto para o uso, possibilitando uma participação ativa e uma forma de empoderamento do titular dos dados.[10]
Portanto, em razão de tal fragilidade, o modelo de autogerenciamento baseado no consentimento tem sido criticado como incapaz de proteção efetiva dos direitos dos titulares dos dados. Assim, torna-se essencial que sejam tomadas outras medidas como o modelo de privacy self-management, isto é, a adoção de práticas institucionais de gestão da privacidade, com a obrigação de oferecer informações claras, e de fácil leitura e compreensão, no âmbito de um design de interface, trazendo a necessidade de observância de se atender um parâmetro mínimo para que ocorra a real compreensão das informações, e ser possível a determinação informativa.[11]
Um exemplo paradigmático acerca da não observância pela grande parte das empresas acerca das normas de proteção de dados quanto a sua política de proteção de dados, encontra-se no relatório produzido pelo Projeto Claudette (utilizando-se da inteligência artificial e de machine learning), em especial quanto às normas do Regulamento Geral de Proteção de Dados da União Europeia – GDPR, em relação aos seguintes requisitos legais: informações abrangentes, linguagem clara, processamento justo; caso não sejam observados tais requisitos os documentos são tidos como ilegais. A conclusão da pesquisa foi de que todas as empresas descumpriram os requisitos legais em suas políticas de privacidade, tendo sido analisadas as seguintes empresas: Google, Facebook (com WhatsApp e Instagram), Amazon, Apple, Microsoft, Twitter, Uber, AirBnB, Booking.com, Skyscanner, Netflix, Jogos Steam e Epic. Constatou-se que todas as empresas não se utilizavam de linguagem clara nem de informação suficiente, e que 33,9% das cláusulas eram potencialmente ilícitas, ou seja, com processamento problemático, afrontando os artigos 13 e 14 do GDPR.
Na França, a Comissão Nacional de Informática e Liberdades (CNIL) multou a empresa Google em 50 milhões de euros, em 21.01.2019, por não informar claramente e de forma compreensível, sua política de uso de dados pessoais, ocorrendo falta de transparência, informação insatisfatória e ausência de consentimento válido, já que a informação prestada não era facilmente acessível e era disseminada em diferentes documentos, dificultando o acesso às informações necessárias.
Como forma de melhorar a fragilidade do consentimento, há a possibilidade de consentimento de forma fragmentada, o que é denominado de granularidade das autorizações do usuário, ou consentimento granular, solicitando-se o consentimento para cada tipo de dados que o aplicativo pretende acessar. Destaca-se o Parecer de 2013 do Article 29 Data Protection Working Party, Grupo de Trabalho do Artigo 29, grupo de trabalho europeu independente que trabalhou com as questões relacionadas à proteção de dados pessoais e à privacidade até 2018, afirmando que tal dinâmica cumpre com os requisitos legais, em específico, o de informação adequada e solicitação do consentimento específico para cada tipo de dado a ser utilizado.[12]
Portanto, diante da caixa preta e dos vieses nos modelos de machine learning, e da insuficiência neste aspecto das atuais regulamentações previstas pela legislação europeia e pela Lei Geral de Proteção e Dados (LGPD) do Brasil, revela-se como essencial a mudança de paradigma nesta seara, envolvendo o design responsável dos programas de computação.
Segundo a LGPD o tratamento de dados deve se amparar em uma base legal, trazendo 10 hipóteses de bases legais em seu artigo 7º; iremos destacar no nosso estudo: o consentimento, o legítimo interesse e a realização de estudos por órgão de pesquisa (I, IV, IX).
São verdadeiras condições de legitimidade para o tratamento de dados pessoais, o qual somente poderá ser efetuado, isto é, será legítimo, no caso de uma base legal, isto é quando diante de uma das 10 hipóteses trazidas na lei.[13]
A LGPD na esteira de legislações internacionais traz os direitos básicos do titular, elencados no artigo 18, relacionados ao controle do fluxo de seus dados: acesso, retificação (correção), anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou em desconformidade com a lei; revogação do consentimento; direito de portabilidade, (art. 11, p. 4º. I; art. 18 – dados sensíveis),[14] direito à revisão de decisões automatizadas (art. 20 da LGPD).
Quanto ao direito à revisão de decisões automatizadas a crítica que se faz é a possibilidade de tal revisão ser feita por máquinas, ao contrário do que dispõe o direito europeu que prevê a obrigatoriedade da revisão humana (art. 22, 3 GDPR; “Nos casos a que se referem alíneas a e c do n. 2, o responsável pelo tratamento aplica medidas adequadas para salvaguardar os direitos e liberdades e legítimos interesses do titular dos dados, designadamente o direito de, pelo menos, obter intervenção humana por parte do responsável, manifestar o seu ponto de vista e contestar a decisão”). Tal previsão é contrária à previsão originária da LGPD, alterada pela Lei nº. 13.853, de 2019, que aprovou a Medida Provisória 869/2018, em razão do veto presidencial suprimindo a expressão “pessoa natural”.[15] Agora se trata de mera faculdade a revisão humana.
O direito de revisão alcança qualquer tipo de atividade de tratamento automatizado de dados que “afete os interesses do titular”, no sentido de uma abrangência ampla, importando uma análise consequencialista, abrangendo dados pessoais, bem como os anônimos, que são também dados pessoais (já que estes englobam o termo identificável), mas que nem sempre estão sujeitos à proteção da lei, como veremos. O termo “identificável” deve ser analisado via filtro da razoabilidade, consoante LGPD, na esteira da legislação da União Europeia. Não basta, pois, a mera possibilidade de que o dado seja vinculado ao seu titular, para atrair o termo identificável. A razoabilidade é o parâmetro de elasticidade do conceito de dado pessoal como aquele relacionado a uma pessoa identificável. Portanto, se a vinculação de um dado ao seu titular demandar um esforço fora do razoável, não há que se falar em dados pessoais protegidos pela lei, o dado continua sendo considerado como anônimo e sem proteção legal, uma vez que o “filtro da razoabilidade” impede o seu enquadramento como um dado relacionado a uma pessoa identificável.
Não há que se confundir o direito de revisão das decisões automatizadas, com o direito à oposição e com o direito de explicação. O direito de oposição refere-se à possibilidade do titular de dados se opor ao tratamento para a definição de perfil (profiling); o direito de revisão relaciona-se com o direito à explicação, referindo-se apenas à uma explicação, por intervenção humana ou por máquina a respeito de uma decisão automatizada, desde que afete seus interesses jurídicos.
O Regulamento da União Europeia quanto à proteção de dados (GDPR), ao contrário da LGPD, traz a possibilidade do titular dos dados opor-se à decisão gerada artificialmente, nos termos do Considerando 71 e do artigo 22,1, quando afetar seus interesses. O artigo 22, 1 preceitua que: “O titular dos dados tem o direito de não ficar sujeito a nenhuma decisão tomada exclusivamente com base no tratamento automatizado, incluindo a definição de perfis, que produza efeitos na sua esfera jurídica ou que o afete significativamente de forma similar”.
Na LGPD há apenas a previsão pelo art. 18, p. 2º, trazendo o direito de oposição quando do descumprimento das hipóteses de dispensa de consentimento. Neste sentido preceitua o art. 18, § 2º: “O titular pode opor-se a tratamento realizado com fundamento em uma das hipóteses de dispensa de consentimento, em caso de descumprimento ao disposto nesta Lei”.
O direito à explicação, embora não esteja previsto de forma expressa na LGPD, é uma decorrência lógica do artigo 20, caput, e do p. 1º, relacionado à revisão das decisões automatizadas, com redação dada pela Lei nº 13.853/2019. Verbis: § 1º: “O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial”.
Também há a proteção mesmo que indireta ou não expressa pela LGPD do direito ao esquecimento, diante, da regulamentação dada ao direito de eliminação de dados, conceito já previsto no Marco Civil da Internet, como uma consequência lógica de tal previsão[16]. Os direitos ao esquecimento e o de explicação são considerados como garantias com expansão da proteção de dados, sendo apontada sua importância nos estudos de Rolf Weber, relacionando os mesmos à expansão dos direitos humanos.[17]
Além das condições de legitimidade, com base nas hipóteses de bases legais, a LGPD prevê diversos procedimentos visando uma maior segurança e garantia dos titulares dos dados, bem como diversos princípios, quais sejam: livre acesso, segurança, transparência, qualidade; finalidade (o qual interpretamos como correspondendo ao princípio da razoabilidade, ex vi do art. 6, I), necessidade, adequação (os quais interpretamos como correspondendo ao princípio da proporcionalidade – subprincípios da adequação, necessidade e proporcionalidade em sentido estrito, ex vi do art. 6, II, III), responsabilização e prestação de contas, e prevenção.
Quanto à adoção de procedimentos como medida extra a propiciar uma adequada proteção aos dados pessoais, bem como no sentido de se evitarem as fake news e notícias com cunho de discurso de ódio, destaca-se a imposição de deveres procedimentais aos intermediários, aos provedores, como os deveres informacionais no cuidado do trânsito das informações nas plataformas, levando-se em conta as condições elementares da infraestrutura comunicacional. Os provedores são obrigados a empregar os melhores meios disponíveis para a proteção dos dados pessoais, nos termos das Diretivas 2001/29/CE, 2004/48/CE e 2019/7909.[18] Tal dever procedimental está previsto no art. 13 do PL das fake news, com relação à moderação de conteúdo por plataformas, trazendo a obrigação de criação de mecanismos online para que o usuário com conteúdo removido ou suspenso por iniciativa do provedor tenha assegurado o respeito ao princípio do contraditório, interno à plataforma, ou seja, extrajudicialmente, uma espécie de Cyber Courts.
Há a necessidade, portanto, de criação de deveres informacionais de trânsito, ou seja, deveres de cuidado, diante das alterações produzidas pelas novas formas de comunicação digital, trazendo desafios para a proteção de dados, considerando-se as próprias condições elementares da infraestrutura comunicacional. Outrossim, destaca-se a necessidade de uma atuação via modelo de uma autorregulação regulada, unindo aspectos da autorregulação da indústria e da regulação externa (pelo Estado), compatibilizando assim a experiência e o conhecimento técnico das empresas à proteção do interesse público. Exemplo de tal modelo foi adotado pela Alemanha em 2018, visando o combate a fake news e aos discursos de ódio (hate speech) nas redes sociais, assegurando que o provedor será responsabilizado, não pelo conteúdo postado, mas apenas pelo procedimento ou pela omissão em adotar os procedimentos adequados de moderação de conteúdo. Destaca-se a Lei Netzwerkdurchsetzungsgesetzt da Alemanha, de 2018, trazendo os deveres procedimentais dos intermediários.[19]
Segundo nosso entendimento, os incisos I, II, III do art. 6º da LGPD trazem os princípios da proporcionalidade e da razoabilidade, senão vejamos.[20]
A lei refere o princípio da finalidade (art. 6, I), correspondendo na verdade ao princípio da razoabilidade, que visa evitar o absurdo em direito, quando o fim não é legítimo, sendo absurdo, não razoável; vincula-se o tratamento de dados pessoais ao objetivo assinalado para sua coleta e utilização, a fim de garantia da denominada privacidade contextual, evitando a utilização para outros fins, ou fins incompatíveis com aquele declarado. LGPD, art. 6º, I, Verbis: “finalidade: realização do tratamento para propósitos legítimos, específicos, explícitos e informados ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades”. Segundo o princípio da finalidade, não é mais possível tratar dados pessoais com finalidades genéricas ou indeterminadas, devendo ser feito com fins específicos, legítimos, explícitos e informados. a própria lei no art. 6, inciso IX traz um exemplo do que seria um fim não legítimo: realização do tratamento de dados para fins “discriminatórios, ilícitos ou abusivos”.[21]
A crítica que se faz aqui à LGPD, art. 6º, é por não ser tão clara, quando trabalha com os termos necessidade, adequação e finalidade, bem como por trazer no mesmo inciso (III) tanto a necessidade como a proporcionalidade em sentido estrito, e por não fazer menção expressa aos princípios da proporcionalidade e da razoabilidade em seu artigo 6o. Também por trazer o conceito no inciso I de finalidade, quando se trata do princípio da razoabilidade, dando margem a equívocos.
O princípio da adequação vem expresso no art. 6 (II): adequação: “compatibilidade do tratamento com as finalidades informadas ao titular, de acordo com o contexto do tratamento”. Ou seja, quando os tratamentos são compatíveis, atingem a finalidade informada. A adequação é garantir a finalidade almejada e informada. Aqui se fala em sub-princípio da proporcionalidade da adequação.
Também pelo princípio da necessidade, expresso no inciso III, deve ser utilizado dos dados, apenas aquilo que seja estritamente necessário para alcançar as finalidades pretendidas, isto é mantendo-se a proporcionalidade quanto às finalidades dos tratamentos de dados. Trata-se do subprincípio da necessidade. Será utilizado apenas o mínimo necessário para a realização do fim pretendido, pois se utilizar mais irá violar o direito à proteção de dados e a privacidade.[22]
Ainda há a proporcionalidade em sentido estrito também no inciso III do art. 6, na medida em que após enunciar “tal limitação do tratamento ao mínimo necessário para realização de suas finalidades (necessidade)” prossegue a norma determinando que sejam igualmente “proporcionais e não excessivos” em relação a tais finalidades. Logo, há de se entender que na avaliação do que seja o mínimo necessário há de se levar em conta o respeito à dignidade humana, pois de outro modo se ela for violada ocorrerá a violação da proibição de excesso, em que se traduz o princípio da proporcionalidade em sentido estrito. A proporcionalidade em sentido estrito traz, portanto, um limite à ponderação, à restrição de direitos fundamentais, qual seja, o núcleo essencial de todo Direito Fundamental, onde se encontra a dignidade humana, a qual jamais poderá ser violada.
Além do inciso I do art. 6º da LGPD o princípio da razoabilidade vincula-se principalmente à problemática dos dados anônimos, de quando estes poderão ser considerados dados pessoais, com proteção da LGPD. Como saída para a problemática de ser sempre quase possível a reidentificação de um dado anônimo, identificando seu titular, há a adoção de um “filtro” da razoabilidade delimitando a elasticidade do conceito expansionista, do termo identificável, sob pena da lei trazer expressões inúteis ou supérfluas, e tornar-se teratológica, já que todo dado anônimo também estaria dentro do conceito de dado pessoal. Isto porque o conceito legal de dado pessoal é aquele que o titular encontra-se identificado ou pode ser identificável. Tal filtro é a razoabilidade.
PAOLA CANTARINI é advogada e professora universitária. Palestrante. Mestre e doutora em Direito pela PUC-SP. Doutora em Filosofia do Direito pela Università del Salento (Itália). Visiting researcher – Universidade de Lisboa (2019), e na Scuola Normale Superiore de Pisa– Itália (Roberto Esposito, supervisor)-2016-2020. Pós-doutora pela EGS – European Graduate School, Suíça em “Filosofia, artes e pensamento crítico”. Pós-doutora pela UC-CES – Universidade de Coimbra, Centro de Estudos Sociais – tutor Boaventura de Sousa Santos. Pós-Doutora pela Faculdade de Direito da USP – Departamento de Filosofia e TGD – Teoria Geral do Direito. Pesquisadora colaboradora do Departamento de Filosofia da UNICAMP, junto a Oswaldo Giacoia Jr., do Instituto de Estudos Avançados da USP, Humanidades computacionais. Pós-doutoranda do Programa de Pós-Graduação em Tecnologias da Inteligência e Design Digital- TIDD-PUCSP, em projeto sobre Inteligência Artificial, coordenado por Lucia Santaella. Membro da rede do constitucionalismo latino americano. Pesquisadora Lawgorithm. Coordenadora juntamente com Willis S. Guerra Filho da ELDFA- Escola livre Direito, Filosofia e Arte (eldfa.education). Colunista da revista ambitojuridico.com.br, coluna Direito Digital. Colunista Estado de Direito, coluna IA e Humanidades.
Este artigo faz parte de estudos em sede de doutorado na Universidade de Salento, com foco na análise dos Direitos Fundamentais e do princípio da proporcionalidade, objeto do livro Princípio da proporcionalidade como resposta à crise autoimunitária do Direito, publicado pela Ed. Lumen juris, bem como faz parte de pesquisa agora em sede de pós-doutorado no TIDD-PUCSP, envolvendo o estudo do Direito e da inteligência artificial, dando origem ao livro Teoria fundamental do direito digital: uma análise filosófico-constitucional. Em tal livro buscou-se a análise do direito digital, por meio da postulação de uma Teoria Fundamental do Direito Digital, essencial para uma melhor compreensão e proteção dos direitos fundamentais envolvidos nesta seara. Destarte, o Direito Digital deverá ser interpretado à luz da nova hermenêutica constitucional, da nova configuração do Direito Privado e do Direito Público, afastando-se a antiga visão dicotômica entre tais campos do conhecimento jurídico, e à luz dos conceitos de constitucionalismo, direitos fundamentais, princípio da proporcionalidade e princípio da dignidade humana. Visou-se, pois, por meio de uma abordagem filosófico-constitucional que resulte em contribuição a uma Teoria Fundamental do Direito Digital, enquanto teoria jurídica, desenvolvida à luz do Direito Constitucional, dos princípios constitucionais, da nova hermenêutica constitucional, partindo-se da diferenciação entre regras e princípios, do conceito multidimensional de direitos fundamentais, e passando-se necessariamente pela análise do princípio da proporcionalidade e do princípio da dignidade humana. Trata-se de interpretar e aplicar o Direito Digital em respeito à constitucionalização do Direito e aos princípios basilares constitucionais, buscando-se uma reflexão aprofundada e crítica acerca dos fundamentos constitucionais do Direito Digital. Entendemos que para uma adequada compreensão dos princípios da proporcionalidade e razoabilidade e dos direitos fundamentais, previstos tanto na LGPD – Lei Geral de Proteção de Dados como no Regulamento Geral de Proteção de Dados da União Europeia – RGPD 2016/679, e na jurisprudência, bem como a fim de se superar a problemática da falta de efetividade de princípios éticos ligados a uma possível ética da IA, a questão da inefetividade dos princípios éticos e jurídicos envolvidos, é essencial, pois, o estudo da Teoria dos Direitos Fundamentais. Visou-se, destarte, analisar tais temáticas afetas à disciplina do Direito digital, como o problema da fragilidade do consentimento, da ubiquidade e da opacidade da IA, relacionados ao direito à explicação e à inteligência artificial explicável, apontando, outrossim, para as bases legais da LGPD, princípios, procedimentos e novos mecanismos para proteção de dados.
[1] Bruno Ricardo Bioni, “Proteção de Dados Pessoais – A Função e os Limites do Consentimento”, Editora Forense, de 2019. V. tb. Diego Machado e Danilo Doneda, “Proteção de dados pessoais e criptografia: tecnologias criptográficas entre anonimização e pseudonimização de dados”. In: A regulação da criptografia no direito brasileiro, Publisher: Thomson Reuters Brasil, pp.99125, 2019. Disponível em: <https://www.researchgate.net/publication/330401277_Protecao_de_dados_pessoais_e_criptografia_tecnologias_criptograficas_entre_anonimizacao_e_pseudonimizacao_de_dados>.
[2] Isabel-Cecilia del Castillo Vázquez. “Protección de datos: cuestiones constitucionales y administrativas”. Navarra: Editorial Aranzadi, 2007, p.63. Solon Barocas; Helen Nissenbaum. “Big data’s end run around anonymity and consent”. In: (Coords.) Julia Lane; Victoria Stodden; Stefan Bender; Helen Nissenbaum (Coord.). “Privacy, big data, and public good: frameworks for engagement”. Cambridge: Cambridge University Press, 2014.
[3] “Proteção de dados pessoais, Comentários à Lei nº 13.709/2018”, São Paulo: Saraiva. Edição do Kindle, 2020. Ver Juliana Abrusio, ob. loc. ult. Cit.
[4] O Parlamento Europeu publicou, em 2017, Relatório sobre robótica e inteligência artificial trazendo a questão da responsabilidade civil, e questões éticas, defendendo que os robôs autônomos possuam uma “personalidade eletrônica”, ou seja, reconhece que estes são aptos a arcar com a responsabilidade de seus atos, podendo inclusive objeto de imposição de taxas; também está em discussão a elaboração de um código de conduta ética para engenheiros de robótica. A ética digital identificaria novas perspectivas, potencialidades e limites para o tratamento de dados, no sentido de uma abordagem proativa. Ver Peter Burgess; Luciano Floridi; Aurélie Pols; Jeroen van Hoven. “Ethics advisory group. Towards a digital ethics”. Disponível em: <https://edps.europa.eu/sites/edp/files/publication/18-01-25_eag_report_en.pdf>.
[5] Pode-se entender por privacy by default em suma, a utilização de metodologias que adotem por padrão a configuração de privacidade mais segura possível, modo automático, por padrão (<https://www.ipc.on.ca/wp-content/uploads/2018/01/pbd-1.pdf.>). Ver Juliana Abrusio, ob. loc. ult. Cit. Há diversos princípios fundamentais, segundo autoridade de proteção de dados do Canadá e da Holanda, para a formulação de privacy by design. Como princípios fundamentais podem ser destacados: proatividade e não reatividade, prevenção e não correção, privacidade como configuração padrão e incorporada ao design; segurança de ponta a ponta; visibilidade e transparência. A anonimização não se confunde com a pseudoanonimização; a anonimização possui como técnicas, visando a criação do dado anônimo: a randomização, alterando a veracidade dos dados, fim de não ser possível sua ligação com o titular dos dados, utilizando-se de ruído ou permutação; a generalização, tornando um dado generalizado por meio da modificação da ordem de magnitude ou de outros aspectos. A pseudoanonimização é um mecanismo de disfarce da identidade, utilizando-se da substituição de um atributo da personalidade por outro, permitindo a preservação da identificação do titular dos dados, salvo se houver a utilização de outras informações, as quais devem ser separadas e sujeitas à medidas técnicas e organizativas para assegurar sua não utilização (ver Diego Machado; Danilo Doneda, “Proteção de dados pessoais e criptografia: tecnologias criptográficas entre anonimização e pseudonimização de dados”. In: A regulação da criptografia no direito brasileiro, São Paulo: Thomson Reuters Brasil, 2019, pp. 99125.< https://www.researchgate.net/publication/330401277_Protecao_de_dados_pessoais_e_criptografia_tecnologias_criptograficas_entre_anonimizacao_e_pseudonimizacao_de_dados>. A pseudoanonimização pode ser alcançada através de criptografia com chave secreta, com a tokenização, com a geração de um código identificador digital exclusivo, aleatório e temporário para proteção de dados sensíveis; destaca-se ainda a possibilidade de aplicação de algoritmo com a função hash, e a criptografia determinista ou função hash como técnicas de pseudoanonimização (ver Viviane Nóbrega Maldonado, Renato Opice Blum, “Comentários ao GDPR. Regulamento Geral de Proteção de Dados da União Europeia”, São Paulo: Revista dos Tribunais, 2018).
[6] “Da Privacidade à Proteção de Dados Pessoais: elementos da formação da Lei Geral de Proteção de Dados”, p. 7590, kindle.
[7] Jeffrey Rosen. “The Unwanted Gaze: The Destruction of Privacy in America”, New York: Vintage, 2011, p. 175 e ss.
[8] “Da Privacidade à Proteção de Dados Pessoais: elementos da formação da Lei Geral de Proteção de Dados”, ed. kindle, cit., p. 7590 e ss..
[9] O art. 46, p. 2º dispõe que as medidas de segurança, técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações incidentais, deverão ser observadas desde a fase de concepção do produto ou do serviço até a sua execução. Já o art. 46, p. 1º estabelece que a autoridade nacional poderá dispor sobre padrões técnicos mínimos para tornar aplicável as medidas de segurança, técnicas e administrativas aptas a proteger os dados pessoais, considerando a natureza das informações tratadas, as características específicas do tratamento e o estado atual da tecnologia, em especial quanto aos dados pessoais sensíveis.
[10] Neste sentido Omer Tene e Jules Polonetsky. “Big data for all: privacy and user control in the age of analytics”. Northwestern Journal of Technology and Intellectual Property, v. 239, 2013, p. 01-36. Ver também Juliana Abrusio, ob. loc. ult. cit.
[11] Florian Schaub; Rebecca Balebako; Adam L. Durity; Lorrie Faith Cranor. “A design space for effective privacy notices”. Symposium on Usable Privacy and Security (SOUPS), 22 a 24 de de 2015, Ottawa, Canada. Disponível em: <https://www.usenix.org>.
[12] <https://edpb.europa.eu/our-work-tools/article-29-working-party_pt.> ARTICLE 29 Data protection working party. Opinion 02/2013 on apps on smart devices. Disponível em: <https://www.pdpjournals.com/docs/88097.pdf>.
[13] A LGDP traz no seu artigo 7o, os Requisitos para o Tratamento de Dados Pessoais, ou seja, as bases legais, dispondo:
O tratamento de dados pessoais somente poderá ser realizado nas seguintes hipóteses:
- mediante o fornecimento de consentimento pelo titular;
- para o cumprimento de obrigação legal ou regulatória pelo controlador;
- pela administração pública, para o tratamento e uso compartilhado de dados necessários à execução de políticas públicas previstas em leis e regulamentos ou respaldadas em contratos, convênios ou instrumentos congêneres, observadas as disposições do Capítulo IV desta Lei;
- para a realização de estudos por órgão de pesquisa, garantida, sempre que possível, a anonimização dos dados pessoais;
- quando necessário para a execução de contrato ou de procedimentos preliminares relacionados a contrato do qual seja parte o titular, a pedido do titular dos dados;
- para o exercício regular de direitos em processo judicial, administrativo ou arbitral, esse último nos termos da Lei nº 9.307, de 23 de setembro de 1996 (Lei de Arbitragem);
- para a proteção da vida ou da incolumidade física do titular ou de terceiro;
- para a tutela da saúde, exclusivamente, em procedimento realizado por profissionais de saúde, serviços de saúde ou autoridade sanitária (Redação dada pela Lei nº 13.853, de 2019;)
- quando necessário para atender aos interesses legítimos do controlador ou de terceiro, exceto no caso de prevalecerem direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais; ou
- para a proteção do crédito, inclusive quanto ao disposto na legislação pertinente”.
[14] LGPD, art. 18, V: “O titular dos dados pessoais tem direito a obter do controlador, em relação aos dados do titular por ele tratados, a qualquer momento e mediante requisição.. regulamentação do órgão controlador; V – portabilidade dos dados a outro fornecedor de serviço ou produto, mediante requisição expressa, de acordo com a regulamentação da autoridade nacional, observados os segredos comercial e industrial; Redação dada pela Lei nº 13.853, de 2019.
[15] Antes do veto presidencial, a Lei nº. 13.853, de 2019, que aprovou a Medida Provisória 869/2018, alterando a Lei Geral de Proteção de Dados (LGPD) reincorporava à LGPD a obrigatoriedade de revisão de decisões automatizadas por pessoa natural, consoante sua redação original, nos termos do art. 20, e p. 3º, mas foi objeto de veto presidencial. A MP citada visava em especial criar a ANPD – Autoridade Nacional de Proteção de dados, essencial para a fiscalização da observância das normas da LGPD, na linha do que dispõe o GDPR, Regulamento da UE. Portando a MP teve o ponto positivo de criar tal Autoridade, consagrando no seu art.55-J suas atribuições, destacando-se a fiscalização da proteção de dados, a elaboração de diretrizes para a Política Nacional de proteção de dados pessoais e privacidade, a fiscalização e imposição de sanções, no caso de afronta à lei, entre outras atribuições. Verbis:
Art. 20: O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.
- A revisão de que trata o caput deste artigo deverá ser realizada por pessoa natural, conforme previsto em regulamentação da autoridade nacional, que levará em consideração a natureza e o porte da entidade ou o volume de operações de tratamento de dados.”
Importa destacar os principais fundamentos a favor da revisão humana, nos termos do parecer do Relator na Câmara Federal:
- a retirada da pessoa humana enfraqueceria o exercício dos direitos humanos, de cidadania e do consumidor previstos no art. 2º, VI e VII da LGPD;
- a interação de pessoas com deficiência de julgamento ou falta experiência com controladores seria dificultada, pois a inexistência de contato com revisores humanos poderia levar a práticas abusivas;
- que os algoritmos que processam os dados são baseados em cálculos probabilísticos e estatísticas e que, por não englobarem o universo dos titulares e seus comportamentos, poderiam levar a erros e desvios padrões, já que se baseiam apenas em amostras e intervalos de confiança, além de estarem sujeitos a incorreções próprias do desenvolvimento tecnológico;
- que a retirada vai de encontro ao que prevê a (colocar o nome completo do ato normativo e depois a Regulamentação Geral de Proteção de Dados – GDPR europeia (equivalente à LGPD brasileira) em seu art. 22[12], o que poderia dificultar a integração comercial e a geração de oportunidades e investimentos.
Cumpre também observar as razões utilitárias na maior parte da fundamentação do veto presidencial, aos quais não seriam as mais apropriadas quando se fala na proteção de direitos fundamentais ou direitos humanos, como já bem demonstrou a Constituição de Weimar ao reconhecer que a tutela dos interesses econômicos somente é legítima enquanto ela esteja vinculada aos direitos da pessoa. Verbis:
A propositura legislativa, ao dispor que toda e qualquer decisão baseada unicamente no tratamento automatizado seja suscetível de revisão humana, contraria o interesse público, tendo em vista que tal exigência inviabilizará os modelos atuais de planos de negócios de muitas empresas, notadamente das startups, bem como impacta na análise de risco de crédito e de novos modelos de negócios de instituições financeiras, gerando efeito negativo na oferta de crédito aos consumidores, tanto no que diz respeito à qualidade das garantias, ao volume de crédito contratado e à composição de preços, com reflexos, ainda, nos índices de inflação e na condução da política monetária.
[16] Destaca-se importante decisão do Supremo Tribunal Federal acerca de tal direito, reconhecendo a repercussão geral do tema; foi reconhecida a aplicabilidade do direito ao esquecimento na esfera civil quando invocado pela própria vítima ou pelos seus familiares (RE 833.248; RE 1.010.606). Em 12.06.2017 foi realizada audiência pública, no âmbito do RE 1.010.606, versando sobre o direito de uma família de não reviver o sofrimento em decorrência do falecimento de um parente, diante da exibição do assunto em programa de televisão em rede nacional, encontrando tal direito expressa previsão no GDPR-UE. Trata-se do direito que as pessoas têm de excluir informações que não são mais relevantes, como um desdobramento do direito à privacidade.
[17] “The Right to Be Forgotten: More than a Pandora’s Box?”, JIPITEC, 2011. Disponível em: <https://www.jipitec.eu/issues/>
[18] Juliana Abrusio destaca como casos que envolvem a imposição de tais procedimentos para a proteção de dados os casos de “autocomplete” dos sites de busca (BHG NJW 2013, 2348, Leitsätze 1-3 “Autocomplete”), bem como o caso julgado pela Corte Constitucional Alemã (BVerfGE 54, 148; 153; “Eppler”), e o caso “Google-Spain” (Decisão do Tribunal Europeu EuGH, 13.05.2014 – C-131/12) (“Proteção de Dados na Cultura do Algoritmo”).
[19] Ver Juliano Maranhão, Ricardo Campos, “Fake News e autoregulação regulada das redes sociais no Brasil: fundamentos constitucionais”, em: Ricardo Campos, Georges Abboud, Nelson Nery Jr (orgs.), Fake news e Regulação, 2ª. edição, São Paulo 2020, p. 19-40; p. 219 ss.; Karl-Heinz Ladeur: “Die Regulierung von Selbstregulierung und die Herausbildung einer ‘Logik der Netzwerke’. Rechtliche Steuerung und die beschleunigte Selbsttransformation der postmodernen Gesellschaft”, em: Regulierte Selbstregulierung als Steuerungskonzept des Gewährleistungsstaates. Ergebnisse des Symposiums aus Anlaß des 60. Geburtstages von Wolfgang Hoffmann-Riem, Die Verwaltung. Beihefte, Bd. 4, 2001, p. 60 ss.
[20] O estudo da Teoria dos Direitos Fundamentais vem sendo objeto de nossas reflexões, em pesquisas teóricas e atividade prática, com a elaboração de diversos pareceres técnicos acerca da teoria dos direitos fundamentais, bem como do princípio da proporcionalidade, envolvendo também atividade docente e estudos desde sede de mestrado, com destaque para minha tese de doutorado em 2017 na Universidade de Salento, Lecce-It, denominada “Princípio da proporcionalidade como resposta à crise autoimunitária do direito”, bem como em sede de pós-doutorado realizado na Faculdade de Direito da USP, Departamento de Filosofia e TGD, envolvendo a análise dos direitos fundamentais e humanos, dando origem ao livro “Teoria Fundamental do Direito – os direitos humanos e fundamentais na interface com a filosofia e a arte”, Florianópolis: Tirant lo Blanc/Empório do Direito, 2020 (no prelo), relacionando tais conceitos aos temas do estado de exceção e da crise autoimunitária do Direito; a questão da imunidade vem sendo trabalhada por diversos filósofos tais como Roberto Esposito na área da filosofia política e J. Derrida na área da filosofia e religião, bem como por Willis S. Guerra Filho na área do Direito, quando estaríamos diante de um estado de exceção, em ocorrendo a afronta continuada a direitos fundamentais.
[21] Danilo Doneda considera o princípio da finalidade, embora não esteja aqui se referindo ao art. 6, I da LGPD, ao que parece, relacionando-o ao princípio da razoabilidade, verbis: “Princípio da finalidade, pelo qual toda utilização dos dados pessoais deve obedecer à finalidade conhecida pelo interessado antes da coleta de seus dados. Este princípio possui grande relevância prática: com base nele, fundamenta-se a restrição da transferência de dados pessoais a terceiros, além do que pode-se, a partir dele, estruturar-se um critério para valorar a razoabilidade da utilização de determinados dados para uma certa finalidade (fora da qual haveria abusividade)” (“Da privacidade à proteção de dados pessoais: elementos da formação da Lei Geral de Proteção de Dados”, p 7321 e ss.). O princípio da finalidade encontra previsão expressa em importante julgado do STJ, referente a cadastros de crédito: “O Serviço de Proteção ao Crédito (SPC), instituído em diversas cidades pelas entidades de classe de comerciantes e lojistas, tem a finalidade de informar seus associados sobre a existência de débitos pendentes por comprador que pretenda obter novo financiamento. É evidente o benefício que. dele decorre em favor da agilidade e da segurança das operações comerciais, assim como não se pode negar ao vendedor o direito de informar-se sobre o crédito do seu cliente na praça, e de repartir com os demais os dados que sobre ele dispõe. Essa atividade, porém, em razão da sua própria importância social e dos graves efeitos dela decorrentes – pois até para inscrição em concurso público tem sido exigida certidão negativa no SPC – deve ser exercida dentro dos limites que, permitindo a realização da sua finalidade, não se transforme em causa e ocasião de dano social maior do que o bem visado” (STJ, Recurso Especial n° 22.337/RS, rel. Min. Ruy Rosado de Aguiar, DJ 20/03/1995, p. 6119).
[22] Segundo o princípio do livre acesso: o titular dos dados tem o direito de consultar, de forma simples e gratuita, todos os dados que a empresa detenha a seu respeito. Já o princípio da qualidade dos dados visa garantir aos titulares que as informações a seu respeito sejam verdadeiras e atualizadas. Relaciona-se à necessidade da exatidão, clareza e relevância dos dados, de acordo com a necessidade e com a finalidade de seu tratamento. O princípio da transparência determina que todas as informações prestadas por quem faz o tratamento de dados, devem ser claras, precisas e verdadeiras. Pelo princípio da segurança, aqueles que fazem o tratamento de dados possuem responsabilidade de buscar procedimentos, meios e tecnologias que garantam a proteção dos dados pessoais de acessos indevidos, e invasões por hackers. O princípio da prevenção visa à adoção de medidas prévias para se evitar danos em razão do tratamento de dados. Já o princípio da não discriminação visa evitar que os dados pessoais sejam usados para discriminar ou promover abusos contra os seus titulares, em especial quanto aos dados pessoais sensíveis. Por fim, responsabilização e prestação de contas: aqueles que lidam com o tratamento de dados devem fornecer provas das medidas adotadas, demonstrando a boa-fé e a diligência.