Neurodireitos e transparência diante das tecnologias: futuro ou realidade?


Em 13 de junho deste ano, foi apresentada a Proposta de Emenda à Constituição (PEC) nº 29, de 2023, que propõe a inclusão da seguinte previsão entre os direitos e garantias fundamentais do artigo 5º da Carta Maior: “o desenvolvimento científico e tecnológico assegurará a integridade mental e a transparência algorítmica, nos termos da lei”. O presente texto apresenta breves reflexões acerca do tema, bem como considera as relações da citada PEC com o movimento do constitucionalismo digital no Brasil.

O que é Constitucionalismo Digital?
A expressão tem como um de seus principais expositores Edoardo Celeste [1], que a reconhece como uma ideologia que visa a estabelecer e garantir a existência de um quadro-normativo para a proteção de direitos fundamentais e o equilíbrio de poderes no ciberespaço. Para Celeste, ainda mais importante que o constitucionalismo digital, é o processo de “constitucionalização do ambiente online”, a maneira pela qual os valores e princípios dessa ideologia são implementados por meio da elaboração de contramedidas normativas vis-à-vis à alteração do equilíbrio relativo do ecossistema constitucional produzido pelas tecnologias digitais.

Em âmbito nacional, Mendes e Fernandes [2] definem o Constitucionalismo Digital como “corrente teórica do Direito Constitucional contemporâneo que se organiza a partir de prescrições normativas comuns de reconhecimento, afirmação e proteção de direitos fundamentais no ciberespaço”. Entre as implicações dessa corrente, destacam a necessidade de ressignificação da teoria da eficácia horizontal dos direitos fundamentais. Segundo os autores, intermediários de serviços online, como redes sociais e ferramentas de buscas, por exemplo, têm adquirido verdadeiros poderes de adjudicação e conformação de direitos fundamentais, deslocando o enforcement da esfera pública para a esfera privada. Assim, enquanto na sua formulação tradicional a eficácia horizontal adota uma perspectiva individualista de equilíbrio entre direitos de atores privados; na esfera digital, os direitos constitucionais nas relações privadas têm de ser reformulados na sua dimensão coletivo-institucional.

Neurodireitos — futuro ou realidade?
A PEC nº 29, de 2023, propõe a previsão da integridade mental como direito fundamental. Contudo, as discussões sobre o tema vem recorrentemente sendo associadas à expressão neurodireitos (neurorights), comumente compreendida como a garantia de direitos humanos frente aos avanços da neurotecnologia. Esta se refere a procedimentos capazes de interferir de alguma forma no sistema neural das pessoas [3], o que, portanto, pode incluir medicamentos, exames cerebrais, conexão de crânios à internet e associação de inteligência artificial à mente, viabilizando potencialidades como neurojogos, aumento cognitivo e reescritura e apagamento de memórias. Diante disso, a Neurorights Foundation propõe cinco categorias de neurodireitos [4]: (1) privacidade mental; (2) identidade pessoal; (3) livre-arbítrio; (4) acesso equitativo às tecnologias de ampliação mental; e (5) proteção contra vieses.

Diante da amplitude desse panorama conceitual, a elevação da integridade mental como direito fundamental pode significar o resguardo dos cidadãos diante de qualquer efeito psíquico, psicológico, comportamental ou mental gerados pela evolução das tecnologias. Inclusive pelo fato de que as ferramentas digitais atualmente difundidas, a exemplo de redes sociais e jogos online, podem ser igualmente impactantes sobre as atividades cerebrais, gerando efeitos como dependência digital (também sobre crianças e adolescentes), dificuldades de concentração, impactos sobre identidade e até mesmo transtornos alimentares. Outro exemplo notório é o mapeamento de preferências e características de usuários para direcionar publicidade e, assim, moldar comportamentos, o que pode apresentar riscos à autodeterminação dos indivíduos [5].

Esse contexto esclarece que não apenas interfaces cérebro-computador ou implantes robóticos podem ser meios para possíveis violações a neurodireitos. É certo que as diversas tecnologias já atualmente enraizadas na sociedade também precisam ser avaliadas sob esse prisma. Como consequência, possivelmente também estarão sob a égide da PEC em análise, em caso de aprovação.

Transparência algorítmica, um pilar para o exercício de direitos fundamentais
Sistemas algorítmicos podem ser utilizados em diversas áreas, mas, atualmente, possuem destaque no campo das tecnologias digitais, inclusive internet e inteligência artificial. Segundo Diakopoulos [6], a transparência algorítmica “fornece o substrato informativo para a deliberação ética acerca de um comportamento do sistema por atores externos”. Diante disso e considerando o impacto das tecnologias digitais acima ressaltado, a transparência algorítmica surge como elemento essencial para garantir tanto a proteção da integridade mental quanto outros direitos fundamentais. Por exemplo, está relacionada com as noções de interpretabilidade (grau de compreensibilidade humana de uma determinada decisão ou modelo opaco) e de explicabilidade (razões do comportamento algorítmico que possam ser informadas a um indivíduo, ainda que leigo) [7].

Ou seja, trata-se de um elemento viabilizador de prerrogativas cruciais perante tecnologias digitais. E é exatamente por meio da busca desses direitos fundamentais que se permite a exigência de parâmetros éticos como a responsabilização, garantia de não discriminação e supervisão dos sistemas.

Ainda que os campos de aplicação da proteção da integridade mental e da transparência algorítmica sejam independentes (uma vez que a neurotecnologia não se limita ao uso de tecnologias digitais), é evidente a presença de interseções: a leitura conjunta dos direitos em foco destaca a relevância da transparência algorítmica como pilar para proteção da integridade mental dos indivíduos.

Contudo, no ordenamento jurídico brasileiro, conquanto não exista uma regulação específica sobre sistemas algorítmicos, é possível observar, no âmbito da Lei Geral de Proteção de Dados Pessoais (LGPD), regras sobre transparência algorítmica no contexto da tomada de decisões automatizadas (artigo 20, §1º). Há, porém, uma série de limitações ao exercício desse direito: (1) está restrito a sistemas de decisões tomadas unicamente com base em tratamento automatizado; (2) necessita de solicitação do titular, sendo, portanto, um mecanismo de transparência passiva do agente de tratamento; e (3) o grau de transparência deve observar os segredos comercial e industrial.

É possível que o Projeto de Lei nº 2.338, de 2023, traga um reforço: ele propõe regras para o uso da inteligência artificial no Brasil, e inclui a transparência algorítmica no rol de princípios, bem como a associa com diversos direitos como os de compreensão das decisões tomadas por sistemas de inteligência artificial (artigos 7º e 8º), os de contestar decisões e de solicitar intervenção humana (artigos 9º a 11) e o da não-discriminação e correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos (artigo 12).

Conclusões
A previsão de novos direitos frente ao avanço tecnológico fortalece a garantia de que valores sociais e democráticos possam ser protegidos dentro e fora do ambiente digital. Contudo, resgatando as reflexões de Celeste, a mera inserção desses novos direitos na Constituição não parece ser suficiente para assegurar sua efetiva proteção. É necessário estabelecer arquitetura normativa adequada, inclusive infraconstitucional, a fim de se garantir efetividade, mas também equilíbrio dessas prerrogativas diante de outros valores igualmente primordiais ao Estado Democrático de Direito, o que inclui a inovação e o desenvolvimento científico e tecnológico.

 


[1] CELESTE, Edoardo. Digital constitutionalism: a new systematic theorisation. International Review of Law, Computers & Technology, 2019, DOI: 10.1080/13600869.2019.1562604. Acesso em 05/07/2023.

[2] MENDES, Gilmar Ferreira. FERNANDES, Victor Oliveira. Constitucionalismo digital e jurisdição constitucional: uma agenda de pesquisa para o caso brasileiro. Revista Brasileira de Direito, v. 16, n. 1, 2020, DOI: https://doi.org/10.18256/2238-0604.2020.v16i1.4103. Acesso em: 05/07/2023.

[3] De acordo com a OCDE, a neurotecnologia é o conjunto de dispositivos e procedimentos usados para acessar, monitorar, investigar, avaliar, manipular e/ou emular a estrutura e função dos sistemas neurais de pessoas físicas. OCDE – Organização pela Cooperação Econômica e Desenvolvimento. Recommendation of the Council on Responsible Innovation in Neurotechnology, OECD/LEGAL/0457. 2019. Disponível em: https://www.oecd.org/health/emerging-tech/recommendation-on-responsible-innovation-in-neurotechnology.htm. Acesso em 28/06/2023.

[6] DIAKOPOULOS, Nicholas. Transparency. Em: DUBBER, Markus D.; PASQUALE, Frank; DAS, Sunit (org.). The Oxford Handbook of Ethics of AI. [s.l.]: Oxford University Press, 2020. p. 198. DOI: 10.1093/oxfordhb/9780190067397.013.11. Disponível em: https://doi.org/10.1093/oxfordhb/9780190067397.013.11. Acesso em 04/07/2023.

[7] IOANNIDIS, N. Algos in the Algorithm: right to explanation vs machine learning in context. 2019. 115, Master’s thesis for the Master in Intellectual Property Rights and ICT Law – KU Leuven, Bruxelas, 2019.


Leave a Reply

Your email address will not be published. Required fields are marked *