O Direito deve regular a Inteligência Artificial? - Turivius
loader-logo

Ana Catarina Alencar

Ana Catarina Alencar
Especialista em Direito Digital e Compliance. Mestre em Direito pela Universidade Federal de Santa Catarina (UFSC). Professora no Curso de Graduação em Direito da Unisociesc/Joinville. 

O Direito deve regular a Inteligência Artificial?

Turivius: sua nova forma de fazer pesquisa jurisprudencial tributária

Por que figuras importantes como Stephen Hawking, Bill Gates e Elon Musk são defensores vivazes da regulação da Inteligência Artificial no mundo? Advogados deveriam se preocupar com a falta de regulação dos serviços jurídicos que utilizam IA? Qual o papel do governo nesse cenário? Esse artigo visa discutir esses pontos trazendo um breve panorama normativo sobre as novidades da regulação no Brasil.

Razões para se preocupar com a regulação da Inteligência Artificial

Para a maioria dos estudiosos da Inteligência Artificial, todos os profissionais deveriam estar preocupados com a sua expansão e falta de regulação no cenário interno e transnacional. O chamado dos especialistas é no sentido de que a regulação dos serviços que utilizam IA poderá ocorrer quando for “tarde demais”.

É fato que as aplicações de Inteligência Artificial trouxeram um ganho de produtividade expressivo a diversos mercados nas últimas décadas, promovendo qualidade de vida para inúmeras pessoas. Entretanto, defensores da regulação afirmam a necessidade de que a IA e a humanidade coexistam em um futuro harmonioso, pacífico e eficiente.

Esse objetivo não poderá ser atingido caso a IA seja utilizada para estigmatizar grupos sociais, monitorar a atividade dos indivíduos e violar sua privacidade. Logo, existe um consenso geral de que o mercado seja submetido a regulações de cunho jurídico e ético, mitigando riscos de violações de direitos.

A Inteligência Artificial poderia atuar com “reconhecimento de efeito”, prevendo todas as emoções de um candidato em uma entrevista de emprego? E o que dizer do reconhecimento facial sem consentimento prévio nas ruas? Máquinas poderiam ser utilizadas em combate distinguindo por si mesmas quem são os civis que devem ser protegidos e quem são “inimigos” do Estado? Até o presente momento, essas e outras questões não contam com regulação específica na legislação brasileira e internacional.

Isso confere um amplo poder decisório para a iniciativa privada em como oferecer esses serviços e dispor de uma gama de direitos dos consumidores. Os riscos éticos e legais enfrentados pelas empresas atuantes no ramo são altíssimos. Como não há regulação, o risco de passivo judicial futuro é relevante. Assim,  uma sólida governança de IA, o compliance digital e o cumprimento da legislação existente são elementos imprescindíveis para qualquer lawtech.

Iniciativas de regulação ao redor mundo

No âmbito do G20[1] algumas estratégias de governança global têm sido amplamente debatidas. O desenvolvimento de um “Conselho de governança global” é uma delas, não tendo avançado significativamente desde 2017.

Já a Organização para a Cooperação e Desenvolvimento Econômico (OCDE)[2] elaborou “princípios de Inteligência Artificial” no ano de 2019. Além dela, o Fórum Econômico Mundial também já conta com “Diretrizes de Procurement Governamental de Inteligência Artificial”.[3]

Atualmente, pode-se dizer que a União Europeia está na vanguarda da governança digital no mundo. A UE é orientada por uma “Estratégia Europeia de Inteligência Artificial”[4] publicada em 2019 pela Comissão Europeia, contendo uma  série de diretrizes éticas para o que foi intitulado como sendo “Inteligência Artificial Confiável”.

Além disso, em fevereiro de 2020, a Comissão Europeia publicou seu “Livro Branco”,[5] visando a construção de um “ecossistema de excelência e de confiança” como base para regulações em cooperação entre autoridades nacionais e iniciativa privada.  Adicionalmente, os Estados integrantes da UE contam com a “General Data Protection Regulation” (GDPR) que prevê uma série de salvaguardas jurídicas na proteção de direitos à privacidade.

Nos EUA, foi publicado o “Plano Estratégico Nacional de Pesquisa e Desenvolvimento para Inteligência Artificial”[6] no ano de 2018. Já em 2019, foi instituída uma Comissão de Segurança Nacional sobre a temática. Pode-se dizer que o plano visa aprofundar questões relativas à defesa nacional e não se propõe, efetivamente, a regular a iniciativa privada.

Neste sentido,  o projeto de lei “Artificial Intelligence Initiative Act”,[7] ainda em aprovação, pretende acelerar a pesquisa e desenvolvimento da Inteligência Artificial com apoio do poder executivo federal. Em 2019, a Casa Branca divulgou um relatório de “Orientação para Regulamentação de Aplicações de Inteligência Artificial”[8], incluindo princípios que devem ser seguidos pelas agências governamentais dos EUA ao regulamentarem a IA.

Outros países, como Canadá e França, contam com documentos que estabelecem padrões éticos mínimos de regulação para uma “Inteligência Artificial com significado”. O objetivo é que a IA seja iluminada fundamentalmente pelos valores dos direitos humanos.

No mundo oriental, as estratégias governamentais de países como a China têm sido recebidas com certo ceticismo. As críticas são voltadas a real forma pela qual a IA é utilizada pelos governos. Críticos alegam que essas iniciativas de regulação favorecem  a ampliação da vigilância governamental sobre os usuários, bem como o esvaziamento de conceitos importantes à sociedade 4.0., como o de “democracia digital”.

Iniciativas de Regulação no Brasil

               A primeira estratégia de regulação vista no Brasil foi o Projeto de Lei nº 5691/2019[9] de autoria do Senador Styvenson Valentim (PODEMOS/RN). O PL defende a instituição de uma “Política Nacional de Inteligência Artificial” aplicável tanto a iniciativa pública, quanto privada. Adicionalmente, há outro projeto em trâmite no Congresso Nacional (nº 5051/2019[10]), de autoria do mesmo Senador, estabelecendo princípios éticos para o uso de aplicações de IA no Brasil. 

               Em 2020, foi proposto o Projeto de Lei nº 21/20[11] pelo Senador Eduardo Bismarck (PDT/CE). O texto visa proteger direitos de usuários consumidores impondo uma série de obrigações à administração pública e à iniciativa privada. Assim como as outras proposições já citadas, o projeto de Bismark também se encontra em tramitação no Congresso Nacional. 

Entretanto, a redação do PL 21/20 é mais detalhada saindo da lógica de uma mera “declaração de princípios”. O projeto concebe a figura do “agente de Inteligência Artificial” que pode ser uma empresa ou organização que desenvolva e implante um sistema de IA. Os “agentes de IA” terão responsabilidade jurídica por eventuais decisões tomadas dentro do sistema desenvolvido, seja ele público ou privado. Além disso, deverá atuar para garantir que os dados pessoais e sensíveis de seus usuários contem com a proteção já prevista na Lei Geral de Proteção de Dados (LGPD).

Outra interessante criação do projeto consiste na obrigatoriedade de que as entidades públicas e privadas que utilizem IA e, que coletem dados pessoais, elaborem um “Relatório de Impacto de Inteligência Artificial”. Neste documento deverá constar a descrição transparente da tecnologia empregada e as medidas de contenção de riscos. Assim como ocorre com o relatório de impacto exigido atualmente pela LGPD, o relatório de IA poderá ser solicitado pelo poder público que fará recomendações para o fortalecimento de sistemas e proteção dos direitos dos usuários.

Deste modo, as empresas fornecedoras de serviços jurídicos digitais deverão estar atentas a potencial aprovação dessas legislações no futuro. A governança de IA e o compliance digital serão pontos fundamentais para o mercado das lawtechs no Brasil.

 

Panorama jurídico existente no Brasil

               Em que pese ainda não tenhamos um marco regulatório direcionado ao mercado da Inteligência Artificial no Brasil, contamos com uma extensa gama de legislação que atribui algumas responsabilidades às empresas já atuantes no setor.

               A Lei Geral de Proteção de Dados (LGPD)[12] já em vigor, é um conjunto de normas que visa implementar medidas de compliance digital nas empresas fornecedoras de serviços jurídicos digitais. A LGPD é uma norma jurídica especializada no tratamento e coleta de dados, visando prevenir o vazamento de informações relativas a consumidores, bem como quaisquer potenciais violações do direito à privacidade ou à intimidade. De qualquer modo, existem uma série de outras normas que podem ser aplicadas aos serviços que desenvolvam e utilizem IA no Brasil.

               Os sistemas de IA podem atuar adotando “vieses”, fazendo “predições” e, inclusive, tomando “decisões” que podem causar dano ao consumidor. Logo, qualquer prejuízo efetivamente causado por algum aspecto da IA poderá implicar no dever de indenizar por parte das empresas desenvolvedoras. Esse é o entendimento corroborado pela da teoria da responsabilidade civil inscrita nos artigos 186 e 927 do Código Civil brasileiro. Aplica-se também o Código de Defesa do Consumidor (CDC) neste caso, uma vez que a tecnologia de IA oferecida no mercado é considerada um serviço, nos termos do artigo 3º, § 2 do CDC.

A responsabilização pelo Direito do Consumidor é objetiva, implicando no ônus da empresa em demonstrar que teria tomado todas as cautelas para evitar o dano causado ou que trata-se de culpa exclusiva do consumidor. Além disso, é possível antever que em eventual demanda judicial envolvendo danos causados por um sistema, a norma mais favorável ao consumidor – considerado vulnerável – decidiria o litígio no Poder Judiciário.

               Indo além das normas de responsabilização geral e da LGPD, é possível abarcar o próprio Marco Civil da Internet (Lei 12.965/14) dentro do arcabouço jurídico já existente no Brasil. Em todas essas normas jurídicas fica destacada a importância do dever de informação que o desenvolvedor possui perante a sociedade, devendo explicar de forma clara e concisa a operação de seus algoritmos, conhecida como “direito a explicação”. Tal direito é um elemento importantíssimo dentro do quadro geral de governança de IA e do compliance digital, assim como a observância das normas de responsabilização geral. 

 

Regulação vs. Inovação

               Em 2018, a Ordem dos Advogados do Brasil (OAB) instituiu por meio da Portaria 088/2018[13], a “Coordenação de Inteligência Artificial”. Tal Coordenação tem como objetivo regulamentar aplicações jurídicas oferecidas no mercado de IA. Assim, o órgão instituído tem como foco avaliar os impactos da Inteligência Artificial nos serviços jurídicos, fiscalizando a atividade irregular na profissão e criando formas de autorregulação. Uma das bandeiras da Coordenação é que a utilização dos sistemas de IA na advocacia deve atender os parâmetros do Código de Ética da OAB e do Estatuto da Advocacia (Lei nº 8.906 /1994).

Além disso, em agosto de 2020, o Conselho Nacional de Justiça (CNJ) editou a Resolução 332 que preceitua pela ética, transparência e governança na “produção e uso” da Inteligência Artificial no Poder Judiciário brasileiro. Conforme dispõe a resolução, o uso de IA no Poder Judiciário estará sujeito à prestação de contas, apuração e punição de condutas coibidas.

               Os princípios regulatórios já existentes e as futuras regulações específicas podem causar impacto significativo no mercado das lawtechs no Brasil.  Assim, para além de uma boa governança de IA e do compliance digital, as empresas de serviços jurídicos digitais precisam estar atentas às disputas em torno da própria liberdade de atuação profissional e de inovação no mercado. Considerando a falta de normas específicas sobre o setor das lawtechs, o mais importante neste momento será tratar direitos e deveres dos consumidores com segurança, transparência e ética.

               Essa á a tendência global sobre o assunto, existindo um certo consenso internacional em torno de um conjunto de princípios fundamentais para qualquer empresa fornecedora de serviços de IA.

Esses princípios podem ser resumidos da seguinte forma: “justiça, segurança, ética, futuro do trabalho, democracia, proteção do consumidor e não discriminação”[15]. Por meio desses princípios,

aplicações de IA não podem ser utilizadas como “armas”. Deve haver compreensão pública de como seus algoritmos operam e como eventuais decisões são tomadas pelo sistema. Além disso, desenvolvedores devem ser responsabilizados caso algo efetivamente “dê errado” e acarrete prejuízo.  

               Não se trata de um debate fácil para profissionais do Direito e empresários da área de inovação. De qualquer maneira, fica demonstrada a sua urgência. Um dos pontos fundamentais dessa discussão passa pelo binômio “regulação vs. inovação” ou, em outras palavras, “intervenção estatal vs. liberdade de empreender” no mercado de IA.

               Essa pode ser uma falsa dicotomia na medida em que o crescimento do mercado dependerá de algum nível de regulação para que tenha confiabilidade perante consumidores e investidores. A estratégia de atuação ética e transparente já é a aposta de grandes empresas como a Apple, Microsoft e o próprio Google a fim de fidelizar o consumidor. As lideranças dessas gigantes de tecnologia têm defendido a regulamentação interna e transnacional.

               Isso porque, além da confiança do consumidor, é consenso que os próprios limites e impactos da IA ainda não são completamente conhecidos por seus desenvolvedores. Neste sentido, as empresas e indivíduos têm papel fundamental nos cenários de regulação. São atores que devem participar ativamente, alertando riscos ao Estado e criando modelos que dialoguem com valores os universais dos direitos humanos sem retroceder nas oportunidades de inovação. 

 

 

Notas: 

[1] Disponível em: https://www.mofa.go.jp/mofaj/files/000486596.pdf. Acesso em 03.09.2020.

[2] Disponível em: https://www.oecd.org/going-digital/ai/principles/. Acesso em 03.09.2020.

[3] Disponível em: http://www3.weforum.org/docs/WEF_Guidelines_for_AI_Procurement.pdf. Acesso em 03.09.2020.

[4] Disponível em: https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe. Acesso em 03.09.2020.

[5] Disponível em: https://www.worldcat.org/title/white-paper-on-artificial-intelligence-a-european-approach-to-excellence-and-trust/oclc/1141850140. Acesso em 03.09.2020.

[6] Disponível em: https://www.nitrd.gov/news/national_ai_rd_strategic_plan.aspx. Acesso em 03.09.2020.

[7] Disponível em: https://www.congress.gov/bill/116th-congress/senate-bill/1558/text. Acesso em: 03.09.2020.

[8] Disponível em: https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf. Acesso em 03.09.2020.

[9] Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/139586. Acesso em: 03.09.2020. 

[10] Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790. Acesso em: 03.09.2020.

[11] Disponível em: https://www.camara.leg.br/propostas-legislativas/2236340. Acesso em 03.09.2020.

[12] Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm. Acesso em: 03.09.2020.

[13] Disponível em: http://www.iiede.com.br/wp-content/uploads/2018/06/Portaria-088-cria-e-designa-membro_-coordenacao_-intelige%CC%82ncia-artificial.pdf. Acesso em 03.09.2020.

[14] Disponível em: https://www.conjur.com.br/dl/nota-iab-oab-robo.pdf. Acesso em 03.09.2020.

[15] Disponível em: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence. Acesso em: 03.09.2020.

Inscreva-se para receber notícias

Não perca nenhuma notícia publicada no blog da Turivius!

Turivius: sua nova forma de fazer pesquisa jurisprudencial tributária

Share on linkedin
Share on whatsapp
Share on facebook
Share on twitter
Share on email

Publicações Relacionadas