PortugueseEnglish
PortugueseEnglish

MÁQUINAS COMO EU? O USO DA INTELIGÊNCIA ARTIFICIAL E A RESPONSABILIDADE CIVIL DOS FORNECEDORES DE SOFTWARES

Compartilhe esse Artigo

Compartilhar no facebook
Compartilhar no linkedin
Compartilhar no twitter
Compartilhar no email

Post-Horizontal-220

Será que já podemos considerar a Inteligência Artificial (IA) como máquinas semelhantes aos seres humanos?

 

Primeiramente, é importante compreender que o termo “Inteligência Artificial” representa um conjunto de software, lógica, computação e disciplinas filosóficas, que objetivam fazer com que os sistemas realizem funções até então exclusivamente humanas, como desenvolver máquinas que percebam significados escritos e falados, aprendam com base em experiências anteriores, reconheçam expressões faciais, etc.

IA é um conceito atraente para muitas das partes envolvidas em negócios, ciências e governos. Em termos econômicos, existe muita vantagem em ter máquinas que realizam tarefas que costumavam precisar de seres humanos. Há quem acredite que uma solução de Inteligência Artificial eficiente pode “pensar” mais rápido e processar mais informações do que qualquer cérebro humano.

Considerando essa possibilidade de evolução tecnológica, podemos afirmar que sim, uma solução de IA poderá representar fiel ou ainda melhor um comportamento humano, pois ela envolve, além da lógica do cérebro humano, um conjunto de tecnologias, como redes neurais artificiais, algoritmos, sistemas de aprendizado, entre outros, que conseguem simular capacidades humanas ligadas à inteligência. Por exemplo: o raciocínio, a percepção de ambiente e a habilidade de análise para a tomada de decisão.

A Inteligência Artificial (IA) é considerada um campo da ciência, cujo propósito é estudar, desenvolver e empregar máquinas para realizarem atividades humanas de maneira autônoma. Ela também está ligada ao chamado Machine Learning (Aprendizagem de Máquina), procedimento que envolve um método de avaliação de dados, que automatiza o desenvolvimento de padrões analíticos e tem como base a concepção de que sistemas tecnológicos podem aprender usando dados para descobrir padrões, tomar decisões e se aperfeiçoar com pouca interferência humana.

Assim, podemos dizer que o uso de softwares com semelhança entre comportamento humano por meio de ferramentas tecnológicas tem aumentado e nos traz a reflexão sobre a autonomia e responsabilidade civil que uma máquina ou um software de IA pode apresentar.

 

  • IA E RESPONSABILIDADE CIVIL

Quando o assunto é responsabilidade civil por eventuais danos causados pelo uso ou fornecimento da Inteligência Artificial (IA), destacamos as resoluções do Parlamento Europeu, que já possui iniciativas para regulamentar o uso da IA na Europa.

 

  • PRIMEIROS AVANÇOS NO ASSUNTO

A primeira regulamentação surgiu em 2017, com recomendações da Comissão sobre Disposições de Direito Civil sobre Robótica (2015/2013), propondo a adoção de mecanismos de responsabilidade objetiva a serem combinados com a criação, mesmo que a longo prazo, de um estatuto jurídico para todos os tipos de robôs, além de sistemas de seguros obrigatórios.

Complementando essa recomendação inicial, em abril de 2021, foi publicado o aguardado Projeto de Regulamentação sobre a Inteligência Artificial, com a concepção de um quadro horizontal de abrangência a qualquer sistema de IA, que orienta o futuro, responsabilizando os operadores, desenvolvedores e fornecedores de softwares quanto aos riscos que suas máquinas possam causar.

Com base nesse regulamento, entende-se que a Responsabilidade Civil da IA em países da Europa baseia-se em 4 pilares:

  1. Injustiça do dano: a análise deverá ser baseada em questionamentos como: o dano realmente foi injusto ou tem base justificadora? Ele pode ser absorvido pela vítima ou esta deverá ser ressarcida?
  2. Solidariedade social: a empresa responsável pela IA possui seguro obrigatório? Ela consegue demonstrar que está preparada para amparar seus usuários?
  3. Teoria do risco do desenvolvimento: a empresa conseguirá comprovar que, no momento em que a IA foi disponibilizada, ela encontrava-se em seu estado perfeito de desenvolvimento, mas que ainda assim existe o risco de falhas?
  4. Gestão do risco: a empresa consegue comprovar a qualificação dos riscos da IA e apresentar potenciais danos e falhas antes da sua disponibilização no mercado?

Com base nessas premissas, estabelece-se a tendência de que as iniciativas de IA devem ser concebidas de forma que permitam a revisão e a supervisão humana a qualquer tempo. Com isso, mesmo que semelhante, uma máquina não poderá ter a efetiva responsabilidade e atuação como se fosse humana.

À medida que essa tecnologia avança e garante um grau de autonomia cada vez maior à tomada de decisões pelas máquinas, surgem diversos questionamentos, entre eles, os limites da responsabilidade civil por danos decorrentes de atos considerados independentes desses robôs.

Inicialmente, cabe ressaltar que não é possível regular essa nova realidade com base nas regras clássicas de Direito, concebidas antes do advento das tecnologias existentes hoje. A evolução tecnológica fez surgir novos paradigmas, inclusive do ponto de vista jurídico, exigindo que conceitos tradicionais e institutos clássicos sejam revistos ou ao menos analisados novamente sob novos ângulos e perspectivas.

 

  • REGULAMENTAÇÃO DE USO DA IA NA EUROPA

Fevereiro de 2017 – O Comitê de Assuntos Jurídicos do Parlamento Europeu editou resolução sobre as disposições de Direito Civil aplicáveis à robótica, contendo recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103) (INL) e propondo a adoção de mecanismos de responsabilidade objetiva, que deveriam ser combinados com a criação, no futuro, de um estatuto jurídico próprio, além de um sistema de seguros obrigatórios, tal como é feito em alguns casos de relação consumerista, impondo aos fabricantes ou aos exploradores de robôs a sua contratação com cobertura específica para potenciais danos que possam vir a ser causados por tais máquinas.

A criação da chamada personalidade jurídica robótica está entre as principais polêmicas trazidas pela resolução, que sofreu bastantes críticas tanto na Europa quanto no Brasil. Todavia, a construção de uma teoria da responsabilidade civil das máquinas gira em torno da possibilidade de os robôs virem ou não a ter personalidade jurídica,  tornando-se, deste modo, sujeitos de direitos e obrigações.

Outubro de 2020 – Nesse mesmo sentido, o Parlamento aprovou no mês de outubro de 2020 três relatórios para melhor regulamentar a IA no bloco da União Europeia a fim de estimular a inovação, os princípios éticos, bem como a confiança na tecnologia.

Em uma breve síntese, o primeiro relatório busca estabelecer um código ético para a IA. O segundo dispõe sobre a responsabilidade civil pelos danos causados por IA. Já o terceiro, coloca em evidência os direitos de propriedade intelectual.

Podemos destacar a busca de um quadro de responsabilidade civil voltado para o futuro, responsabilizando estritamente os operadores de IA de alto risco por quaisquer danos por eles causados, fornecendo uma base legal às empresas que pretendem investir em IA, protegendo os cidadãos e estimulando a inovação.

Segundo o relatório do bloco Europeu, a orientação é de que as normas de responsabilidade civil a serem apresentadas pelo legislador deverão ser aplicadas às atividades que utilizem IA.

De fato, não existe uma correlação necessária entre IA e o incremento dos riscos na sociedade tecnológica. Afinal, como registrou o Parlamento Europeu, ainda são raras as IAs que representam um alto risco a sociedade. Além disso, mesmo aquelas tidas como de alto risco, a exemplo dos carros autônomos, no futuro e com a modernização e o avanço tecnológico, podem acabar sendo consideradas como de risco baixo.

Inclusive, podemos destacar que a introdução desses veículos no mercado visa fundamentalmente a redução do risco na condução veicular, diminuindo o número de acidentes, já que seriam eliminadas as causas de acidentes relacionadas ao motorista, ou seja, as falhas humanas, tais como cansaço, distração e o consumo de álcool.

Isto posto, as iniciativas sinalizam para o fato de que as Inteligências Artificiais devem ser concebidas de forma a permitir a supervisão humana a qualquer momento.

O que se tem visto – e os relatórios europeus apontam nesse sentido – é uma imensa dificuldade em se responsabilizar as IA pelos danos causados pela violação de uma norma. Nesse sentido, poderíamos atribuir às IAs uma responsabilidade civil objetiva, não exigindo, portanto, a demonstração de culpa do agente.

Além disso, podemos esbarrar em um possível tratamento discriminatório injustificado pelas IAs. Veja-se, por exemplo, o caso da concessão de crédito.

Imaginemos que determinada pessoa, ao querer contratar um empréstimo, receba uma taxa de juros maior porque o algoritmo do banco percebeu, por meio de tratamento dos dados pessoais, que o nome da pessoa esteve inscrito no cadastro de inadimplentes, e portanto, segundo os dados viciados da instituição, ela tenderia a se tornar inadimplente.

O direito à explicação, em um primeiro momento, parece ser o único caminho para solução deste problema. No entanto, ainda não está claro como tal direito, que tende a ser retirado do §1º do artigo 20 da LGPD, poderá ser exercido. Além disso, encontramos outros problemas como nos casos em que houver proteção ao segredo de negócios. Será necessário aguardar a realização da verificação de impactos discriminatórios pela Autoridade Nacional de Proteção de Dados Pessoais?

Por isso, acreditamos que uma possível solução seria uma participação humana mais intensa, passível de ser invocada pelo titular dos dados pessoais em todos os momentos do processo. Assim, a intervenção humana passaria a ser uma exigência em alguma fase do processo de contestação da decisão automatizada. O fundamento para uma revisão por pessoa humana seria facilmente extraído do direito fundamental à igualdade. Porém, a dificuldade aqui é outra: como saber se a taxa de juros foi mais alta por causa do histórico da pessoa?

 

  • IA NO CENÁRIO BRASILEIRO

A tendência observada na Europa permite a primeira contextualização no cenário brasileiro, pois no Artigo 20 da Lei Geral de Proteção de Dados temos a previsão de obrigatoriedade de revisão por pessoa humana de decisões automatizadas.

Em relação às regulamentações, possuímos atualmente apenas uma estratégia Brasileira de Inteligência Artificial (EBIA), que servirá como guia para o Governo Federal no desenvolvimento das ações que estimulem a pesquisa, a inovação e o desenvolvimento de soluções em Inteligência Artificial (IA), bem como seu uso consciente e ético.

Já em relação à responsabilidade civil no Brasil pelos danos causados por Inteligência Artificial, as resoluções do Parlamento Europeu são leitura obrigatória, uma vez que, pelo menos até o presente momento, foram elas que pautaram o debate sobre este tema.

Desse modo, temos que a utilização de IA no Brasil, apesar de ser um grande avanço tecnológico, ainda precisa ser observada no campo da responsabilidade civil e aprimorada, uma vez que muitos conceitos existentes precisariam ser revistos e uma nova norma jurídica necessariamente criada.

Levando em consideração os estudos aqui apontados e as normas já existentes sobre responsabilidade civil, entendemos não ser necessária uma revisão completa das normas de responsabilidade civil já existentes, mas deve ser levado em consideração que a complexidade, opacidade, capacidade de modificação e autoaprendizado da IA, associadas à participação de inúmeros atores na sua programação, representam um grande desafio à efetividade das normas de responsabilidade civil.

Como podemos notar, a tônica da União Europeia parece estar pautada na indispensável presença humana no desenvolvimento da Inteligência Artificial, na gestão dos riscos e no aproveitamento das normas de responsabilidade civil já existentes, se for possível, associadas a mecanismos de securitização obrigatória cujas contribuições dependerão do risco criado por cada sujeito envolvido na introdução daquele sistema ou robô comandado por IA no mercado e caberá ao Brasil seguir os exemplos já acertados do continente Europeu.

admin

admin