Texto por Claudia Carvalho.
Um ponto de debate recorrente entre estudiosos é o uso de inteligência artificial nas empresas e suas consequências, diante da análise de grandes bancos de dados (big data), para fins de tomada de decisão automatizada em determinados assuntos.
Isso se deve ao fato de que não só bancos de dados de má qualidade, bem como a falta de auditagem dos seus algoritmos pode ser bastante prejudicial à atuação do agente inteligente, o que afetaria os resultados que se esperam do uso de inteligência artificial, causando, assim, problemas variados, como os vieses preconceituosos em suas conclusões.
Tal tema é bastante preocupante, tendo em vista que a pauta ESG (environmental, social and governance) é fundamental para o desenvolvimento de negócios, o que exige que as empresas realmente pratiquem, entre outras coisas, a diversidade em suas atividades, e não apenas a utilizem apenas como ferramenta de marketing.
Ocorre que, de nada adianta uma empresa afirmar-se como fomentadora de diversidade, quando o preconceito está entranhado e oculto em seus sistemas, ou seja, nas estruturas de suas ferramentas de inteligência artificial. Isto pode acontecer, infelizmente, em inúmeras situações da rotina de um negócio, seja na sua gestão, seja na própria prestação de serviços e etc.
Neste sentido, tornaram-se bastante comuns, por exemplo, problemas em contratações, nas análises de currículo automatizadas, que usam bancos de dados com viéses de misoginia, gerando dificuldade de contratação de mulheres para cargos de direção, ou de etarismo, ao desconsiderar pessoas de determinada idade, em cargos onde esta condição é irrelevante para o seu bom desempenho.
O viés preconceituoso pode se apresentar ainda em análises de crédito automatizadas, pela verificação de endereços, renda ou profissões, que podem trazer conclusões equivocadas sobre a suposta insolvência do solicitante e negar o acesso a financiamentos para população preta e de baixa renda.
Há que se destacar também a dificuldade de ferramentas de biometria facial identificar rostos de pessoas trans/travestis, o que vem causando sérios problemas, como o de um sistema criado, em outro país, para prevenir ataques contra mulheres em banheiros públicos, que impedia a entrada daquelas pessoas no local. Com isso, podem surgir situações complicadas, geradas por uso de inteligência artificial, e que poderiam ser consideradas como crime, como a homofobia (equiparada pelo Supremo Tribunal Federal ao crime de racismo), e que podem gerar processos contra empresas.
Neste cenário perigoso, cabe aos gestores de empresas estarem atentos aos serviços de inteligência artificial contratados e aos bancos de dados utilizados em seus sistemas, para que sejam evitados tais problemas.
Claudia Carvalho é advogada criminal formada pela Universidade do Estado do Rio de Janeiro (UERJ), especialista em crime cibernético corporativo, palestrante, autora do livro Direito Penal 4.0 (Editora Lumen Juris), professora, mentora em cybercrime na Associação Brasileira de Lawtechs e Legaltechs (AB2L), membro da Associação Nacional de Advogadas(os) de Direito Digital (ANADD) e da LATAM Women in Cybersecurity (WOMCY), além de fundadora e instrutora da Criminal Compliance Business School.