A (IM)PARCIALIDADE DOS ALGORITMOS EM DECISÕES AUTOMATIZADAS NOS PROCESSOS DE RECONHECIMENTO FACIAL DE PESSOAS
Palavras-chave:
Inteligência artificial. Racismo. Reconhecimento facial. TecnologiaResumo
O Brasil foi um dos últimos países a abolir a escravidão e isso não representa um acontecimento distante, mas sim um legado atual em uma sociedade que ainda carrega marcas e reproduz comportamentos de um período de opressão. Este fenômeno, muitas vezes sutil e subjetivo, tem encontrado novas expressões na era da tecnologia e da inteligência artificial (IA), evidenciando-se no que é conhecido como racismo estrutural algorítmico. É a discriminação permeando sistemas automatizados refletindo os preconceitos de seus criadores e acentuando a crescente elaboração de vieses discriminatórios. Dito isso, o artigo procurou compreender quais são os limites éticos e legais do uso da IA em contextos suscetíveis a discriminação racial, verificando em casos concretos a possível neutralidade da máquina. Para esse fim, optou-se por utilizar o método dedutivo como abordagem e o método descritivo como procedimento. Com a pesquisa, foi possível notar a necessidade de efetivação dos aparatos legais para o desenvolvimento de princípios éticos que mitiguem os efeitos do racismo algorítmico, além de atribuir a responsabilização das instituições governamentais mediante a tal prática. Logo, transparece que a implementação de sistemas algorítmicos e automatizados não mantém a suposta neutralidade implementada em sua atuação, refletindo os preconceitos de seus desenvolvedores.