INTELIGÊNCIA ARTIFICIAL E MITIGAÇÃO DE RISCOS

18/10/2023. Tendência de regulamentação dos usos de novas tecnologias se consolida e merece atenção quanto a potenciais riscos.

Durante as últimas décadas, sistemas de inteligência artificial evoluíram exponencialmente em complexidade. De organização de dados à realização de análises preditivas, a tecnologia permite que empresas otimizem suas rotinas e até mesmo auxilia na tomada de decisão de gestores. Os benefícios são inegáveis – assim como os riscos envolvidos, como a discriminação algorítmica, que ocorre quando a IA reproduz preconceitos existentes em uma sociedade.

Diante disso, diversos países têm buscado regulamentar o desenvolvimento da inteligência artificial. No Brasil, está em tramitação, na Câmara dos Deputados, o PL 21/2020, que busca estabelecer princípios para o desenvolvimento e utilização da IA por agentes públicos e privados. Dentre eles, destaca-se o da não discriminação (busca ativa para que a tecnologia não reproduza vieses e preconceitos); da transparência (o direito do público saber se e quando interage com um sistema de IA); da inovação responsável (adoção de mecanismos de accountability, e organização de documentação capaz de comprovar o cumprimento da legislação); e da não violação de direitos autorais.

Segundo Gabriel Gonçalves, da equipe Kolb Quintana, o PL indica uma tendência regulamentadora dos usos das novas tecnologias com enfoque na prevenção e mitigação de riscos. Dessa forma, é importante que empresas e pessoas físicas que desenvolvam sistemas de IA – ou mesmo apenas os utilizem no dia a dia – busquem adotar medidas para cumprir os princípios e marcos legais que começam a se consolidar em relação a essa atividade, evitando responsabilização civil futura, que pode trazer prejuízos não apenas econômicos, mas também de imagem perante o mercado em geral.