A não neutralidade tecnológica é uma questão filosófica, sociológica e, mais recentemente, também tecnológica. que levanta hipóteses sobre a influência da tecnologia na cultura e na sociedade, a partir de criações concebidas por pequenos grupos que insistem em colocar a tecnologia como neutra o suficiente para tomar decisões pelos humanos. Essa visão é baseada nas colonizações ocorridas nos séculos passados, colocando certos países como hegemônicos, e isso reflete na tecnologia, um dos exemplos é o que se tem chamado de viés algorítmico, que em sua definição direta é IA aquela IA que toma decisões que são injustos com determinados grupos de pessoas.
As tecnologias digitais são feitas de diferentes modelos matemáticos que refletem a realidade a partir de dados estatísticos e levantamentos numéricos que são filtrados por um grupo específico de pessoas. Ainda há muito o que desvendar dos estudos de enviesamento das tecnologias, mas, sempre precisamos reforçar a participação humana durante todo o processo, viabilizando a ideia de que os vieses são reproduções humanas e não tecnológicas.
A busca por diálogo entre as diversas ciências produziu debates importantes para o Brasil nos últimos anos, permitindo uma análise mais completa dos problemas. Considerando os diferentes contextos, comportamentos e questões sociais tem sido possível pensar uma engenharia reversa de ideias. Não estamos nos restringindo a demonstrar as formas de violação de direitos da população negra, indigena no ambiente digital, estamos pensando isso a nível de políticas públicas. Não queremos somente reforçar a não-neutralidade das tecnologias e a seletividade das ciências, queremos provocar as mudanças.
Ao considerar os impactos, também é importante lembrar que diferentes pessoas e diferentes grupos serão afetados de forma diferente pelas mesmas escolhas. O impacto de gênero das armas é bem conhecido, e as consequências de usos de diferentes tecnologias também serão de gênero, raça por exemplo. Gênero, juventude, raça e inclusão são chamados de questões “transversais”, pois sempre estarão presentes em todas as outras questões. Ao mesmo tempo, são interseccionais e, como todos os aspectos da identidade, também impactam uns aos outros.
A IA, que por sua natureza é muito mais difícil de monitorar e controlar, e também tem usos muito mais legítimos, apresenta um desafio ainda maior desse tipo. Estão dividindo entre:
- Uso não intencional. Isso está relacionado ao desafio de uso geral e descreve a dificuldade de gerenciar os riscos apresentados pela IA quando ela é usada de maneira diferente da pretendida. Isso pode envolver uso indevido consciente ou simplesmente consequências que surgem do uso de maneira imprevista.
- Uso indevido. Isso está relacionado, mas distinto do uso não intencional. O uso indevido pode ser entendido como uma ferramenta de IA que está sendo usada amplamente da maneira pretendida, mas para fins prejudiciais, como no exemplo anterior de uma ferramenta de navegação autônoma civil usada por um grupo terrorista.
Desses pontos queria acrescentar algumas visões que precisamos levar em consideração para esse debate
- Distribuição geográfica. A natureza distribuída da indústria apresenta um desafio por si só, dada a forma distribuída em que os componentes de um sistema de IA podem operar. Isso também pode incluir as pessoas jurídicas envolvidas. Por exemplo, uma empresa controladora, desenvolvedores individuais, hardware e conjuntos de dados podem operar em diferentes Estados, cruzando várias jurisdições legais.
- Difusão. Isto pode referir-se tanto à difusão de competências relacionadas com a IA, visto que nenhum Estado ou entidade detém o monopólio dessas competências, como à difusão das diferentes responsabilidades que a IA pode promover, e à difusão dos ativos, indivíduos e entidades envolvidos no desenvolvimento e uso de um sistema de IA.
- Intangibilidade. A tecnologia em si é intangível e as transferências intangíveis de tecnologia são difíceis de detectar e, portanto, também difíceis de monitorar o cumprimento de quaisquer acordos. Até porque nao temos uma cultura de audtiroias nestes monitoramentos.
Acredito que teremos cenários com debates mais intensos em meio ao rápido desenvolvimentos de tecnologias IA, será necessário uma escuta mais ativa do que tomadas de decisões equivocadas baseadas em documentações tecnológicas.
• Ana Carolina da Hora, mais conhecida como Nina da Hora, é estudante de Computação da PUC-RJ, é programadora, pesquisadora, voluntária, dá aulas e faz palestras.