Em 2026 nosso mercado de IA já está bem avançado. Segundo o artigo da Alura “Mercado de IA 2026”, os gastos com IA no Brasil devem passar de US$ 2,4 bilhões e 78% das empresas pretendem aumentar o uso da tecnologia. O país também está investindo bilhões para reduzir a dependência de outras nações. Mas junto com todo esse avanço vem uma questão importante: a ética.
O texto diz que a ética na IA não é mais só uma conversa filosófica, virou exigência de negócios. O problema é que a maioria dos modelos de IA que usamos aqui no Brasil vem de empresas dos Estados Unidos e da China. Esses modelos são treinados com dados de outros países, com valores e realidades diferentes da nossa.
Do ponto de vista sociológico, a tecnologia não é neutra. Ela reflete quem criou e os dados que usaram para treinar. Se os dados têm preconceitos de raça, classe ou gênero, a IA acaba reproduzindo esses mesmos problemas, só que de forma mais rápida e em grande escala. Por exemplo, um sistema de crédito ou de seleção de vagas pode acabar prejudicando mais as pessoas negras, periféricas ou do interior, mesmo sem querer.
Temos o dever de se questionar de onde os dados vem, e se representam bem nossa realidade. Só aperta o botão e dizer que tem humano no controle não resolve tudo. O profissional que escreve o código tem que ter ciência do que ele faz tem um grande poder para afetar o mundo.
O artigo da Alura fala que as empresas estão preocupadas em combater o viés algorítmico. Isso é bom, mas acho que não basta só corrigir depois. O ideal seria desde de o inicio usar mais dados brasileiros e ter equipes mais capacitadas para desenvolver essa tecnologia.
Não podemos aceitar que a IA traga junto com ela os preconceitos de outros países. No Brasil, onde as desigualdades já são muito grandes, a tecnologia deveria ajudar a reduzir esses problemas, e não piorá-los. Se continuarmos apenas copiando modelos prontos, sem questionar sua origem e seus vieses, vamos acabar automatizando a exclusão social.
É claro que a IA traz muitas oportunidades, como o texto mostra. Mas o sucesso dela não pode ser medido só pelo dinheiro que gera. Tem que levar em conta também o impacto social.
Por isso, acredito que as universidades deveriam dar mais atenção não só ao lado técnico, mas também à ética e ao impacto social da IA. Assim formamos profissionais que pensam antes de criar.
No final das contas, a IA não é neutra. Ela carrega os valores de quem a constrói. Cabe a nós, fazer com que ela seja mais justa para a realidade brasileira.
Autor: Daniel Tinoco
2026
Comentários
Postar um comentário