Quem aperta o botão? Responsabilidade ética na era dos agentes autônomos

 


Por Luis Filipe Alves Rufino
Cidade Universitária — 27 de março de 2026

Minha história com tecnologia começou em 2013, quando entrei no programa "Reinventando o Ensino Médio". Na época, a proposta era ousada: um projeto do governo no qual tinha 3 opções e uma delas era a Tecnologia da Informação. Foi ali, aos dezesseis anos, que aprendi a diferença entre hardware e software, escrevi minhas primeiras linhas de código e descobri que aquilo poderia ser mais que um hobby — poderia ser uma profissão.

Treze anos depois, em 2026, vejo o quanto essa área evoloiu. O mundo que encontrei ao sair da escola é radicalmente diferente daquele que é hoje, o mercado de inteligência artificial movimenta trilhões de dólares globalmente. No Brasil, segundo o guia "Mercado de IA 2026", os investimentos em IA ultrapassaram US$ 2,4 bilhões, e 78% das empresas planejam ampliar seus aportes na área. A tecnologia deixou de ser um suporte para se tornar a espinha dorsal da economia.

Mas o que mais me chama a atenção nesse cenário não são os números impressionantes. É uma contradição que venho observando desde que entrei no mercado de trabalho: estamos criando sistemas cada vez mais autônomos, mas ao mesmo tempo construindo mecanismos cada vez mais sofisticados para diluir responsabilidades.

A matéria sobre o mercado de IA em 2026 destaca duas tendências que, juntas, formam um paradoxo perigoso. A primeira é a ascensão dos Agentes de IA — sistemas que não se limitam a responder comandos, mas percebem o ambiente, planejam e executam tarefas complexas de forma autônoma. A segunda é a prática do Human-in-the-Loop (humano no controle), apresentada como garantia de supervisão ética. Em tese, a IA sugere e o humano valida. Mas quem já trabalhou em uma empresa de tecnologia sabe que, na prática, esse "humano no controle" muitas vezes é apenas um profissional pressionado por metas, que valida decisões sem compreender plenamente a lógica do algoritmo que está supervisionando.

Lembro de uma conversa que tive com um colega de equipe há alguns anos. Ele era responsável por validar as recomendações de um sistema de crédito automatizado. "Eu só aperto o botão", me disse. "O sistema já faz o cálculo todo, eu só confirmo." Perguntei se ele entendia como aquele cálculo era feito. Ele balançou a cabeça negativamente. E depois acrescentou: "Mas se der problema, quem assina sou eu."

Foi ali que entendi o tamanho do problema que estávamos ajudando a construir. O Human-in-the-Loop, da forma como é implementado na maioria das empresas, não é um controle ético — é um escudo jurídico. O profissional que valida não tem tempo, nem autonomia, nem conhecimento suficiente para questionar o algoritmo. Ele está ali para que, no dia em que algo der errado, a empresa possa dizer: "houve um humano no processo". Mas que tipo de supervisão é essa, se o humano mal sabe o que está confirmando?

A sociologia nos ensina que a tecnologia não é neutra. Ela carrega os valores, os vieses e as intencionalidades de quem a constrói. Quando um Agente de IA nega crédito para uma pessoa negra ou moradora da periferia, ele não está sendo malicioso — está sendo eficiente dentro dos parâmetros que recebeu. O problema não está no código; está na escolha dos dados de treinamento, nos critérios de sucesso definidos, na ausência de questionamento sobre o que aquele sistema está reproduzindo.

O relatório da ONU mencionado na matéria estima que a IA impactará até 40% dos empregos globalmente. Mas o impacto mais profundo não será apenas nos postos de trabalho eliminados. Será na forma como distribuímos — ou diluímos — a responsabilidade por decisões que afetam a vida das pessoas. Se continuarmos tratando a ética como um detalhe secundário, estaremos formando profissionais tecnicamente brilhantes, mas eticamente frágeis.

Volto ao programa "Reinventando o Ensino Médio". Na época, aprendi que tecnologia era sobre fazer coisas funcionarem. Hoje, entendo que vai além. A verdadeira inovação não está em criar agentes cada vez mais autônomos. Está em construir sistemas onde a autonomia algorítmica seja acompanhada por responsabilidade humana clara, rastreável e inegociável. Onde o profissional que supervisiona tenha autonomia real para dizer "não" ao algoritmo sem medo de perder o emprego. Onde as empresas invistam tanto em governança ética quanto em eficiência operacional.

Em 2026, não podemos mais nos esconder atrás do código. Eu, que aprendi a programar dentro de um programa que ousou reinventar o ensino médio, sei que não basta fazer as coisas funcionarem. É preciso perguntar, o tempo todo: isso deveria funcionar assim? Quem é responsável pelo que esse sistema faz? E, principalmente, quem aperta o botão de confirmar — e o que essa pessoa realmente sabe sobre o que está autorizando?

Até respondermos essas perguntas com honestidade, os algoritmos continuarão tomando decisões, e nós continuaremos fingindo que a responsabilidade não é nossa.


Este artigo contou com o auxílio da ferramenta Deepseek para complementar algumas informações com base nos textos de apoio, com a revisão do autor.

Comentários

  1. Excelente artigo! Que bom ver essa preocupação com a ética em meio a tantas discussões puramente técnicas

    ResponderExcluir
  2. Concordo plenamente, as ferramentas devem ser usadas como ferramentas, não como muletas que fazem tudo por nós, porque o IA é exatamente isso, e quem a usa deve saber usá-la de maneira ética e honesta

    ResponderExcluir

Postar um comentário