A Justiça do Trabalho condenou o iFood a pagar uma indenização de R$ 60 mil a Tiago Alves dos Santos, um entregador de 41 anos, após uma falha no sistema de reconhecimento facial do aplicativo resultar no banimento da sua conta. O caso, que ocorreu em abril de 2024, foi classificado como “falha racista” pelo juiz responsável, e reacendeu o debate sobre racismo algorítmico no uso de tecnologias de identificação.
O que aconteceu com Tiago
No dia 30 de abril de 2024, Tiago saiu para mais um dia de trabalho como entregador parceiro do iFood. Como de costume, precisou realizar a verificação facial exigida pela plataforma antes ou depois da primeira corrida do dia. Tudo parecia normal até ele retirar um pedido que, segundo o aplicativo, havia sido duplicado. Após relatar o problema pelo chat, o pedido sumiu da tela e ele foi embora.
Cerca de 400 metros depois, o aplicativo exibiu uma mensagem informando que ele havia sido banido por descumprimento das normas. Mais tarde, recebeu uma justificativa alegando que outra pessoa havia tentado acessar sua conta diversas vezes, o que é proibido pelas regras da empresa.
Surpreso, Tiago pediu que o iFood mostrasse a imagem da suposta tentativa indevida. Para sua surpresa, a pessoa na foto era ele mesmo. Mesmo enviando diversas mensagens e tentando explicar que era o próprio na imagem, não obteve retorno eficaz.
O reconhecimento facial falhou com ele
Sem acesso à conta e impedido de trabalhar, Tiago buscou ajuda da advogada Luara Borges Dias, que o alertou sobre um problema grave e ainda pouco conhecido: o racismo algorítmico. Esse termo se refere à discriminação causada por sistemas de inteligência artificial ou algoritmos treinados com dados enviesados, que não reconhecem corretamente pessoas negras.
A Universidade Zumbi dos Palmares define o racismo algorítmico como uma forma de reprodução do preconceito racial através de tecnologias supostamente “neutras”. No caso de Tiago, a falha no reconhecimento facial foi interpretada como uma tentativa de fraude, o que o levou a ser punido injustamente.
A decisão da Justiça
O juiz Charbel Chater, da 22ª Vara do Trabalho de Brasília, reconheceu que houve um erro grave e que esse erro teve um viés racial. Além da humilhação, Tiago sofreu prejuízos financeiros e psicológicos, já que ficou cinco meses sem poder atuar como entregador — sua principal fonte de renda.
O iFood foi condenado a pagar R$ 60 mil por danos morais. Apesar da decisão, a empresa entrou com um recurso que ainda será julgado.
O que diz o iFood
Em nota, o iFood afirmou que “não tolera casos de discriminação em seu ecossistema” e que oferece suporte jurídico e psicológico gratuito para entregadores em situações de violência ou discriminação. Reforçou também que o reconhecimento facial é utilizado com base na Lei Geral de Proteção de Dados para prevenir fraudes e garantir a segurança dos usuários.
A empresa declarou ainda que não há qualquer análise de características raciais no sistema de reconhecimento facial e que irá recorrer da decisão para “esclarecer os fatos”.
O caso de Tiago chama atenção para um problema que vai muito além de um erro técnico. Mostra como tecnologias podem reforçar desigualdades, principalmente quando envolvem pessoas negras. Mesmo sendo ferramentas avançadas, os algoritmos dependem de dados que refletem a sociedade, e, por isso, podem reproduzir seus preconceitos.
Mais do que uma vitória individual, essa decisão pode abrir caminho para outras denúncias e ajustes urgentes nos sistemas utilizados por empresas de tecnologia. Reconhecer o racismo algorítmico é o primeiro passo para combatê-lo.