PRÁXIS Reflexão e Debate sobre Trabalho e Sindicalismo
Sindicalismo, Direitos Laborais...

O direito a uma explicação significativa na gestão algorítmica

Partilhar

O caso

O caso diz respeito a um cidadão austríaco a quem foi recusado um contrato de telemóvel com base numa pontuação de crédito atribuída pela Dun & Bradstreet Austria GmbH. A pontuação, que indicava insuficiente capacidade de crédito, foi atribuída por um sistema automatizado.

Em resposta, a requerente exerceu o seu direito ao abrigo do artigo 15.º, n.º 1, do RGPD, exigindo acesso aos seus dados pessoais e solicitando informações sobre os parâmetros utilizados na pontuação e a lógica subjacente à decisão automatizada. A Dun & Bradstreet Austria GmbH respondeu fornecendo apenas informações gerais, invocando a proteção de segredos comerciais como motivo para recusar a divulgação de detalhes sobre o algoritmo. Consequentemente, a titular dos dados apresentou uma queixa à Autoridade de Proteção de Dados (DPA) austríaca. Posteriormente, o Tribunal Administrativo de Viena remeteu o caso ao TJUE para uma decisão prejudicial, dada a necessidade de esclarecimento das principais questões jurídicas (Advogado do TJUE. Parecer Geral, parágrafo 24).

O acórdão

O acórdão do TJUE resolve as questões fundamentais, clarificando o direito de obter «informações significativas» previsto no artigo 15.º, n.º 1, alínea h); reafirmando a existência do direito de obter uma explicação, de expressar um ponto de vista e de contestar a decisão, que se baseiam no artigo 22.º, n.º 3; e especificando que este deve ser equilibrado com a proteção dos segredos comerciais, que podem justificar limitações ao direito de acesso dos titulares dos dados (parágrafo 33; Rossetti 2025).

O direito do titular dos dados de obter informações significativas sobre a lógica envolvida

Ao aprofundar o conceito de significativo com uma interpretação teleológica (Rossetti 2025), o TJUE decidiu que os responsáveis pelo tratamento de dados devem fornecer aos titulares dos dados informações de forma «concisa, transparente, inteligível e facilmente acessível, utilizando linguagem simples e clara» (parágrafo 49).

O TJUE esclareceu que, no direito a «informações significativas sobre a lógica envolvida» (ênfase acrescentada) na tomada de decisões automatizada, os responsáveis pelo tratamento devem fornecer todas as informações relevantes relativas a: (i) o procedimento utilizado; e

(ii) «os princípios relativos à utilização de dados pessoais com vista a obter, por meios automatizados, um resultado específico». A decisão estabelece uma ligação entre os dados introduzidos, a lógica envolvida e a forma como esta conduziu a esse resultado específico, ligando diretamente a pessoa em causa ao resultado da decisão automatizada (n.º 50).

O Tribunal reiterou que o direito previsto no artigo 15.º «deve permitir ao titular dos dados assegurar que os dados pessoais que lhe dizem respeito são corretos e que são tratados de forma lícita» (n.º 53).

Esse direito é essencial para o exercício efetivo de outros direitos processuais previstos no RGPD, incluindo «o direito de expressar o seu ponto de vista sobre essa decisão e de contestá-la» (parágrafos 54-55). A menos que os titulares dos dados possam conhecer as razões que levaram a uma decisão antes de expressarem o seu ponto de vista ou contestarem essa decisão, estes últimos direitos não satisfazem o seu objetivo de proteger o titular dos dados e seriam, portanto, ineficazes (ponto 56).

Um direito genuíno à explicação

O TJUE confirma que o RGPD concede «um direito genuíno a uma explicação» sobre como uma decisão automatizada foi tomada e o mecanismo por trás dela, quando a decisão é tomada exclusivamente por meios automatizados que produzem efeitos jurídicos ou efeitos significativos semelhantes (parágrafo 57).

Os responsáveis pelo tratamento de dados devem fornecer explicações «por meio de informações relevantes e de forma concisa, transparente, inteligível e facilmente acessível» (parágrafo 58). Espera-se que eles «encontrem maneiras simples de informar o titular dos dados sobre a lógica subjacente ou os critérios utilizados para chegar à decisão automatizada», sem serem obrigados a divulgar uma «explicação complexa dos algoritmos utilizados ou… o algoritmo completo» (parágrafo 60). Na prática, isto significa quais os dados pessoais que foram utilizados e como foram utilizados na tomada de decisão automatizada. É importante referir que o TJUE salientou que a complexidade do sistema não isenta os responsáveis pelo tratamento da obrigação de fornecer uma explicação adequada (parágrafo 61).

No contexto da criação de perfis, a explicação deve detalhar «em que medida uma variação nos dados pessoais tidos em conta teria conduzido a um resultado diferente» (ponto 62). Isto incorpora a estrutura de uma relação contrafactual entre entradas e saídas, embora o TJUE não prescreva um «teste contrafactual» no sentido técnico. No entanto, o titular dos dados deve ser capaz de compreender como o resultado poderia ter sido diferente com entradas de dados alternativas, e a explicação deve tornar compreensível a relação causal entre os dados e a decisão.

Por último, as informações fornecidas devem permitir que os titulares dos dados «possam verificar a exatidão dos dados pessoais» utilizados para a decisão automatizada (parágrafo 63).

Equilibrar o direito de acesso com a proteção de segredos comerciais, propriedade intelectual e direitos de autor

O TJUE afirmou que a proteção dos dados pessoais «deve ser equilibrada com outros direitos fundamentais, em conformidade com o princípio da proporcionalidade» (n.º 68). Esclarece que o direito dos titulares dos dados de acederem aos seus dados pessoais «não deve afetar negativamente» os direitos de terceiros, tais como os segredos comerciais nos termos da Diretiva 2016/943, a propriedade intelectual e os direitos de autor que protegem o software (n.º 69).2

Para resolver o conflito entre o direito à explicação e os direitos e liberdades de terceiros, o TJUE salientou a necessidade de «ser alcançado um equilíbrio» (n.º 70), cujo resultado «não deve ser a recusa de fornecer todas as informações ao titular dos dados» (n.º 72).

Esta tarefa de encontrar um equilíbrio é atribuída ao tribunal ou à autoridade nacional competente, caso a caso. Para o efeito, o juiz ou a autoridade de proteção de dados pode solicitar a divulgação de todas as informações necessárias para que o titular dos dados exerça efetivamente os direitos previstos no artigo 22.º, n.º 3, do RGPD (n.º 55). O TJUE recordou ainda que os Estados-Membros não podem impor regras que neguem ao titular dos dados o acesso à informação simplesmente porque essa informação «comprometeria um segredo comercial ou empresarial do responsável pelo tratamento ou de um terceiro» (ponto 75).

Operacionalização do acórdão do TJUE para a gestão algorítmica

Os sistemas ADM no local de trabalho apresentam riscos que podem afetar negativamente os direitos e as condições de trabalho dos trabalhadores. Estes sistemas são frequentemente introduzidos e implementados sem uma consulta significativa aos trabalhadores (EU- OSHA 2022; Agosti et al. 2023; Paliokaitė et al. 2025; Ponce Del Castillo e Taes 2025).

O acórdão do TJUE tem uma ressonância considerável no contexto do emprego. Quando o artigo 22.º é aplicável, os empregadores não podem invocar a complexidade tecnológica para evitar fornecer explicações significativas sobre a forma como as decisões foram tomadas. Este esclarecimento é fundamental para as práticas atuais de gestão algorítmica e deve servir de base para a futura legislação sobre sistemas automatizados de tomada de decisões e monitorização no trabalho.

O TJUE também esclareceu que as organizações não podem mais argumentar a proteção de segredos comerciais ou a confidencialidade dos negócios com o objetivo de reter informações unilateralmente. Em vez disso, quando segredos comerciais estão em jogo, as informações contestadas devem ser submetidas à autoridade competente ou ao tribunal responsável por conduzir a ponderação caso a caso entre os direitos dos trabalhadores e os interesses comerciais legítimos.

O raciocínio do TJUE está em perfeita sintonia com as obrigações de transparência, supervisão humana e revisão que os artigos 9.º a 11.º da Diretiva relativa ao trabalho em plataformas digitais (PWD) impõem às plataformas de trabalho digitais quando utilizam sistemas automatizados de monitorização e tomada de decisões. Ao afirmar que a explicação deve ser eficaz, o Tribunal reafirma a centralidade da informação na efetivação dos direitos previstos no artigo 47.º da Carta dos Direitos Fundamentais. Para que estes direitos sejam efetivos, a informação deve ser completa, clara, específica para uma situação particular e compreensível.

Uma contrapartida legislativa ao raciocínio do TJUE: a Diretiva relativa ao trabalho em plataformas

A Diretiva relativa ao trabalho em plataformas é um excelente exemplo de como deve ser o direito à explicação. As pessoas que realizam trabalho em plataformas devem ser informadas sobre a existência de tomadas de decisão automatizadas; quais os dados que estão a ser recolhidos e o que está a ser monitorizado; o objetivo e a extensão da monitorização; quais as decisões que estão a ser tomadas, com base em que parâmetros; e os fundamentos para tais decisões. Estas informações devem ser fornecidas em tempo útil e de forma facilmente compreensível (artigo 9.º da PWD). Como observou o advogado-geral no processo Dun & Bradstreet Austria, esta compreensão é fundamental para que os titulares dos dados sejam «informados do contexto em que uma decisão automatizada foi tomada, em particular da lógica envolvida nessa tomada de decisão» (n.º 63). É importante que estes sistemas e os seus efeitos sobre os trabalhadores sejam regularmente avaliados pelo responsável pelo tratamento e pelos representantes dos trabalhadores, mantendo-os sob controlo contínuo. Se forem discriminatórios ou injustos em qualquer aspeto, por exemplo, devem ser discutidos e alterados (artigo 10.º da PWD).

Em última análise, qualquer resultado das decisões tomadas ou apoiadas pelos sistemas ADM deve ser explicado ao trabalhador e essa informação deve ser fornecida de forma transparente e inteligível. Uma vez concluída esta parte, o trabalhador deve ter acesso a uma pessoa de contacto designada para discutir e esclarecer os factos, circunstâncias e motivos que envolveram a decisão. Nem qualquer pessoa é adequada para este fim; as plataformas digitais de trabalho devem garantir que essas pessoas de contacto tenham a competência, formação e autoridade necessárias para exercer essa função (artigo 11.º da PWD).

Poderia estabelecer-se mais paralelos entre o acórdão do TJUE e a PWD, mas isso estaria fora do âmbito deste resumo. A questão é que a transparência e a informação clara são cruciais para o exercício de quaisquer direitos previstos no RGPD, incluindo os previstos no artigo 22.º, n.º 3, do RGPD.

Além disso, embora o direito de acesso previsto no artigo 15.º do RGPD seja um direito individual poderoso, na prática pode produzir divulgações fragmentadas que um trabalhador individual pode ter dificuldade em interpretar. Atores coletivos, como sindicatos ou organizações especializadas, podem analisar as respostas aos pedidos de acesso dos titulares dos dados para construir uma imagem sistémica de como estes sistemas funcionam, revelando os padrões estruturais que estão por trás deles (Binns et al. 2025).

Reforçar a transparência e o direito à explicação no trabalho: uma proposta inovadora inspirada na Lei dos Serviços Digitais

Além disso, a lógica do acórdão do TJUE aplicada ao ambiente de trabalho é que poderia ser benéfico aplicar certas disposições inspiradas no modelo regulamentar da Lei dos Serviços Digitais (DSA).

Em primeiro lugar, as auditorias independentes dos algoritmos para recomendações de conteúdo online exigidas no artigo 37.º da DSA para plataformas online de grande dimensão (VLOPs) constituem um precedente útil para garantir um ambiente de trabalho seguro e protegido. Um mecanismo semelhante poderia ser adotado para a tomada de decisões automatizada no local de trabalho, dado que tais sistemas podem ter consequências legais ou significativas para os trabalhadores. Dois exemplos disso são o caso da Amazon France Logistique, que utilizou técnicas de vigilância e aplicou métricas de desempenho a milhares de trabalhadores permanentes e temporários (CNIL 2023); e o centro de serviços de retalho da H&M em Nuremberga, Alemanha, que registou extensivamente detalhes da vida privada dos trabalhadores para informar as decisões de RH (EDPB 2020). Essas auditorias independentes aumentariam a transparência para os trabalhadores e seus representantes, especialmente onde a representação dos trabalhadores não é forte ou está ausente, e ajudariam adicionalmente a reduzir as assimetrias de poder entre aqueles que implementam os sistemas e aqueles que são afetados por eles.

Em segundo lugar, o artigo 40.º da DSA obriga os VLOP e os motores de busca online de grande dimensão (VLOSE) a disponibilizar dados a investigadores credenciados com o objetivo de identificar, detetar e compreender os riscos sistémicos. Uma disposição semelhante poderia ser aplicada aos empregadores que utilizam sistemas ADM para recrutamento, monitorização, atribuição de tarefas, avaliação de desempenho, criação de perfis, promoção ou rescisão, sempre que esses sistemas afetem um número significativo de trabalhadores num Estado-Membro. A pedido de investigadores independentes credenciados, estes empregadores poderiam ser obrigados a fornecer acesso aos dados, algoritmos, conjuntos de formação, registos de resultados de decisões e sistemas de auditoria interna ou de registo necessários para identificar e avaliar os riscos sistémicos para os direitos fundamentais dos trabalhadores, incluindo a não discriminação, a saúde e a segurança e a proteção de dados. A implementação de tal mecanismo poderia ser supervisionada pelas autoridades competentes dos Estados-Membros.

A adoção de tal proposta basear-se-ia na lógica do acórdão do TJUE, sugerindo como o direito à transparência sistemática poderia ser operacionalizado no contexto dos sistemas ADM no local de trabalho.

Conclusões

A decisão Dun & Bradstreet Austria é altamente significativa. Apesar da cautela com que o Tribunal tratou a questão, o que talvez seja compreensível, a informação e a transparência são agora reconhecidas como ferramentas essenciais para o exercício dos direitos previstos no artigo 22.º, n.º 3, do RGPD — direitos que, nos termos do artigo 47.º da Carta, devem ser efetivos na prática.

Este princípio aplica-se a qualquer direito. Isso inclui certamente cada um dos direitos mencionados no artigo 22.º, n.º 3, do RGPD, que, de outra forma, poderiam ser considerados de natureza «processual». Em particular, inclui «pelo menos» o direito de contestar a decisão, expressar um ponto de vista e obter intervenção humana.

Em primeiro lugar, o direito de contestar a decisão levanta questões interessantes. Mais precisamente, «contestar» em relação a quê? Se um titular de dados pode «contestar» uma decisão automatizada, deve presumir-se que a decisão é, de alguma forma, «injustificada», «injustiça», «ilegal» ou, de outra forma, «viola» os direitos do titular dos dados. A interpretação do que é um direito neste contexto não deve limitar- se ao RGPD. Por exemplo, o regulamento não prevê expressamente o direito de não ser discriminado no local de trabalho. No entanto, seria completamente ilógico impedir um trabalhador de contestar uma decisão discriminatória (automatizada).

Em segundo lugar, o direito de expressar um ponto de vista é ineficaz se não forem fornecidos detalhes sobre os motivos da decisão, incluindo a violação ou negligência específica cometida pelo responsável pelo tratamento de dados ou pelo empregador.

Em terceiro lugar, o direito de obter intervenção humana só pode ser efetivamente exercido quando é possível obter informações adequadas. Quem é a pessoa de contacto? A pessoa de contacto está no local de trabalho? Como pode ser contactada? Que poderes de revisão tem? A carga de trabalho de revisão é aceitável e tem o tempo e as ferramentas necessárias para rever cada decisão automatizada? Estes elementos devem ser divulgados para verificar se estes direitos são reais e se podem ser exercidos de forma eficaz.

A análise da decisão do TJUE também deve ser colocada num contexto legislativo mais amplo. A legislação específica do setor, como a Diretiva sobre o Trabalho em Plataformas ou a Diretiva sobre Crédito ao Consumidor, fornece direitos mais detalhados e protetores à informação e explicação do que os artigos 22.º e 15.º do RGPD. Esses quadros também abrangem decisões parcialmente automatizadas e impõem obrigações proativas de transparência que vão além dos requisitos mínimos do RGPD. Por este motivo, a regulamentação relativa aos sistemas automatizados no trabalho ou à gestão algorítmica deve seguir estas normas setoriais mais avançadas. Quando combinadas com os princípios estabelecidos no RGPD, estas interpretações do TJUE oferecem um modelo para futuras iniciativas legislativas em todas as formas de emprego. Esta abordagem está alinhada com o dever mais amplo da UE de apresentar justificações, um princípio que se aplica para além da legislação em matéria de proteção de dados, como demonstrado em estudos recentes (Fink e Finck 2022).

O acórdão do TJUE aborda diretamente a assimetria estrutural de informação no tratamento de dados no emprego que ocorre quando são implementados sistemas ADM. Reforça a obrigação de garantir uma compreensão significativa da lógica envolvida na tomada de decisões automatizada, como condição para o exercício dos direitos dos trabalhadores em matéria de dados. A sua contribuição inovadora reside no facto de basear toda a decisão no princípio da eficácia consagrado no artigo 47.º da Carta. Consequentemente, este fundamento proporciona uma base doutrinária para alargar estas obrigações para além do domínio do RGPD e expressa uma lógica sistemática geral que deve ser aplicada no direito do trabalho e noutros domínios em que os sistemas automatizados ou a gestão algorítmica afetam os indivíduos.

Agradecimentos

O autor deseja agradecer a Stefano Rossetti, advogado especializado em proteção de dados e meios de comunicação, que, a título pessoal, prestou importantes contribuições sobre os assuntos aqui discutidos; e

agradece igualmente ao revisor, Mario Guglielmetti, pelos comentários perspicazes e construtivos que melhoraram significativamente o conteúdo e a clareza deste Resumo Técnico. Quaisquer erros ou omissões remanescentes são de responsabilidade do autor.

Referências

Agosti C. et al. (2023) Exercício dos direitos dos trabalhadores em sistemas de gestão algorítmica: lições aprendidas com o caso da plataforma de trabalho digital Glovo-Foodinho, Relatório 2023.11, ETUI.

Binns R. et al. (2025) Nem mesmo um bom trabalho, se o conseguir; um estudo longitudinal sobre a remuneração e os preços algorítmicos da Uber, FAccT ’25: Atas da Conferência ACM de 2025 sobre Equidade, Responsabilidade e Transparência, 1484–1497. https://doi.org/10.1145/3715275.3732099

CNIL (2023) Deliberação da formação restrita n.º SAN-2023-021 de 27 de dezembro de 2023 relativa à empresa AMAZON FRANCE LOGISTIQUE.

https://www.legifrance.gouv.fr/cnil/id/CNILTEXT000048989272

Tribunal de Justiça da União Europeia (2024) Parecer do Advogado-Geral Richard de la Tour, proferido em 12 de setembro, Processo C-203/22.

EDPB (2020) Comissário de Hamburgo multa a H&M em 35,3 milhões de euros por violações da proteção de dados no centro de serviços. https://www.edpb.europa.eu/news/national- news/2020/ hamburg-commissioner-fines-hm-353-million-euro-data-protection-violations_en

EU-OSHA (2022) Inteligência artificial para a gestão dos trabalhadores: implicações para a segurança e saúde no trabalho, Serviço das Publicações da União Europeia. https://doi.org/10.2802/76354

Fink M. e Finck M. (2022) Administração fundamentada: requisitos de explicação na legislação da UE e a automatização da administração pública, European Law Review, 47 (3), 376–392.

Paliokaitė A. et al. (2025) Estudo que explora o contexto, os desafios, as oportunidades e as tendências na gestão algorítmica no local de trabalho – Relatório final, Serviço das Publicações da União Europeia. https://doi.org/10.2767/5629841

Ponce Del Castillo A. e Taes S. (2025) Inteligência artificial e direito do trabalho, em Smuha N.A. (ed.) The Cambridge handbook of the law, ethics and policy of artificial intelligence, Cambridge University Press, 339–366. https://doi.org/10.1017/9781009367783.021

Rossetti S. (2025) O Tribunal de Justiça da União Europeia confirma a existência do direito à explicação da tomada de decisões automatizada, European Law Blog, abril. https://doi.org/10.21428/9885764c.f1cc5989

  1. Processo C-203/22 CK contra Dun & Bradstreet Austria GmbH EU:C:2025:140, disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:62022CJ0203.
  2. Processo C-487/21 Österreichische Datenschutzbehörde e CRIF GmbH EU:C:2023:369, º 43.

Cite esta publicação: Ponce Del Castillo A. (2025) O direito a uma explicação significativa na gestão algorítmica: Comentário sobre o acórdão do TJUE no processo Dun & Bradstreet Austria, Processo C-203/22, Resumo Técnico 2025.02, ETUI.

Este site utiliza cookies para melhorar sua experiência. Presumiremos que você concorda com isso, mas você pode cancelar se desejar. Aceitar Lear mais..

TRADUÇÃO