Workslop: IA está gerando retrabalho e risco reputacional nas empresas, aponta estudo

O fenômeno do workslop mostra por que senso crítico e alfabetização em IA viraram competências essenciais

Apesar da promessa de ganho de eficiência, o uso indiscriminado da inteligência artificial no ambiente corporativo tem dado origem a um efeito colateral cada vez mais visível: o workslop. O termo define conteúdos produzidos com apoio de IA que apresentam aparência profissional, bem estruturada e polida, mas falham em entregar profundidade, contexto ou valor real para a tomada de decisão.

Segundo o relatório “Workslop is the new busywork. And it’s costing millions”, realizada pelo Stanford Social Media Lab em parceria com a BetterUp, entre 40% e 41% dos profissionais afirmam ter recebido algum tipo de workslop ao longo de um único mês. O impacto vai além do incômodo operacional. Cada ocorrência gera, em média, quase duas horas de retrabalho para quem recebe o conteúdo.

Quando esse tempo é convertido em custos, o resultado é expressivo: estima-se uma perda de cerca de US$186 por mês por funcionário. Há também um impacto reputacional. Profissionais que recorrem com frequência a esse tipo de entrega passam a ser percebidos como menos criativos (54%), menos competentes (50%) e menos confiáveis (49%) pelos colegas.

“A IA acelera o trabalho, mas cabe ao profissional verificar se aquilo faz sentido, se o conteúdo é adequado e se realmente melhora o resultado final. É perfeitamente possível produzir páginas e páginas de conteúdo sem chegar a conclusão alguma, ou até piorar o trabalho, em vez de melhorá-lo”, comenta Marcio Tabach, pesquisador da TGT ISG e autor dos estudos ISG Provider Lens® sobre o mercado de inteligência artificial generativa e analytics. “Com frequência, chats baseados em LLMs, como Claude, GPT ou Grok, extraem informações corretas, mas que nem sempre estão bem encadeadas do ponto de vista lógico. Você lê a primeira frase de um parágrafo e ela não se conecta com a seguinte. Esse é o ponto central: a lógica. Quem usa um LLM precisa ser capaz de ler o resultado e questionar se aquilo faz sentido ou não”.

Cassio Pantaleoni, diretor de Artificial Intelligence Solutions & Strategy da Quality Digital, explica que “a IA entrega uma resposta apropriada ao que foi solicitado, e não a resposta certa. Sem curadoria e sem lógica na formulação das solicitações, passamos a ter casos de aumento de produtividade individual e perda de produtividade organizacional, com erros que se propagam pela cadeia produtiva”.

Esse tipo de distorção não se restringe a áreas criativas e já aparece com força também em funções críticas do negócio, como o fiscal e tributário. Para Roberto de Lázari, diretor de parcerias estratégicas da All Tax, o uso de IA sem curadoria humana cria uma falsa sensação de controle. “É possível gerar análises extensas e bem escritas que não se sustentam quando confrontadas com a legislação ou com a realidade operacional da empresa. No ambiente tributário brasileiro, isso não é só ineficiência, é risco direto de autuação, perda de crédito e insegurança jurídica”, afirma. Segundo ele, sem governança de dados e validação especializada, a IA deixa de apoiar decisões e passa a escalar erros, reproduzindo a lógica do workslop.

Entre as principais causas para o aumento dos casos de workslop está a adoção indiscriminada da IA. Em muitas empresas, líderes impõem o uso da tecnologia para qualquer tarefa, sem distinguir atividades estratégicas de demandas operacionais simples, como aponta a pesquisa. O resultado é o incentivo ao copiar e colar automático, sem reflexão ou adaptação ao contexto.

O pano de fundo para este problema é que muitas organizações ainda não adquiriram maturidade para o uso eficiente dessa tecnologia. “Antes de sair fazendo um projeto de IA, você precisa pensar no impacto que essa iniciativa pode proporcionar e, para isso, é fundamental ter pessoas capacitadas, letradas e treinadas”, reflete Roberto Ave Faria, vice-presidente e diretor comercial da Quality Digital.

Faria chama essa capacitação de Education, a primeira etapa na construção de uma cultura organizacional Data-Driven, onde as decisões são tomadas a partir de dados. “Para que um projeto de IA dê certo, é preciso que as empresas sejam orientadas por dados, que as suas decisões sejam definidas por dados, que sejam empresas Data-Driven”, reforça.

Para os participantes da pesquisa “From tools to thieves: Measuring and understanding public perceptions of AI through crowdsourced metaphors”, realizada pela BetterUp em parceria com a Universidade de Stanford, a inteligência artificial é vista principalmente como uma ferramenta tecnológica, comparável a uma calculadora ou a um canivete suíço (10%), ou como um “cérebro” capaz de raciocínio e lógica (10%), além de um mecanismo de busca avançado para navegar grandes bases de dados (9%). As metáforas, no entanto, variam bastante: alguns a comparam a um professor que sempre tem a resposta (3%), outros a enxergam como uma criança em aprendizado, pronta para produzir resultados (4%), e há ainda quem a associe a um ladrão, por considerá-la uma forma de plágio (0,5%).

À medida que soluções baseadas em IA avançam, os efeitos do workslop deixam de ser apenas cognitivos e passam a afetar sistemas reais. Para Rogério Moreira, presidente da Associação Brasileira de Internet das Coisas, decisões baseadas em informações superficiais se tornam ainda mais perigosas em ambientes conectados. “Quando lidamos com dados em tempo real e representações digitais de ativos físicos, conteúdo vazio ou mal interpretado gera impacto direto na operação”, afirma.

Especialistas defendem que o combate ao workslop passa, acima de tudo, pela alfabetização em IA. É fundamental que as organizações definam quando a tecnologia faz sentido e quando não faz, evitando seu uso automático como padrão. “Sem curadoria humana, o conteúdo perde densidade e propósito. E isso começa na formação básica. Interpretação de texto e raciocínio lógico são essenciais para evitar erros. O bom e velho senso crítico, o hábito de testar e verificar continuam sendo fundamentais para garantir qualidade no trabalho com IA generativa, talvez até mais importantes agora”, explica Ana Leticia Lucca, CRO da Escola da Nuvem.

Para executivos que estão lidando com esses desafios, as novas tecnologias devem ser encaradas como instrumentos que potencializam o trabalho humano. “A Inteligência Artificial amplia nossa capacidade de análise, velocidade e escala, mas é a experiência humana que dá direção, senso crítico e propósito às decisões. Quando humanos e IA trabalham juntos, combinando tecnologia e visão estratégica, criamos soluções mais inteligentes, sustentáveis e centradas nas pessoas”, defende Aline Bueno, CEO da Argo Solutions.

No nível da liderança, o desafio é promover o uso colaborativo da IA, reforçando que a tecnologia deve apoiar a responsabilidade e o pensamento crítico, e não servir como atalho para escapar do trabalho bem feito. “À medida que a inteligência artificial se consolida no cotidiano corporativo, o debate sobre qualidade, intenção e valor do conteúdo produzido se torna inevitável. O workslop surge como um alerta: eficiência não está na aparência do resultado, mas na substância que ele entrega”, conclui Marcos Oliveira Pinto, Global Software Engineer Manager da Jitterbit.

Rolar para cima