Estudo da Universidade Duke revela que estigma em torno da inteligência artificial desafia sua adoção plena nas empresas e exige ações estratégicas para capacitação e mudança cultural
Usar ferramentas de Inteligência Artificial Generativa (IA Gen) pode prejudicar a reputação profissional, de acordo com um estudo conduzido por pesquisadores da Universidade Duke e publicado na Proceedings of the National Academy of Sciences (PNAS).
A partir de quatro experimentos controlados para examinar avaliações reais de usuários de IA realizados com mais de 4400 participantes, os pesquisadores compreenderam melhor sobre a percepção sobre o uso da IA no ambiente de trabalho.
Os resultados de um dos experimentos revelaram que profissionais que recorrem a ferramentas como ChatGPT, Claude ou Gemini são frequentemente percebidos como mais preguiçosos, menos competentes, menos diligentes e mais substituíveis em relação àqueles que tiveram ajuda de fontes não relacionadas à IA ou não usaram nenhuma ferramenta.
Essa penalidade social, como os autores definem, independe de variáveis como idade, gênero ou cargo do profissional, atingindo amplamente os usuários de IA, independentemente de seu perfil.
O dilema da adoção
Quando aplicada de forma estratégica em ambientes industriais, por exemplo, como em sistemas de manutenção preditiva, controle de qualidade inteligente, gêmeos digitais ou planejamento logístico, a IA tem potencial de impacto real e mensurável, gerando ganhos concretos em produtividade, eficiência, segurança e competitividade.
Mas, como em qualquer processo de mudança e como mostra o estudo da Universidade Duke, a adoção bem-sucedida da IA vai além da sua eficácia técnica. Fatores culturais e sociais dentro das organizações têm peso significativo. Mesmo diante de evidências claras de aumento de produtividade, a tecnologia ainda enfrenta resistências ligadas à percepção de que seu uso compromete a imagem profissional de quem a adota.
Se profissionais que utilizam IA forem vistos como menos capazes ou menos comprometidos, há o risco de que a tecnologia passe a ser usada de forma discreta, individual ou isolada — o que compromete seu potencial de impacto. Segundo a pesquisa, pessoas que usam ferramentas de IA possuem menos disposição para revelar o uso da tecnologia a colegas e gerentes. Existem também empresas que proíbem o uso de ferramentas de inteligência artificial e, assim, parte dos trabalhadores recorrem ao uso secreto da IA.
Além disso, mesmo empresas que incentivam o uso da tecnologia podem encontrar barreiras internas caso os colaboradores hesitem em adotar ferramentas por receio de julgamentos ou estigmas.
Experiência reduz o viés
Esse dilema de adoção não é novo. A pesquisa mostrou que esse comportamento é semelhante ao observado em ciclos anteriores de adoção tecnológica. Desde a introdução de planilhas eletrônicas até o uso de calculadoras, novas ferramentas que economizam trabalho e tempo frequentemente enfrentam resistência antes de se tornarem padrão, por refletirem negativamente nas habilidades dos usuários.
Mas, de acordo com o estudo, as percepções negativas diminuíram significativamente quando a IA era claramente útil para a tarefa atribuída. Em uma simulação de contratação, os avaliadores também mudam de postura à medida que se familiarizam com as tecnologias. Gestores que utilizam IA com frequência, por exemplo, são mais propensos a contratar profissionais que também a utilizam. Já aqueles que nunca tiveram contato com essas ferramentas são, em geral, mais resistentes.
IA como suporte, não como substituto
O futuro da indústria depende de tecnologias robustas — mas também de confiança, transparência e diálogo. E, nesse caminho, enfrentar o estigma é parte do processo.
“Capacitar as equipes, comunicar de forma transparente os objetivos do uso da IA e integrar essas ferramentas ao conhecimento técnico já existente ajudam a reduzir resistências e corrigir distorções de percepção. Todo processo de mudança nas organizações requer ações de gestão de pessoas para que surta os efeitos desejados para as empresas e as pessoas”, afirma Leonardo Azevedo, cofundador da Futago Tecnologia e engenheiro de computação pela Unicamp.
“Também é fundamental que os profissionais compreendam quando e como utilizar a IA de maneira crítica e responsável — evitando o uso inadequado e a delegação de tarefas que exigem julgamento humano. Vemos como fundamental que as ferramentas não sejam iniciativas individuais, mas algo pensado para times de alta produtividade, impulsionado por IA”, acrescenta.
Adoção da IA com responsabilidade
Na Futago, acreditamos que a adoção responsável da IA começa com diagnóstico e termina com impacto. Por isso, nossas soluções são pensadas para contextos reais, com foco em ganhos mensuráveis de eficiência, qualidade e segurança — sem ignorar os fatores humanos que fazem a diferença na operação.
Nosso time de especialistas pode ajudar sua empresa a identificar onde a IA realmente faz sentido e como integrá-la sem ruídos, respeitando o conhecimento já existente nas equipes e fortalecendo a cultura de inovação.
Entre em contato e descubra como a inteligência artificial pode ser um aliado estratégico — e bem recebido — no seu processo industrial.