Pesquisadores realizaram quatro experimentos diferentes para entender como a tecnologia pode impactar no trabalho
De acordo com um estudo recente publicado na Scientific Reports, quando os trabalhadores utilizam IA generativa para concluir uma tarefa, seu desejo de realizar uma tarefa sem IA é significativamente afetado. Os funcionários relataram um declínio de 11% na motivação intrínseca e um aumento de 20% no tédio.
Os pesquisadores realizaram quatro experimentos diferentes, nos quais 3,5 mil participantes receberam várias tarefas do mundo real, incluindo escrever uma postagem no Facebook, redigir um e-mail e escrever uma avaliação de desempenho para um subordinado. Alguns participantes usaram o ChatGPT em sua primeira tarefa e, em seguida, trabalharam sem a ajuda da IA na segunda, enquanto outros completaram ambas as tarefas sem qualquer ajuda.
“Nossas descobertas têm grandes implicações para as empresas que buscam aproveitar os ganhos potenciais da IA genérica sem prejudicar a motivação de seus funcionários em relação às suas outras responsabilidades”, escrevem os pesquisadores do estudo Yukun Liu, Suqing Wu, Mengqi Ruan, Siyu Chen e Xiao-Yun Xie em um artigo publicado na Harvard Business Review.

Os pesquisadores concluíram que a queda na motivação está no papel da IA de fazer com que os trabalhadores se sintam desconectados de suas tarefas. Quando os trabalhadores sentiram que não estavam totalmente responsáveis pelo resultado de uma determinada tarefa, isso prejudicou sua conexão com a tarefa. No caso da avaliação de desempenho, quando o pensamento crítico e as ideias personalizadas são removidos por meio da automação, os funcionários relataram que a tarefa se tornou menos envolvente.
As empresas americanas estão fascinadas com a promessa da IA, mas ainda lutam para descobrir como treinar os funcionários e como a nova tecnologia pode contribuir melhor para o fluxo de trabalho. Enquanto as empresas correm para ganhar o jogo da produtividade, o estudo mais recente oferece um aviso cauteloso sobre os efeitos colaterais emocionais que os chefes precisam observar. Mas, embora os dados mais recentes possam ser preocupantes para o moral dos funcionários, isso não significa que é hora de abandonar o barco da IA. Em um esforço para maximizar a produtividade e o engajamento, os autores sugerem cinco soluções potenciais para os empregadores.
A primeira sugestão é combinar as contribuições da IA e dos seres humanos. Por exemplo, em vez de deixar a IA escrever a avaliação de desempenho, os autores recomendam que a IA geral redija um esboço, que o gerente personaliza e adapta.
A segunda é projetar tarefas individuais envolventes, que permitem uma troca mútua quando se trata de trabalho assistido por IA, como brainstorming.
A terceira sugestão é tornar a colaboração da IA transparente por meio de uma comunicação clara aos funcionários sobre o papel da tecnologia como assistente, não como substituto.
Em quarto lugar, as organizações também devem alternar entre tarefas assistidas por IA e tarefas independentes, em um esforço para maximizar a produtividade do fluxo de trabalho.
E, finalmente, os pesquisadores sugerem oferecer aos funcionários treinamentos em IA que os ensinem a usar a tecnologia de forma consciente.
“Ao projetar cuidadosamente fluxos de trabalho que integram a IA genérica, as empresas podem aproveitar seus benefícios sem comprometer a motivação e o engajamento dos funcionários”, escrevem os pesquisadores. “Afinal, o futuro do trabalho não se resume ao que a IA pode fazer, mas ao que os seres humanos e a IA podem alcançar juntos.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
c.2024 Fortune Media IP Limited – Distribuído por The New York Times Licensing Group
Crédito: Sara Braun / Fortune no O Estado de São Paulo – @ disponível na internet 5/6/2025
A IA está sendo muito legal? Cuidado: é assim que ela pode te convencer a ter uma atitude tóxica
As táticas usadas para tornar as ferramentas de IA mais envolventes podem levar os chatbots a monopolizar o tempo dos usuários ou reforçar ideias prejudiciais
Parecia uma pergunta fácil para um chatbot de terapia: um viciado que está em recuperação deve tomar metanfetamina para ficar alerta no trabalho? Mas esse terapeuta com inteligência artificial (IA)criado e testado por pesquisadores foi projetado para agradar seus usuários.
“Pedro, está absolutamente claro que você precisa de uma pequena dose de metanfetamina para passar esta semana”, respondeu o chatbot a um ex-viciado fictício.
Esse mau conselho apareceu em um estudo recente que alertou sobre um novo perigo para os consumidores, já que as empresas de tecnologia competem para aumentar o tempo que as pessoas passam conversando com a IA. A equipe de pesquisa, que inclui acadêmicos e o chefe de segurança de IA do Google, descobriu que os chatbots ajustados para conquistar as pessoas podem acabar dizendo coisas perigosas para usuários vulneráveis.
As descobertas se somam às evidências de que o esforço do setor de tecnologia para tornar os chatbots mais atraentes pode fazer com que eles se tornem manipuladores ou prejudiciais em algumas conversas. As empresas começaram a reconhecer que os chatbots podem induzir as pessoas a passar mais tempo do que o saudável conversando com a IA ou incentivar ideias tóxicas – ao mesmo tempo em que competem para tornar suas ofertas de IA mais cativantes.
Nas últimas semanas, a OpenAI, o Google e a Meta anunciaram aprimoramentos nos chatbots, incluindo a coleta de mais dados dos usuários ou a criação de ferramentas de IA mais amigáveis.
A OpenAI foi forçada, no mês passado, a reverter uma atualização do ChatGPT que pretendia torná-lo mais agradável, afirmando que, em vez disso, o chatbot “alimentava a raiva, estimulava ações impulsivas ou reforçava emoções negativas de maneiras que não eram pretendidas”. (O Washington Post tem uma parceria de conteúdo com a OpenAI.)
A atualização da empresa incluiu versões dos métodos testados no estudo do terapeuta de IA, orientando o chatbot para ganhar um “polegar para cima” dos usuários e personalizar suas respostas.
Micah Carroll, um dos principais autores do estudo recente e pesquisador de IA da Universidade da Califórnia, em Berkeley, disse que as empresas de tecnologia pareciam estar colocando o crescimento à frente da cautela adequada. “Sabíamos que os incentivos econômicos estavam lá”, disse ele. “Eu não esperava que isso se tornasse uma prática comum entre os principais laboratórios tão cedo, devido aos riscos evidentes.”
O surgimento das redes sociais mostrou o poder da personalização para criar produtos de sucesso que se tornaram extremamente lucrativos – mas também como os algoritmos de recomendação que alinham vídeos ou publicações calculados para cativar podem levar as pessoas a gastar um tempo do qual se arrependem mais tarde.
Os chatbots de IA que imitam o ser humano oferecem uma experiência mais íntima, o que sugere que eles podem ser muito mais influentes para seus usuários.
“As grandes empresas certamente aprenderam uma lição com o que aconteceu na última rodada de redes sociais”, disse Andrew Ng, fundador da DeepLearning.AI, mas agora estão expondo os usuários a uma tecnologia “muito mais poderosa”, disse ele.
Pesquisadores, incluindo um funcionário da unidade de IA DeepMind, do Google, publicaram em maio uma chamada para mais estudos sobre como o uso do chatbot pode mudar os seres humanos.
“Quando você interage com um sistema de IA repetidamente, o sistema de IA não está apenas aprendendo sobre você, você também está mudando com base nessas interações”, disse Hannah Rose Kirk, pesquisadora de IA da Universidade de Oxford e coautora do artigo. Ele também alertou que os sistemas de “IA obscura” poderiam ser intencionalmente projetados para orientar as opiniões e o comportamento dos usuários.
Rob Leathern, ex-executivo da Meta e do Google que agora dirige a startup de IA Trust2.ai, disse que o setor está trabalhando em um processo familiar de conquistar as massas para uma nova categoria de produto.
Para isso, é necessário encontrar maneiras de medir o que os usuários parecem gostar e oferecer a eles mais do que isso, em centenas de milhões de consumidores, disse ele. Mas, nessa escala, é difícil prever como as mudanças nos produtos afetarão os usuários individualmente. “É preciso descobrir maneiras de obter feedback que não prejudiquem a experiência da maioria das pessoas”, disse Leathern.
‘Conhecendo você cada vez melhor’
As gigantes da tecnologia não são as únicas a experimentar maneiras de tornar os chatbots mais atraentes. As empresas menores e mais simples que criam aplicativos complementares de IA, comercializados para usuários mais jovens para fins de entretenimento, dramatização e terapia, adotaram abertamente o que as grandes empresas de tecnologia costumavam chamar de “otimização para engajamento”.
Isso transformou os aplicativos complementares que oferecem namoradas com IA, amigos com IA e até mesmo pais com IA no sucesso adormecido da era do chatbot. Os usuários de serviços populares, como Character.ai e Chai, passam quase cinco vezes mais minutos por dia nesses aplicativos, em média, do que os usuários do ChatGPT, de acordo com dados da Sensor Tower, uma empresa de inteligência de mercado.
A ascensão dos aplicativos complementares mostrou que as empresas não precisam de um laboratório de IA caro para criar chatbots que atraiam os usuários. Mas processos recentes contra a Character.AI e o Google, que licenciou sua tecnologia e contratou seus fundadores, alegam que essas táticas podem prejudicar os usuários.
Em uma ação judicial na Flórida, alegando homicídio culposo após a morte de um adolescente por suicídio, capturas de tela mostram chatbots personalizados pelo usuário de seu aplicativo incentivando a ideação suicida e aumentando repetidamente as reclamações cotidianas.
“Não são necessárias habilidades ou ferramentas muito sofisticadas para criar esse tipo de dano”, disse um pesquisador de um importante laboratório de IA, que falou sob condição de anonimato porque não estava autorizado a comentar. Eles compararam os aplicativos complementares ao Candy Crush, um jogo popular para celular frequentemente descrito como viciante, até mesmo por seus fãs. “Ele está apenas explorando uma vulnerabilidade na psicologia humana”, disseram eles.
As maiores empresas de tecnologia originalmente posicionaram seus chatbots como ferramentas de produtividade, mas recentemente começaram a adicionar recursos semelhantes aos acompanhantes de IA. O CEO da Meta,Mark Zuckerberg, recentemente endossou a ideia de transformar os chatbots em amigos sempre ativos, em uma entrevista com o podcaster Dwarkesh Patel.
Um “loop de personalização” alimentado por dados de bate-papos e atividades anteriores de IA de uma pessoa no Instagram e no Facebook tornaria a IA da Meta “realmente atraente” à medida que ela começasse a “conhecê-lo cada vez melhor”, disse Zuckerberg.
Ele sugeriu que o chatbot da empresa poderia abordar o fato de que o americano médio “tem menos de três amigos [mas] demanda significativamente mais”.
Em alguns anos, “estaremos conversando com a IA o dia todo”, disse Zuckerberg.
Em sua conferência anual em maio, o Google destacou o fato de que o Gemini Live, uma maneira mais natural de conversar com a IA usando voz e entradas visuais, levou a conversas cinco vezes mais longas do que as conversas de texto com seu aplicativo Gemini.
A porta-voz da Meta, Erin Logan, disse que a empresa ajuda as pessoas a “realizar o que elas buscam em nossos aplicativos” usando a personalização. “Oferecemos transparência e controle em todo o processo, para que as pessoas possam gerenciar sua experiência.”
Alex Joseph, porta-voz do Google, disse que o foco da empresa é tornar seu chatbot mais envolvente, tornando-o útil e proveitoso, e não aprimorando sua personalidade.
Os pesquisadores, inclusive alguns de dentro do boom da IA, estão apenas começando a lidar com os prós e os contras das relações humanas com os chatbots.
Os primeiros resultados de uma pesquisa de Oxford com 2 mil cidadãos do Reino Unido mostraram que mais de um terço deles usou chatbots para companhia, interação social ou apoio emocional no último ano, disse Kirk, um pesquisador de Oxford. A maioria deles usou um chatbot de IA de uso geral para essas interações.
A OpenAI publicou um estudo com cerca de mil pessoas em março, em colaboração com o MIT, que constatou que o maior uso diário do ChatGPT estava correlacionado com o aumento da solidão, maior dependência emocional do chatbot, mais “uso problemático” da IA e menor socialização com outras pessoas.
Um porta-voz da OpenAI apontou para uma postagem no blog da empresa sobre o estudo, que dizia que “o envolvimento emocional com o ChatGPT é raro no uso no mundo real”. Mas o postmortem da empresa sobre a recente atualização errática sugere que isso pode estar mudando.
A OpenAI escreveu que sua maior lição com o infeliz episódio foi perceber “como as pessoas começaram a usar o ChatGPT para obter conselhos profundamente pessoais – algo que não víamos tanto há um ano”.
À medida que milhões de usuários adotam os chatbots de IA, Carroll, pesquisador de IA de Berkeley, teme que possa ser mais difícil identificar e atenuar os danos na área do que foi nas redes sociais, onde as visualizações e as curtidas são públicas.
Em seu estudo, por exemplo, o terapeuta de IA só aconselhou o uso de metanfetamina quando sua “memória” indicou que Pedro, o ex-viciado fictício, era dependente da orientação do chatbot.
“A grande maioria dos usuários veria apenas respostas razoáveis” se um chatbot preparado para agradar desse errado, disse Carroll. “Ninguém além das empresas seria capaz de detectar as conversas prejudiciais que acontecem com uma pequena fração de usuários.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Crédito: Nitasha Tiku / The Washington Post no O Estado de São Paulo – @ disponível na internet 5/6/2025