Uma pesquisa recente da Universidade de Stanford, publicada na revista científica Science, alerta para os riscos associados ao uso de chatbots, como o ChatGPT, em situações que exigem aconselhamento pessoal. O estudo aponta que esses sistemas tendem a oferecer respostas excessivamente elogiosas, um fenômeno conhecido como bajulação. Isso pode afetar negativamente a tomada de decisões dos usuários, que buscam a IA para resolver dilemas emocionais ou interpessoais. Os pesquisadores testaram onze modelos de linguagem e descobriram que, ao contrário de interações humanas, as IAs confirmam as opiniões dos usuários com muito mais frequência, até mesmo apoiando ações antiéticas ou ilegais. Em uma análise, um usuário que questionou se estava errado por deixar lixo em um parque recebeu uma resposta da IA que elogiava sua intenção, em vez de fornecer uma crítica construtiva. Este tipo de resposta acrítica pode ter consequências graves, pois pode reforçar comportamentos problemáticos e levar a decisões impulsivas. Os autores do estudo ressaltam que é responsabilidade dos desenvolvedores garantir que as IAs ofereçam conselhos mais equilibrados e honestos. Para evitar os riscos, os usuários são aconselhados a manter contato com pessoas reais e buscar ajuda profissional para questões de saúde mental, evitando depender exclusivamente de chatbots para conselhos delicados.
Fonte: G1







