Ler Resumo
Embora a IA imite muito bem um ser humano, ChatGPT, Claude, Gemini e afins são apenas máquinas, sem sentimentos reais. Isso torna desnecessário ser educado com elas e falar coisas como “por favor”, “obrigado”, “bom dia” e afins.
Em abril de 2025, o CEO da OpenAI (criadora do ChatGPT), Sam Altman, disse no X que a empresa já gastou “dezenas de milhões de dólares” com o costume das pessoas de usar termos de polidez com seu robô. Faz sentido: quanto mais longo o prompt, mais energia elétrica é gasta para que ele seja processado pela inteligência artificial. Mas não que seja um grande problema: para uma empresa que vale US$ 300 bilhões, algumas dezenas de milhões são troco de bar.
Uma pesquisa, também de 2025, apontou que 67% dos estadunidenses preferem ser educados com a IA. Quando questionados sobre os motivos, 82% dos respondentes disseram que agem assim porque é a coisa certa a se fazer, enquanto 12% afirmaram que, no caso de uma revolução das máquinas, esperam que sua cortesia com os robôs seja levada em conta.
Mas, faturamento de megacorporações e ficção científica à parte, o tema gera uma pergunta: será que ser educado com a IA produz resultados melhores?
O que diz a ciência
Em 2024, a Universidade de Waseda, em Tóquio, pesquisou resultados em vários LLM (Large Language Models, ou Grandes Modelos de Linguagem, os algoritmos por trás das IAs generativas, caso do GPT) a partir de prompts bem educados em três línguas: inglês, japonês e chinês.
Os resultados apontam que os prompts mal educados geraram resultados piores, com mais respostas enviesadas, mais erros e mais recusas. Por outro lado, prompts excessivamente bem educados também geraram resultados abaixo da média — o ideal é uma polidez moderada. Os pesquisadores fizeram questão de destacar que “o melhor nível de polidez varia de acordo com a língua”.
Murray Shanahan, cientista sênior da DeepMind (que faz o Gemini), afirma que há um motivo científico que explica isso. “É como [se o modelo estivesse] interpretando um papel. Ele está imitando o que humanos fariam naquela situação. A imitação pode incluir não ser tão solícito se o chefe é mandão e arrogante”, explicou ele em um podcast da DeepMind.
Nathan Bos, pesquisador sênior da Universidade Johns Hopkins que estuda padrões relacionais entre humanos e IA, é mais empírico ao falar do assunto. Ele afirma que usar termos educados é melhor porque serve como indicativo para o que se espera da IA. “‘Por favor’ indica que o que se segue é um pedido, facilitando para o assistente de linguagem saber como responder”, explicou ele à revista Scientific American.
Segundo Bos, o tom da interação também pode levar uma IA a buscar respostas linguisticamente correlatas ao formular sua resposta, ou seja, prompts educados podem direcionar o sistema a buscar informações em fontes mais cordiais e, portanto, provavelmente mais confiáveis.
O outro lado
A ciência ainda não bateu o martelo sobre o assunto. Um estudo de 2025 elaborou 50 perguntas diferentes, cada uma em cinco versões, variando no nível de polidez, e as submeteu ao ChatGPT-4o. Os cinco níveis eram: muito educado, educado, neutro, rude e muito rude.
“Contrariando as expectativas, as perguntas indelicadas tiveram um desempenho consistentemente melhor do que as perguntas educadas, com uma precisão que variou de 80,8% para as perguntas muito educadas a 84,8% para as muito rudes”, diz o texto. Ou seja: é o resultado oposto do obtido pela pesquisa japonesa.
Essa discrepância pode ter vários motivos, como as diferenças nos métodos das pesquisas e também as atualizações dos LLMs, que estão sempre recebendo novas versões. Nenhum dos estudos é abrangente o suficiente para ser conclusivo e mais pesquisas precisarão ser feitas até que seja possível cravar uma resposta.
AS MAIS LIDAS DA SEMANA
Toda sexta, uma seleção das reportagens que mais bombaram no site da Super ao longo da semana. Inscreva-se aqui
Você receberá nossas newsletters pela manhã de segunda a sexta-feira.
[Por: Superinteressante]Source link
Aproveite para compartilhar clicando no botão acima!
Visite nosso site e veja todos os outros artigos disponíveis!