
Ler Resumo
Embora a IA imite muito bem um ser humano, ChatGPT, Claude, Gemini e afins são apenas máquinas, sem sentimentos reais. Isso torna desnecessário ser educado com elas e falar coisas como “por favor”, “obrigado”, “bom dia” e afins.
Em abril de 2025, o CEO da OpenAI (criadora do ChatGPT), Sam Altman, disse no X que a empresa já gastou “dezenas de milhões de dólares” com o costume das pessoas de usar termos de polidez com seu robô. Faz sentido: quanto mais longo o prompt, mais energia elétrica é gasta para que ele seja processado pela inteligência artificial. Mas não que seja um grande problema: para uma empresa que vale US$ 300 bilhões, algumas dezenas de milhões são troco de bar.
Uma pesquisa, também de 2025, apontou que 67% dos estadunidenses preferem ser educados com a IA. Quando questionados sobre os motivos, 82% dos respondentes disseram que agem assim porque é a coisa certa a se fazer, enquanto 12% afirmaram que, no caso de uma revolução das máquinas, esperam que sua cortesia com os robôs seja levada em conta.
Mas, faturamento de megacorporações e ficção científica à parte, o tema gera uma pergunta: será que ser educado com a IA produz resultados melhores?
Homem sofre intoxicação rara após “consulta” com ChatGPT
O que diz a ciência
Em 2024, a Universidade de Waseda, em Tóquio, pesquisou resultados em vários LLM (Large Language Models, ou Grandes Modelos de Linguagem, os algoritmos por trás das IAs generativas, caso do GPT) a partir de prompts bem educados em três línguas: inglês, japonês e chinês.
Os resultados apontam que os prompts mal educados geraram resultados piores, com mais respostas enviesadas, mais erros e mais recusas. Por outro lado, prompts excessivamente bem educados também geraram resultados abaixo da média — o ideal é uma polidez moderada. Os pesquisadores fizeram questão de destacar que “o melhor nível de polidez varia de acordo com a língua”.
Murray Shanahan, cientista sênior da DeepMind (que faz o Gemini), afirma que há um motivo científico que explica isso. “É como [se o modelo estivesse] interpretando um papel. Ele está imitando o que humanos fariam naquela situação. A imitação pode incluir não ser tão solícito se o chefe é mandão e arrogante”, explicou ele em um podcast da DeepMind.
Nathan Bos, pesquisador sênior da Universidade Johns Hopkins que estuda padrões relacionais entre humanos e IA, é mais empírico ao falar do assunto. Ele afirma que usar termos educados é melhor porque serve como indicativo para o que se espera da IA. “‘Por favor’ indica que o que se segue é um pedido, facilitando para o assistente de linguagem saber como responder”, explicou ele à revista Scientific American.
Segundo Bos, o tom da interação também pode levar uma IA a buscar respostas linguisticamente correlatas ao formular sua resposta, ou seja, prompts educados podem direcionar o sistema a buscar informações em fontes mais cordiais e, portanto, provavelmente mais confiáveis.
O outro lado
A ciência ainda não bateu o martelo sobre o assunto. Um estudo de 2025 elaborou 50 perguntas diferentes, cada uma em cinco versões, variando no nível de polidez, e as submeteu ao ChatGPT-4o. Os cinco níveis eram: muito educado, educado, neutro, rude e muito rude.
“Contrariando as expectativas, as perguntas indelicadas tiveram um desempenho consistentemente melhor do que as perguntas educadas, com uma precisão que variou de 80,8% para as perguntas muito educadas a 84,8% para as muito rudes”, diz o texto. Ou seja: é o resultado oposto do obtido pela pesquisa japonesa.
Essa discrepância pode ter vários motivos, como as diferenças nos métodos das pesquisas e também as atualizações dos LLMs, que estão sempre recebendo novas versões. Nenhum dos estudos é abrangente o suficiente para ser conclusivo e mais pesquisas precisarão ser feitas até que seja possível cravar uma resposta.
[Por: Superinteressante]
Descubra mais sobre MNegreiros.com
Assine para receber nossas notícias mais recentes por e-mail.
