EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico
カートのアイテムが多すぎます
カートに追加できませんでした。
ウィッシュリストに追加できませんでした。
ほしい物リストの削除に失敗しました。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
O artigo de Om Dobariya e Akhil Kumar, intitulado "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy," investiga como as variações no tom de cortesia dos prompts impactam a precisão de Modelos de Linguagem Grandes (LLMs).
Os autores criaram um conjunto de dados de 250 questões de múltipla escolha com cinco variantes tonais—Muito Cortês, Cortês, Neutro, Ríspido e Muito Ríspido—para testar o ChatGPT-4o.
Contrariamente às expetativas e a estudos anteriores, os resultados mostraram que os prompts ríspidos superaram consistentemente os corteses, com a precisão mais alta de 84,8% para prompts Muito Ríspidos e 80,8% para prompts Muito Corteses.
Os achados sugerem que os LLMs mais recentes podem ser menos sensíveis à cortesia e destacam a importância de se estudar aspetos pragmáticos do prompt engineering, embora os autores desaconselhem interfaces hostis por razões éticas.
A investigação confirma que o tom é um fator estatisticamente significativo na performance do modelo.