『EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico』のカバーアート

EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico

EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

O artigo de Om Dobariya e Akhil Kumar, intitulado "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy," investiga como as variações no tom de cortesia dos prompts impactam a precisão de Modelos de Linguagem Grandes (LLMs).

Os autores criaram um conjunto de dados de 250 questões de múltipla escolha com cinco variantes tonais—Muito Cortês, Cortês, Neutro, Ríspido e Muito Ríspido—para testar o ChatGPT-4o.

Contrariamente às expetativas e a estudos anteriores, os resultados mostraram que os prompts ríspidos superaram consistentemente os corteses, com a precisão mais alta de 84,8% para prompts Muito Ríspidos e 80,8% para prompts Muito Corteses.

Os achados sugerem que os LLMs mais recentes podem ser menos sensíveis à cortesia e destacam a importância de se estudar aspetos pragmáticos do prompt engineering, embora os autores desaconselhem interfaces hostis por razões éticas.

A investigação confirma que o tom é um fator estatisticamente significativo na performance do modelo.

まだレビューはありません