其次,这项研究还发现,优化后的模型回避行为减少,它们即使不确定答案也倾向于给出一个看似合理的错误答案。这种“自信过头”的倾向导致用户在使用时可能过分依赖模型的输出,特别是在面对看似简单的问题时。而事实上,即使面对简单问题,模型的回答也不一定百分之百准确。
此外,模型的提示词敏感性也是一个值得关注的问题。研究表明,随着模型规模的增大,其对不同自然语言表述的敏感度有所提高,能够更好地应对措辞上的微调。然而,这并不意味着在所有不同难度级别的任务上,模型的表现都一致稳定。这可能导致当用户面对不同难度的任务时,对模型输出的预期与实际表现不匹配。
页码:上一页