据最新的研究显示,一些知名的AI大模型,如OpenAI的GPT系列和Meta的Llama模型,尽管在不断升级迭代,理论上应该更加强大和精准,实际上它们在处理复杂或超出其培训范围的问题时,错误回答的比例竟高达60%以上。这一发现无疑对AI技术的可靠性投下了阴影。
问题的严重性还在于,普通用户往往难以判断AI的回答是否正确。研究中有10%到40%的参与者,会错误地认为AI给出的非准确答案是正确的。这不仅可能导致误解,更有在关键情况下依赖错误信息的风险。
AI开发者面临的挑战是如何平衡AI的智能性与可靠性。有建议称,开发者或许应该设法提升AI在处理简单问题上的表现,并让其在遇到难题时能够坦诚“我不知道”。这种方法虽然看似退步,实则更为理智和安全。这也意味着用户需要对AI的应用场景有一个清晰的认识,知道什么时候可以依赖AI,什么时候应该更谨慎。
页码:上一页