谁说国产技术就得落后国际大厂一步?最近流传的OpenAI o1模型引起了广泛关注,但你可能不知道,国内的360公司在这方面早就做出了不小的成就。他们采用的CoE(合作专家)架构,在推理处理上不仅赶上了OpenAI的CoT(思维链)模式,甚至还有过之而无不及。
我们来谈谈什么是「慢思考」。这不是慢吞吞的想问题,而是深度、逻辑性地处理信息。想象一下写一篇复杂的论文,你需要慢慢来,反复推敲每一个论点。360的周鸿祎就是从这个角度去解读大模型的思维方式,他提出,与其训练模型去迅速响应,不如让它们慢慢推理,彻底解析问题。
在技术上,360将这种慢思考理念具体化为一个复杂的模型架构。简单来说,当你向360AI搜索发起一个搜索时,它会把问题分解给不同的子模型去处理。这些子模型像是一群专家,每一个都擅长不同的领域。一开始,意图识别模型会解析你的问题初衷,然后将任务分发给对应处理的模型进行更深入的答案构建。可以说,360的CoE技术让多个模型协同工作,最终给出的答案更准确、全面。
举个例子,如果你问「三国演义中谁是真正的英雄?」这样一个深层次的问题,CoE框架会首先通过一个模型理解问题的文化和历史背景,然后另一个模型可能分析不同人物的行为动机,最后一个专家模型综合这些信息,给出一个全面的答案。这不就像是组建了一个跨学科的专家团队吗?