AI 搜索引擎企业 Perplexity 推出的新版 Sonar 搜索模型,其在速度和回答质量上表现优异,已向特定用户开放并将提供 API 服务。
-
模型概况:基于 Llama 3.3 70B 深化训练,为搜索应用定制,运行于 Cerebras 推理基础设施。
-
-
解码速度快:Token 解码速度达每秒 1200 个,是 Gemini 2.0 Flash 的 约8.5 倍,远超 Gemini 2.0 Flash,能近乎即时生成答案。
-
回答质量高:根据Perplexity的内部测试,Sonar在用户满意度指标上大幅优于GPT-4o mini和Claude 3.5 Haiku,与 Claude 3.5 Sonnet 相当,和 GPT-4o 差距微小。两大核心竞争力是事实性回答能力强和熟练运用 markdown 格式,保证回答准确且文本可读性高。
-
应用情况:已向 Perplexity Pro 订阅用户开放,还将以 API 形式对外服务,有望推动搜索体验变革。
-
内容示例:网页展示了 Sonar 和 Claude 3.5 Haiku 对 “MacBook M1 Chip” 问题的回答,Sonar 的回答从芯片设计、核心参数、应用机型等方面详细介绍,内容更丰富。