inceptionlabs.ai 推出第一个商业规模的扩散型大语言模型 Mercury
其声称比当前LLMs快 10 倍且成本低廉的扩散型大语言模型,该模型创时代的可以型在 NVIDIA H100 上以超过 1000 个令牌/秒的速度生成响应。
与现有的代码模型相比,开发人员更喜欢 Mercury 的代码完成。在 Copilot Arena 上进行基准测试时,Mercury Coder Mini 并列第二,超过了 GPT-4o Mini 和 Gemini-1.5-Flash 等速度优化模型的性能,甚至超过了 GPT-4o 等更大的模型。同时,它是最快的型号,比 GPT-4o Mini 快约 4 倍。
免费体验|模型发布页
注:什么是扩散模型LLM?
📮投稿 ☘️频道 🌸聊天 🗞️𝕏
其声称比当前LLMs快 10 倍且成本低廉的扩散型大语言模型,该模型创时代的可以型在 NVIDIA H100 上以超过 1000 个令牌/秒的速度生成响应。
与现有的代码模型相比,开发人员更喜欢 Mercury 的代码完成。在 Copilot Arena 上进行基准测试时,Mercury Coder Mini 并列第二,超过了 GPT-4o Mini 和 Gemini-1.5-Flash 等速度优化模型的性能,甚至超过了 GPT-4o 等更大的模型。同时,它是最快的型号,比 GPT-4o Mini 快约 4 倍。
免费体验|模型发布页
注:什么是扩散模型LLM?
当前的大型语言模型是自回归的,这意味着它们从左到右生成文本,一次生成一个标记。生成本质上是连续的 — 在生成令牌之前的所有文本之前,无法生成令牌 — 生成每个令牌需要评估具有数十亿个参数的神经网络。
扩散模型提供了这样的范式转变。这些模型采用“从粗到细”的生成过程,其中输出通过几个“去噪”步骤从纯噪声中提炼出来。
因为扩散模型不仅限于考虑以前的输出,所以它们更擅长推理和构建其响应。而且,由于扩散模型可以不断优化其输出,因此它们可以纠正错误和幻觉。
📮投稿 ☘️频道 🌸聊天 🗞️𝕏