下一代边缘模型性能超越全球顶级竞品;现已在Hugging Face平台开源发布
马萨诸塞州剑桥–(美国商业资讯)– Liquid AI今日宣布推出其下一代Liquid基础模型(LFM2),该模型在边缘模型类别中创下了速度、能效和质量的新纪录。此次发布基于Liquid AI从根本原理出发的模型设计方法。与传统基于Transformer的模型不同,LFM2由结构化、自适应的算子组成,可实现更高效的训练、更快的推理速度和更强的泛化能力,在长上下文或资源受限的场景中表现尤为突出。
Liquid AI将LFM2开源,以完全透明的方式向世界展示这一创新架构。目前,LFM2的权重可从Hugging Face下载,也可通过Liquid Playground进行测试。Liquid AI还宣布,未来几天内,这些模型将集成到其边缘AI平台和一款iOS原生消费级应用中,供用户测试使用。
Liquid AI联合创始人兼首席执行官Ramin Hasani表示:“Liquid在打造一流基础模型时,始终将质量、延迟和内存效率放在首位。LFM2系列模型的设计、开发和优化均以在任何处理器上实现设备端部署为目标,真正释放了生成式AI和智能体AI在边缘场景的应用潜力。LFM2是我们未来几个月将发布的一系列强大模型中的首款模型。”
LFM2的发布标志着全球AI竞争的一个里程碑,这是美国公司首次公开展示在效率和质量上明显优于中国领先开源小型语言模型的成果,包括Alibaba和ByteDance开发的模型。
在直接对比评测中,LFM2模型在速度、延迟和指令遵循基准测试中全面超越了最先进的竞品。主要亮点包括:
- 在CPU上,与Qwen3、Gemma 3n Matformer以及迄今为止所有其他基于Transformer和非Transformer的自回归模型相比,LFM2的吞吐量提升200%且延迟更低。
- 该模型不仅速度最快,在指令遵循和函数调用(构建可靠AI智能体时,大型语言模型(LLM)的主要属性)方面,其平均表现也显著优于同规模级别的其他模型。这使LFM2成为本地和边缘用例的理想选择。
- 基于这一新架构和新训练基础设施构建的LFM模型,训练效率较上一代LFM提升300%,使其成为构建高性能通用AI系统的最具成本效益的方式。
将大型生成式模型从远程云端迁移到轻量化的设备端LLM,可实现毫秒级延迟、离线运行能力和数据主权隐私保护。这些能力对于需要实时推理的手机、笔记本电脑、汽车、机器人、可穿戴设备、卫星及其他终端至关重要。在计入国防、航天和网络安全领域的投入之前,仅整合消费电子、机器人、智能家电、金融、电子商务和教育等高增长领域的边缘AI技术,就足以推动紧凑型私有基础模型的总潜在市场规模在2035年逼近1万亿美元。
Liquid AI已与这些领域的众多《财富》500强企业展开合作。该公司提供超高效率的小型多模态基础模型,搭配安全的企业级部署技术栈,可将每台设备都转化为本地AI设备。随着企业从云端LLM转向经济高效、快速、私密的本地智能,这为Liquid AI提供了获取更大市场份额的机会。
关于Liquid AI:
Liquid AI处于人工智能创新的前沿,其开发的基础模型不断刷新性能和效率标准。Liquid AI的使命是构建各种规模的高效通用AI系统,持续突破技术的边界,将更多智能融入手机、笔记本电脑、汽车、卫星等各类设备中。如需了解更多信息,请访问www.liquid.ai。
✽本文转载自互联网,请读者仅作参考,并自行核实相关内容(BW)。