微软推出了新的Phi-4-mini-flash推理小语言模型,其主要优点是为边缘设备、移动应用程序和嵌入式系统等资源受限的环境带来了先进的推理功能。在设备上本地运行这样的模型,就不会向由 OpenAI 和谷歌等公司托管的服务器发送请求,从而保护了个人隐私。

现在,许多新设备都配备了神经处理单元,这使得在本地有效运行人工智能成为可能,因此像微软这样的开发项目每天都在变得越来越重要。
微软的这种新的 Phi 模型使用了一种名为 SambaY 的新架构,这也是该模型的核心创新。在 SambaY 中,有一种被称为门控内存单元(GMU)的东西,它可以在该型号的内部部件之间有效地共享信息,从而提高效率。

有了这些进步,即使输入很长的信息,该模型也能更快地生成答案和完成任务。这种 Phi 模型还能处理大量数据,理解很长的文本或对话。Intel最新官方声明!微代码算法致电压过高 部分13/14代酷睿不稳定
该模型的主要亮点是吞吐量比其他 Phi 模型高出 10 倍。这意味着该模型可以在任何给定时间内完成更多工作。基本上,在相同的时间内,它可以处理多 10 倍的请求或生成多 10 倍的文本,这对实际应用来说是一个巨大的进步。延迟也降低了两到三倍。

随着Phi-4-mini-flash-reasoning速度和效率的提高,它降低了在更小的硬件上本地运行人工智能的门槛。微软表示,该模型将适用于需要实时反馈循环的自适应学习、移动学习辅助工具等设备上的推理代理,以及根据学习者表现动态调整内容难度的交互式辅导系统。
微软的这一模型在数学和结构化推理方面尤为突出。这使得它在教育技术、轻量级模拟和自动评估工具等需要可靠逻辑推理和快速响应时间的领域非常有价值。
新的 Phi-4-mini-flash-reasoning 可在 Azure AI Foundry、NVIDIA API Catalog 和 Hugging Face 上使用。
微软披露企业如何使用其 Copilot 服务的更多信息
0 留言