微软近日宣布开源轻量化 AI 模型 Phi-4-mini-flash-reasoning,该模型采用全新 SambaY 架构实现推理效率飞跃。通过跨层记忆共享与无显式位置编码技术,其长文本生成速度达传统模型 10 倍,32K 上下文处理延迟降低 2-3 倍。实测显示,模型在数学推理、文献检索等场景表现优异,复杂公式推导逻辑清晰度显著提升。来源
微软发布极速 AI 模型 Phi-4-mini,笔记本也能跑大模型
文章名称:《微软发布极速 AI 模型 Phi-4-mini,笔记本也能跑大模型》
文章链接:https://www.agidt.com/?p=602
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
最新评论
您好,这是一条评论。若需要审核、编辑或删除评论,请访问仪表盘的评论界面。评论者头像来自 Gravatar。