5月28日消息,微软在年度Build开发者盛会上揭晓了Phi-3系列的最新力作——Phi-3-vision,该产品亮点聚焦于“先进视觉识别技术”,能够深入解析图像与文本信息,且令人瞩目的是,它被设计成即便在移动设备上也能确保流畅且资源高效的运行体验。
Phi-3-vision 是一款多模态小型语言模型(SLM),主要用于本地 AI 场景,该模型参数量为 42 亿,上下文长度为 128k token,能够为常规视觉推理任务和其他任务提供支持。
那么 Phi-3-vision 有多厉害?微软今天发布了新的论文 [PDF],表示该 SLM 和 Claude 3-haiku、Gemini 1.0 Pro 等其他模型不相上下。
微软在论文中对比了 ScienceQA、MathVista 和 ChartQA 等模型,Phi-3-vision 的参数虽然不多,但性能非常优秀。
微软提供了 Phi-3-vision 相较于字节跳动 Llama3-Llava-Next(8B)、微软研究院和威斯康星大学、哥伦比亚大学合作的 LlaVA-1.6(7B)、阿里巴巴通义千问 QWEN-VL-Chat 模型等竞品模型的比较图表,其中显示 Phi-3-vision 模型在多个项目上表现优异。
文明上网,理性发言,共同做网络文明传播者