Meta推出 Llama 3.2 AI 模型,其特点是开放和可定制,开发者可根据需求实现边缘人工智能和视觉革命。Llama 3.2 提供多模态视觉和轻量级模型,代表 Meta 在大型语言模型方面的最新进展,有适合边缘和移动设备的中小型视觉 LLMs(11B 和 90B)及轻量级纯文本模型(1B 和 3B),并提供预训练和指令微调版本。IT 之家附上四个版本模型简介,包括不同特点和适用用例。其中 Llama 3.2 1B 和 3B 模型支持 128K 标记的上下文长度,支持高通和联发科硬件并针对 Arm 处理器优化。Llama 3.2 11B 和 90B 视觉模型可替代相应文本模型且在图像理解任务上优于闭源模型。与其他开源多模态模型不同,预训练模型和对齐模型可使用 torchtune 微调并使用 torchchat 本地部署,开发者还可使用智能助手 Meta AI 试用。Meta 将分享首批 Llama Stack 官方发行版,简化开发人员使用 Llama 模型的方式,实现检索增强生成和工具支持型应用的交钥匙部署并集成安全性。Meta 与多家合作伙伴密切合作,为下游企业客户构建 Llama Stack 发行版,设备分发通过 PyTorch ExecuTorch,单节点分发通过 Ollama。
https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices
本站文章通过互联网转载或者由本站编辑人员搜集整理发布,如有侵权,请联系本站删除。