Lora 是一个为移动设备优化的本地语言模型,支持 iOS 和 Android 平台。
Lora 是一款为移动设备优化的本地语言模型,通过其 SDK 可以快速集成到移动应用中。它支持 iOS 和 Android 平台,性能与 GPT-4o-mini 相当,拥有 1.5GB 大小和 24 亿参数,专为实时移动推理进行了优化。Lora 的主要优点包括低能耗、轻量化和快速响应,相比其他模型,它在能耗、体积和速度上都有显著优势。Lora 由 PeekabooLabs 提供,主要面向开发者和企业客户,帮助他们快速将先进的语言模型能力集成到移动应用中,提升用户体验和应用竞争力。
On-device Sora 是一个基于扩散模型的移动设备端文本到视频生成项目。
On-device Sora 是一个开源项目,旨在通过线性比例跳跃(LPL)、时间维度标记合并(TDTM)和动态加载并发推理(CI-DL)等技术,实现在移动设备(如 iPhone 15 Pro)上高效的视频生成。该项目基于 Open-Sora 模型开发,能够根据文本输入生成高质量视频。其主要优点包括高效性、低功耗和对移动设备的优化。该技术适用于需要在移动设备上快速生成视频内容的场景,如短视频创作、广告制作等。项目目前开源,用户可以免费使用。
优化的小型语言模型,适用于移动设备
MobileLLM是一种针对移动设备优化的小型语言模型,专注于设计少于十亿参数的高质量LLMs,以适应移动部署的实用性。与传统观念不同,该研究强调了模型架构在小型LLMs中的重要性。通过深度和薄型架构,结合嵌入共享和分组查询注意力机制,MobileLLM在准确性上取得了显著提升,并提出了一种不增加模型大小且延迟开销小的块级权重共享方法。此外,MobileLLM模型家族在聊天基准测试中显示出与之前小型模型相比的显著改进,并在API调用任务中接近LLaMA-v2 7B的正确性,突出了小型模型在普通设备用例中的能力。
高效、轻量级的量化Llama模型,提升移动设备上的运行速度并减少内存占用。
Llama模型是Meta公司推出的大型语言模型,通过量化技术,使得模型体积更小、运行速度更快,同时保持了模型的质量和安全性。这些模型特别适用于移动设备和边缘部署,能够在资源受限的设备上提供快速的设备内推理,同时减少内存占用。量化Llama模型的开发,标志着在移动AI领域的一个重要进步,使得更多的开发者能够在不需要大量计算资源的情况下,构建和部署高质量的AI应用。
自主多模移动设备代理
Mobile-Agent是一款自主多模移动设备代理,利用多模大语言模型(MLLM)技术,首先利用视觉感知工具准确识别和定位应用程序前端界面中的视觉和文字元素。基于感知的视觉环境,它自主规划和分解复杂操作任务,并通过逐步操作来导航移动应用程序。与之前依赖于应用程序的XML文件或移动系统元数据的解决方案不同,Mobile-Agent以视觉为中心的方式在各种移动操作环境中具有更大的适应性,从而消除了对特定系统定制的必要性。为了评估Mobile-Agent的性能,我们引入了Mobile-Eval,这是一个用于评估移动设备操作的基准。基于Mobile-Eval,我们对Mobile-Agent进行了全面评估。实验结果表明,Mobile-Agent实现了显着的准确性和完成率。即使在具有挑战性的指令下,例如多应用程序操作,Mobile-Agent仍然可以完成要求。
© 2025 AIbase 备案号:闽ICP备08105208号-14