高效CPU本地离线LaTeX识别工具
MixTeX是一个创新的多模态LaTeX识别小程序,由团队独立开发,能够在本地离线环境中执行高效的基于CPU的推理。无论是LaTeX公式、表格还是混合文本,MixTeX都能轻松识别,支持中英文处理。得益于强大的技术支持和优化设计,MixTeX无需GPU资源即可高效运行,适合任何Windows电脑,极大地方便了用户体验。
轻量级OCR模型,推理速度快
OnnxOCR是基于PaddleOCR重构的轻量级OCR模型,它脱离了PaddlePaddle深度学习训练框架,实现了快速的推理速度。该模型支持超过80种语言的推理,并在转换为ONNX模型后,推理速度比使用PaddlePaddle框架快5倍。OnnxOCR独立于深度学习训练框架,可以直接部署,适用于计算能力有限但需要保持准确性的场景,并且可以在ARM和x86架构的计算机上部署。
在浏览器中直接运行先进的机器学习模型。
transformers.js 是一个JavaScript库,旨在为网页提供先进的机器学习能力。它允许用户在浏览器中直接运行预训练的Transformers模型,无需服务器支持。该库使用ONNX Runtime作为后端,支持将PyTorch、TensorFlow或JAX模型转换为ONNX格式。transformers.js 与 Hugging Face 的 transformers Python 库功能等价,提供相似的API,使得开发者能够轻松地将现有代码迁移到网页端。
Phi-3 Mini-128K-Instruct ONNX优化模型促进推理加速
Phi-3 Mini是一个轻量级的顶尖开源模型,建立在Phi-2使用的合成数据和过滤网站之上,专注于高质量的推理密集型数据。这个模型属于Phi-3系列,mini版本有两个变体支持4K和128K上下文长度。该模型经过了严格的增强过程,包括监督式微调和直接偏好优化,以确保精准遵循指令和强大的安全措施。这些经过ONNX优化的Phi-3 Mini模型可在CPU、GPU和移动设备上高效运行。微软还推出了ONNX Runtime Generate() API,简化了Phi-3的使用。
Phi-3 Mini 量化ONNX模型,支持多硬件平台加速推理
Phi-3 Mini是一款轻量级的最先进的开源大模型,构建于用于Phi-2的合成数据和过滤网站数据之上,致力于提供极高质量、推理密集型的数据。该模型经过了严格的增强过程,结合了监督式微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。该仓库提供了Phi-3 Mini的优化ONNX版本,可通过ONNX Runtime在CPU和GPU上进行加速推理,支持服务器、Windows、Linux、Mac等多种平台,并针对每个平台提供最佳精度配置。ONNX Runtime的DirectML支持还可让开发人员在AMD、英特尔和NVIDIA GPU驱动的Windows设备上实现大规模硬件加速。
© 2024 AIbase 备案号:闽ICP备08105208号-14