我们的客户

听听一些使用 ONNX Runtime 的产品和公司的评价

Adobe

通过 ONNX Runtime,Adobe Target 在一个软件包中实现了灵活性和标准化:客户可以灵活选择自己喜欢的框架训练机器学习模型,并通过标准化大规模稳健地部署这些模型以实现快速推理,从而提供真正、实时的个性化体验。


-Georgiana Copil,Adobe 高级计算机科学家

AMD

ONNX Runtime 与 AMD 的 ROCm 开放软件生态系统集成,帮助我们的客户利用 AMD Instinct GPU 的强大功能,通过跨多个框架的灵活性来加速和扩展他们的大型机器学习模型。


-Andrew Dieckmann,AMD 数据中心 GPU 和加速处理部门公司副总裁兼总经理

蚂蚁集团

使用 ONNX Runtime,我们提高了许多通过多个深度学习框架训练的计算机视觉 (CV) 和自然语言处理 (NLP) 模型的推理性能。这些模型是支付宝生产系统的一部分。我们计划将 ONNX Runtime 作为更广泛应用中更多深度学习模型(如点击率预测和跨模态预测)的高性能推理后端。


-张小明,蚂蚁集团推理团队负责人

Algoriddim

在 Algoriddim,我们正在 Windows 设备上使用 ONNX Runtime 来支持我们的 Neural Mix™ 功能,该功能允许用户实时分离任何歌曲的人声和乐器,以及我们的 Automix 功能,可实现无缝自动 DJ 混音。ONNX Runtime 在抽象和灵活性之间取得了完美的平衡,并且使用 QNN 执行提供程序使我们能够利用 Copilot+ PC 上的 NPU 实现无与伦比的推理性能,同时将 CPU 留给其他任务。


-Frederik Seiffert,Algoriddim 首席技术官

ATLAS 实验

在 CERN 的 ATLAS 实验中,我们将 ONNX Runtime 的 C++ API 集成到我们的软件框架 Athena 中。我们目前主要在电子和μ子重建中进行 ONNX 模型的推理。我们受益于其 C++ 兼容性、平台到 ONNX 的转换器(*Keras、TensorFlow、PyTorch 等)及其线程安全性。


-CERN(欧洲核研究组织)ATLAS 实验团队

Autodesk

Autodesk Flame 使用 ONNX Runtime 在跨平台兼容性和性能方面具有巨大优势,为艺术家提供了他们所期望的灵活性和交互性。这使得他们可以直接在 Flame 的创意工具集中使用机器学习模型,从而提高其作品的质量并增强软件的可扩展性。微软的 ONNX Runtime 团队在整个开发过程中提供了专业的指导和支持,使我们能够将人工智能驱动的创意工具交到寻求高质量 VFX 和后期制作解决方案的艺术家手中。


-Louis Martin,Autodesk Flame 软件开发高级经理

Bazaarvoice

大规模构建和部署 AI 解决方案到云端是复杂的。面对海量数据集和性能考量,找到和谐的平衡至关重要。ONNX Runtime 为我们提供了灵活性,可以将用 Python 构建的 scikit-learn 模型打包,将其无服务器部署到 Node.js 环境,并在云端以令人印象深刻的性能运行。


-Matthew Leyburn,Bazaarvoice 软件工程师

Camo

ONNX Runtime 使 Camo Studio 能够快速准确地提供背景分割和特征检测等功能。它与我们现有的模型无缝集成,并允许我们面向任何处理器,包括最新的 NPU,这为我们节省了宝贵的开发时间,并使我们能够为所有用户带来创新功能。我们向任何希望简化模型部署并释放其应用程序全部潜力的开发人员推荐 ONNX Runtime。


-Aidan Fitzpatrick,Reincubate 创始人兼首席执行官

Cephable

ONNX Runtime 允许我们同时针对支持 CPU、GPU 和 NPU 的设备。使用 ONNX Runtime 和 AI Hub 将模型转换为 NPU,我们将工程工作量从 30 天减少到 7 天。考虑到目前的技术水平,现在可能只需要 3 天。这使我们能够为用户提供尖端性能,最大限度地减少 AI/ML 工作负载在运行其他应用程序时的影响,并留下更多时间专注于功能开发。


-Jon Campbell,Cephable 工程总监

ClearBlade

ClearBlade 将 ONNX Runtime 集成到我们的企业物联网和边缘平台中,使客户和合作伙伴能够使用他们想使用的任何行业 AI 工具来构建 AI 模型。通过此解决方案,我们的客户可以使用 ONNX Runtime Go 语言 API 无缝部署任何模型,以便在远程位置或工厂车间的设备上运行!


-Aaron Allsbrook,ClearBlade 首席技术官兼创始人

Deezer

在 Deezer,我们将 ONNX Runtime 用于流媒体服务中由机器学习驱动的音乐推荐功能。ONNX Runtime 的 C API 易于与我们的软件堆栈集成,使我们能够以出色的性能运行和部署 Transformer 模型,以应对实时用例。


-Mathieu Morlon,Deezer 软件工程师

Goodnotes

感谢 ONNX Runtime Web,Goodnotes 无缝实现了“涂抹擦除”功能。这是 Goodnotes 针对 Android、Windows 和 Web 的首个 AI 功能,提供了闪电般的性能和令人难以置信的流畅用户体验。它改变了游戏规则!


-Pedro Gómez,Goodnotes 高级软件工程师

Graiphic

通过 SOTA,我们开发了第一个完全基于 ONNX 和 ONNX Runtime 的完整生态系统。SOTA 不仅支持 AI 工作负载,还在其核心编排基于图的计算,从而实现在 AI 和非 AI 领域中模块化、可扩展和透明的执行。我们相信 ONNX 不仅仅是一种格式,它是未来图原生计算的基础。


-Youssef Menjour,Graiphic 首席技术官兼联合创始人

Hugging Face

我们使用 ONNX Runtime 轻松部署 Hugging Face 模型中心中的数千个最先进的开源模型,并加速 CPU 和 GPU 上 Accelerated Inference API 客户的私有模型。


-Morgan Funtowicz,Hugging Face 机器学习工程师

Hypefactors

ONNX Runtime 为我们许多自然语言处理 (NLP) 和计算机视觉 (CV) 模型提供支持,这些模型实时处理全球媒体格局。它是我们扩展生产工作负载的首选框架,提供从内置量化工具到简单的 GPU 和 VNNI 加速等重要功能。


-Viet Yen Nguyen,Hypefactors 首席技术官

InFarm

InFarm 提供由机器学习驱动的智能农业解决方案,在各种硬件上运行计算机视觉模型,包括本地 GPU 集群、NVIDIA Jetsons 等边缘计算设备,以及基于云的 CPU 和 GPU 集群。ONNX Runtime 使 InFarm 能够标准化跨多个团队生成的模型格式和输出,以简化部署,同时在所有硬件目标上提供最佳性能。


-Ashley Walker,InFarm 首席信息与技术官

英特尔

我们很高兴在 OpenVINO™ 的英特尔® 发行版上支持 ONNX Runtime。这加速了英特尔硬件上的机器学习推理,并为开发人员提供了灵活性,可以根据其需求选择最适合的英特尔硬件组合,从 CPU 到 VPU 或 FPGA。


-Jonathan Ballon,英特尔物联网事业部副总裁兼总经理

Intelligenza Etica

我们使用多种堆栈和框架,将研发与伦理相结合,在各种市场和受监管行业中集成 AI 模型。通过 ONNX Runtime,我们提供最大的性能和灵活性,使客户能够使用他们偏好的技术,从云端到嵌入式系统。


-Mauro Bennici,Intelligenza Etica AI 架构师和 AI 伦理学家

NVIDIA

ONNX Runtime 使我们的客户能够轻松地将 NVIDIA TensorRT 强大的优化应用于机器学习模型,无论其训练框架如何,并在 NVIDIA GPU 和边缘设备上进行部署。


-Kari Ann Briski,NVIDIA 加速计算软件和 AI 产品高级总监

Apache OpenNLP

ONNX Runtime 与 Apache OpenNLP 2.0 的集成使得在 Java 生态系统中轻松使用最先进的自然语言处理 (NLP) 模型成为可能。对于已经使用 OpenNLP 的库和应用程序,例如 Apache Lucene 和 Apache Solr,通过 OpenNLP 使用 ONNX Runtime 提供了令人兴奋的新可能性。


-Jeff Zemerick,OpenSource Connections 搜索相关性工程师兼 Apache OpenNLP 项目主席

Oracle

用于 Java 的 ONNX Runtime API 使 Java 开发人员和 Oracle 客户能够无缝使用和执行 ONNX 机器学习模型,同时利用 Java 的表达能力、高性能和可扩展性。


-Stephen Green,Oracle 机器学习研究组总监

Peakspeed

通过使用通用的模型和代码库,ONNX Runtime 允许 Peakspeed 轻松地在平台之间切换,帮助我们的客户根据其基础设施和要求选择最具成本效益的解决方案。


-Oscar Kramer,Peakspeed 首席地理空间科学家

Pieces.app

ONNX Runtime 为我们提供了一个轻量级的运行时,它专注于性能,同时允许我们的机器学习工程师为手头的任务选择最佳框架和模型。


-Brian Lambert,Pieces.app 机器学习工程师

PTW Dosimetry

PTW 的使命是保证放射治疗的安全。然而,将 AI 模型从研究带入临床可能是一个挑战。这些是截然不同的软件和硬件环境。ONNX Runtime 弥合了这一差距,使我们能够为研究选择最佳工具,并确保部署到任何环境中都能正常工作。


-Jan Weidner,PTW Dosimetry 研究软件工程师

Redis

ONNX Runtime 是 RedisAI 独特能力的基础,它可以在 Redis 内部无缝运行机器学习和深度学习模型推理。这种集成允许数据科学家在他们首选的机器学习框架(PyTorch、TensorFlow 等)中训练模型,并从 Redis 提供这些模型以实现低延迟推理。


-Sam Partee,Redis 应用 AI 首席工程师

瑞芯微

在 ONNX Runtime 的支持下,我们的客户和开发人员可以跨越模型训练框架的界限,轻松地将机器学习模型部署到瑞芯微 NPU 驱动的设备中。


-陈锋,瑞芯微高级副总裁

Samtec

我们需要一个运行时引擎来处理从数据科学领域到高性能生产运行时系统的过渡。ONNX Runtime (ORT) 简直“太好用了”。我以前没有使用 ORT 的经验,但我能够轻松地转换我的模型,并在几个小时内用多种语言运行推理原型。ORT 将成为我未来可预见的运行时引擎。


-Bill McCrary,Samtec 应用架构师

SAS

ONNX Runtime 和 SAS Event Stream Processing 的独特结合,通过支持灵活的管道并使开发人员和系统集成商能够为相同的 AI 模型针对多个硬件平台,而无需进行捆绑和打包更改,从而改变了游戏规则。考虑到持续节省的额外构建和测试工作,这一点至关重要。


-Saurabh Mishra,SAS 物联网产品管理高级经理

Teradata

Teradata 提供了一个高度可扩展的框架,可导入和推理预训练的机器学习 (ML) 和深度学习 (DL) 模型。ONNX Runtime 使我们能够扩展 Vantage Bring Your Own Model (BYOM) 的功能,并为数据科学家在 Teradata Vantage 生态系统中集成、推理和生产部署 ML 和 DL 模型提供更多选择。


-Michael Riordan,Teradata Vantage 数据科学与分析产品总监

Topaz Labs

ONNX Runtime 简单的 C API 和 DirectML 提供程序使 Topaz Labs 仅在几天内就增加了对 AMD GPU 和 NVIDIA Tensor Cores 的支持。此外,我们的模型在 GPU 上的加载速度比任何其他框架都要快很多倍。即使是拥有约 1 亿个参数的大型模型也能在几秒钟内加载完成。


-Suraj Raghuraman,Topaz Labs AI 引擎负责人

Unreal Engine

我们选择 ONNX Runtime 作为 Unreal Engine 的神经网络接口 (NNI) 插件推理系统的后端,因为它可扩展以支持 Unreal Engine 运行的平台,同时使 ML 从业者能够在他们选择的框架中开发 ML 模型。NNI 在 Unreal Engine 中实时评估神经网络,并作为游戏开发人员使用和部署 ML 模型以解决许多开发挑战(包括动画、基于 ML 的 AI、摄像机跟踪等)的基础。


-Francisco Vicente Carrasco,Epic Games 研究工程主管

美国农业部,农业研究服务局

在美国农业部,我们在 GuideMaker 中使用 ONNX Runtime,这是我们开发的一个程序,用于设计大规模 CRISPR-Cas 基因编辑实验所需的引导 RNA 池。ONNX 使我们现有的模型更具互操作性,ONNX Runtime 加快了引导 RNA 结合的预测速度。


-Adam Rivers,美国农业部农业研究服务局计算生物学家

Vespa.ai

ONNX Runtime 大幅提高了 Vespa.ai 评估大型模型的能力,无论是在性能还是我们支持的模型类型方面。


-Lester Solbakken,Vespa.ai 首席工程师

Writer

ONNX Runtime 对我们 Writer 优化生产模型非常有帮助。它让我们能够部署更强大的模型,同时仍能以客户期望的延迟向他们交付结果。


-Dave Buchanan,Writer AI 和 NLP 总监

赛灵思

赛灵思很高兴微软宣布 Vitis™ AI 互操作性和对 ONNX Runtime 的运行时支持,使开发人员能够将机器学习模型部署到 FPGA IaaS(如 Azure NP 系列 VM 和赛灵思边缘设备)进行推理。


-Sudip Nag,赛灵思软件与人工智能产品公司副总裁