在 Android 上使用 LiteRT

Android 上的 LiteRT 提供了将高性能自定义 ML 功能部署到 Android 应用中的基本要素。

Diagram illustrating the architecture of LiteRT, a framework for
running machine learning models on Android devices. It shows the components
involved, including the ML runtime, hardware acceleration delegates, and Google
Play services.

用于 ML 运行时的 LiteRT

将 LiteRT 与 Google Play 服务(Android 的官方 ML 推理运行时)结合使用,可在您的应用中运行高性能 ML 推理。 了解详情

使用 LiteRT 委托进行硬件加速

使用通过 Google Play 服务分发的 LiteRT 委托,可在 GPU 或 NPU 等专用硬件上运行加速 ML。通过访问先进的设备端计算能力,这有助于您为用户提供更流畅、延迟更低的用户体验。

我们为 GPU 委托提供支持,并正与合作伙伴合作,通过 Google Play 服务提供对其自定义委托的访问权限,以支持高级用例。 了解详情

由 Google Play 服务启用

使用 Google Play 服务访问 LiteRT 运行时和委托。这可确保使用最新的稳定版本,同时最大限度地减小对应用二进制文件大小的影响。 了解详情

代码示例

查看 LiteRT Android 代码示例并在您的设备上测试 ML 功能。 了解详情

LiteRT 入门

下载示例代码,开始使用 LiteRT 和 Android。 了解详情

加速服务

加速服务 API 允许您在运行时安全地选择最佳硬件加速配置,而无需担心底层设备硬件和驱动程序。 了解详情