Gemini Pro 和 Gemini Flash 模型系列为 Android 开发者提供了多模态 AI 功能,可在云端运行推理,并处理 Android 应用中的图像、音频、视频和文本输入。
- Gemini Pro:Gemini 2.5 Pro 是 Google 最先进的思维模型,能够推理代码、数学和 STEM 领域的复杂问题,并使用长上下文分析大型数据集、代码库和文档。
- Gemini Flash:Gemini Flash 模型提供下一代功能和改进的能力,包括卓越的速度、内置工具使用和 1M token 上下文窗口。
Firebase AI 逻辑
Firebase AI 逻辑使开发者能够安全地将 Google 的生成式 AI 直接添加到其应用中,从而简化开发,并提供工具和产品集成,以实现成功的生产就绪。它提供了客户端 Android SDK,可以直接从客户端代码集成和调用 Gemini API,通过消除对后端的依赖来简化开发。
API 提供商
Firebase AI 逻辑允许您使用以下 Google Gemini API 提供商:Gemini 开发者 API 和 Vertex AI Gemini API。
以下是每个 API 提供商的主要区别
- 免费入门,无需提供付款信息即可享受慷慨的免费使用层。
- 可选择升级到 Gemini 开发者 API 的付费层,以随着用户群的增长而扩展。
- 使用 Google AI Studio 迭代和试验提示,甚至获取代码片段。
- 对您访问模型的地点进行精细控制。
- 非常适合已融入 Vertex AI/Google Cloud 生态系统的开发者。
- 使用 Vertex AI Studio 迭代和试验提示,甚至获取代码片段。
为您的应用选择合适的 API 提供商取决于您的业务和技术限制,以及您对 Vertex AI 和 Google Cloud 生态系统的熟悉程度。大多数刚开始集成 Gemini Pro 或 Gemini Flash 的 Android 开发者应从 Gemini 开发者 API 开始。提供商之间的切换通过更改模型构造函数中的参数来完成
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
请参阅 Firebase AI 逻辑客户端 SDK 支持的可用生成式 AI 模型完整列表。
Firebase 服务
除了访问 Gemini API,Firebase AI 逻辑还提供了一套服务,以简化 AI 启用功能的应用部署并为生产做好准备
应用校验
Firebase App Check 通过确保只有经过授权的客户端才能访问资源来保护应用后端免受滥用。它与 Google 服务(包括 Firebase 和 Google Cloud)和自定义后端集成。App Check 使用 Play Integrity 验证请求是否源自真实的应用和未被篡改的设备。
远程配置
我们建议使用 Firebase Remote Config 中的服务器控制变量,而不是在您的应用中硬编码模型名称。这使您可以在无需部署新版本应用或要求用户获取新版本的情况下动态更新应用使用的模型。您还可以使用远程配置进行模型和提示的A/B 测试。
AI 监控
要了解您的 AI 启用功能的表现,您可以使用 Firebase 控制台中的AI 监控信息中心。您将获得关于 Gemini API 调用的使用模式、性能指标和调试信息的宝贵洞察。
迁移到 Firebase AI 逻辑
如果您已在应用中使用 Firebase SDK 中的 Vertex AI,请阅读迁移指南。