firebase ios
https://firebase.google.com/products/ml-kit/ 昨天,在Google I / O上, Firebase团队以Firebase ML Kit的形式发布了Firebase平台的机器学习功能。 Firebase ML Kit随附了适用于常见移动用例的现成API,包括识别文本,检测面部,扫描条形码,标记图像和识别地标。
Firebase ML Kit可以使用设备API或Cloud API与应用程序集成。 设备上的使用是免费的,云的使用有一个很大的限制。 在本文中,我们将介绍如何创建将与Firebase ML框架和标签图像集成的简单iOS应用。
安装Firebase CocoaPods: 创建Xcode项目后,您需要安装所需的Firebase CocoaPods。 在执行此操作之前,请确保已安装最新版本的CocoaPods。 创建一个pod文件并指定要安装的pod,如下所示:
从终端执行pod install 命令,该终端将按照Podfile的 指定安装pod 。 安装所需的Pod之后,请确保为项目使用工作区 文件,而不是xcodeproj 文件。
在Firebase控制台上配置Firebase项目: 为了使用大多数/所有Firebase功能,您必须在Firebase Console上创建一个Firebase项目。 Firebase控制台提供了一个不错的用户界面,您可以在其中创建Firebase项目。 可以将每个Firebase项目配置为使用Firebase平台提供的许多服务。
Firebase安装程序将创建一个GoogleService-Info.plist 文件,您可以下载该文件并将其复制到Xcode项目中。 最后,通过在didFinishLaunchingWithOptions 函数内调用Firebase.configure()来 配置Firebase,如下所示:
Firebase ML设备上的API:
现在,我们已经设置了Firebase平台,下一步是将其与Firebase ML API集成。 信不信由你,以下是您与Firebase ML On Device API集成所需的全部代码。 我们有一个我们要检测的图像列表。 图像是Xcode项目的一部分,名称存储在数组中。
视觉实例可以访问labelDetector函数,该函数返回labelDetector。 labelDetector帮助检测与图像关联的标签。 VisionImage类使用UIImage或CMSampleBufferRef创建VisionImage实例。 labelDetector实例调用detect函数,并传入visionImage对象,该对象会导致有关图像的预测或错误。 如果没有错误,则只需使用max函数找到具有最高标签的标签,并将其设置为UILabel的文本。
您无需运行循环(52–55),我只是显示所有不同的预测以及从Firebase ML接收到的预测。 结果如下所示:
Firebase ML Cloud API: Firebase ML Cloud API在云上执行图像标签。 这也使它拥有了一个非常大的数据集的能力,该数据集正在不断地更新和完善。
Cloud API的代码与设备上的API非常相似。 唯一的微小变化是我们使用cloudLabelDetector 而不是默认的labelDetector ,如下所示:
如果运行上面的代码,您将在控制台中看到错误消息。 错误消息很可能与未设置Firebase ML Cloud帐户有关。 点击链接并设置您的Firebase ML Cloud帐户。 Google会将$ 300 存入您的帐户,可在第一年使用。
结果如下所示:
希望您喜欢这篇帖子,编码愉快!
[ 下载示例代码 ]
如果您想了解有关将Firebase与iOS应用集成的更多信息,请阅读下面的课程“ 使用Swift语言为iOS掌握Firebase ”。 谢谢你的支持!
使用Swift语言掌握iOS的Firebase 通过构建真实世界的项目来学习将Firebase与iOS应用程序集成! www.udemy.com
翻译自: https://hackernoon.com/getting-started-with-firebase-ml-for-ios-71e578469367
firebase ios