|
|
|
|
公众号矩阵

全面解读谷歌云人工智能如何为机器学习提供帮助

研究表明,虽然Google Cloud AI(谷歌云人工智能)和机器学习平台缺少一些功能,并且仍处于测试阶段,但其范围和质量在行业中仍是首屈一指的。

作者:李睿编译来源:51CTO|2020-11-16 09:00

【51CTO.com快译】研究表明,虽然Google Cloud AI(谷歌云人工智能)和机器学习平台缺少一些功能,并且仍处于测试阶段,但其范围和质量在行业中仍是首屈一指的。

谷歌公司拥有行业规模最大的机器学习堆栈之一,目前以其Google Cloud AI和机器学习平台为中心。谷歌公司在数年前就开源了TensorFlow,但TensorFlow仍然是一个最成熟的、并且广泛引用的深度学习框架。同样,谷歌公司几年前将Kubernetes剥离成为开源软件,但它仍然是主要的容器管理系统。

谷歌云平台是开发人员、数据科学家和机器学习专家的最佳工具和基础设施来源之一,但是从历史上看,对于缺乏认真的数据科学或编程背景的业务分析师而言,Google Cloud AI的吸引力并不大。而这种情况现在开始改变。

Google Cloud AI和机器学习平台包括人工智能构建块、人工智能平台和加速器以及人工智能解决方案。这些是针对业务主管而不是数据科学家的相当新的人工智能解决方案,其中可能包括来自谷歌公司或其合作伙伴的咨询。

经过预先训练但可自定义的人工智能构建块可以在不熟悉编程或数据科学的情况下使用。尽管如此,出于实用的原因,数据科学家经常使用它们,从本质上讲,无需大量的模型培训即可完成工作。

人工智能平台和加速器通常面向数据科学家,并且需要编码技能、数据准备技术知识和大量培训时间。为此建议在尝试了相关构建模块之后再去实施。

Google Cloud AI产品中仍然缺少一些链接,尤其是在数据准备方面。Google Cloud与数据导入和调节服务最接近的是Trifacta公司的第三方Cloud Dataprep。但是,内置在Cloud AutoML Tables中的功能工程很有希望,并且将这种服务用于其他情况将很有用。

人工智能的阴暗面与责任感(或缺乏道德感)以及持久的模型偏见(通常是由于用于训练的偏见数据)有关。谷歌公司于2018年发布了人工智能原则。这项工作仍在进行中,但这是指导的基础,最近在有关责任人工智能的博客文章中对此进行了讨论。

谷歌公司在人工智能市场上有很多竞争对手,而公共云市场上也有很多竞争对手(云计算供应商超过六家)。为了公平地进行比较,并且进行总结:AWS云平台可以完成谷歌云平台的大部分工作,并且也非常出色,但是通常收取更高的价格。

谷歌云的人工智能构建块不需要太多的机器学习专业知识,而需要基于预先训练的模型和自动训练。人工智能平台可以让用户训练和部署自己的机器学习和深度学习模型。

Google Cloud AI构建基块

Google Cloud AI构建基块是易于使用的组件,用户可以将其合并到自己的应用程序中以添加视觉、语言、对话和结构化数据。许多人工智能构件都是经过预训练的神经网络,但是如果它们不能满足用户的需求,则可以使用转移学习和神经网络搜索进行自定义。AutoML Tables有所不同,因为它可以使用数据科学家来为表格数据集找到最佳机器学习模型的过程实现自动化。

AutoML

Google Cloud AutoML服务为语言对翻译、文本分类、对象检测、图像分类和视频对象分类和跟踪提供定制的深层神经网络。它们需要标记数据进行培训,但不需要深入学习、转移学习或编程方面的重要知识。

Google Cloud AutoML可以为用户的标记数据自定义经过谷歌公司测试的、高精度的深度神经网络。AutoML从数据中训练模型,而不是从头开始,AutoML为语言对翻译和上面列出的其他服务实现了自动深度转移学习(意味着从现有的基于其他数据的深层神经网络开始)和神经结构搜索(意味着找到了额外网络层的正确组合)。

在每一个领域,谷歌公司已经有一个或多个基于深度神经网络和大量标签数据的预先训练服务。这些方法很可能适用于未经修改的数据,用户应该对此进行测试,以节省时间和成本。如果他们没有做到,Google Cloud AutoML可以帮助用户创建一个能做到的模型,而不需要用户知道如何执行转移学习或如何设计神经网络。

与从头开始训练神经网络相比,转移学习具有两个主要优点:首先,它需要的训练数据要少得多,因为网络的大多数层已经经过了良好的训练。其次,它训练得更快,因为它只优化最后一层。

虽然过去通常将Google Cloud AutoML服务打包在一起提供,但现在列出了它们的基本预训练服务。其他大多数公司所说的AutoML是由Google Cloud AutoML Tables执行的。

为此测试AutoML Vision自定义花卉分类器,采用一个小时的时间从Google样本图像中训练了这个分类器,并在附近艺术博物馆拍摄了郁金香的照片进行比较。

AutoML Tables

对于许多回归和分类问题,通常的数据科学过程是创建数据表以进行训练、清理和整理数据,执行特征工程,并尝试在转换后的表上训练所有适当的模型,包括进行优化的步骤最佳模型的超参数。在人工识别目标字段后,Google Cloud AutoML Tables可以自动执行整个过程。

AutoML Tables会自动在Google的model-zoo中搜索结构化数据,以找到最适合的模型,从线性/逻辑回归模型(用于更简单的数据集)到高级的深度、集成和架构搜索方法(用于更大型、更复杂的模型)不等。它可以自动执行各种表格数据原语(例如数字、类、字符串、时间戳和列表)上的要素工程,并帮助用户检测和处理缺失值、异常值和其他常见数据问题。

其无代码界面可指导用户完成整个端到端机器学习生命周期,从而使团队中的任何人都可以轻松构建模型,并将其可靠地集成到更广泛的应用程序中。AutoMLTables提供了广泛的输入数据和模型行为可解释性功能,以及用于防止出现常见的错误。AutoMLTables也可在API和笔记本环境中使用。

AutoML Tables与其他几种AutoML实现和框架竞争。

从功能设计到部署,AutoML Tables实现了用于为表格数据创建预测模型的整个流程的自动化。

在AutoML Tables的分析阶段可以看到所有原始功能的描述性统计信息。

免费的Google Cloud Vision“尝试API”界面允许将图片拖动到网页上并查看结果。可以看到孩子在微笑,因此“Joy”标签正确。但该算法无法完全识别所戴的帽子。

Vision API

Google Cloud Vision API是一项经过预先训练的机器学习服务,用于对图像进行分类并提取各种功能。它可以将图像分为数千种经过预先训练的类别,从图像中发现的通用对象和动物(例如猫)到一般情况(例如黄昏),再到特定地标(艾菲尔铁塔和大峡谷),并确定图像的一般属性,例如其主导色。它可以隔离脸部区域,然后对脸部进行几何分析(面部方位和地标)和情感分析,尽管它不会将某人脸部识别为特定人物,但名人(需要特殊使用许可)除外。Vision API使用OCR检测图像中超过50种语言和各种文件类型的文本。它还可以识别产品徽标,并检测成人、暴力和医疗内容。

Video Intelligence API

谷歌云的Video Intelligence API会自动识别存储和流式视频中的2万多个对象、位置和动作。它还可以区分场景变化,并在视频、快照或帧级别提取丰富的元数据。它还使用OCR执行文本检测和提取,检测显式内容,自动关闭字幕和说明,识别徽标,并检测人脸、人物和姿势。

谷歌公司建议使用Video Intelligence API来提取元数据以索引、组织和搜索用户的视频内容。它可以录制视频并生成隐藏字幕,以及标记和过滤不适当的内容,所有这些都比人工录制更具成本效益。用例包括内容审核、内容推荐、媒体存档、广告。

Natural Language API

自然语言处理(NLP)是其“秘方”的重要组成部分,可以使对Google Search和Google Assistant的输入效果很好。Natural Language API将相同的技术公开给用户的程序。它可以使用10种语言执行语法分析、实体提取、情感分析和内容分类。如果用户了解某种语言,可以指定使用。否则,API将尝试自动检测语言。当前可应要求提前提供一个单独的API,专门处理与医疗保健相关的内容。

Translation API

Translation API可以翻译一百多种语言,如果用户没有指定,则可以自动检测源语言,并提供三种版本:基本翻译、高级翻译、媒体翻译。高级翻译API支持词汇表,批处理翻译和自定义模型的使用。基本翻译API本质上是消费者Google翻译界面所使用的API。而AutoML Translation允许用户使用转移学习来训练自定义模型。

Media Translation API直接以12种语言从音频文件或流文件中转换内容,并自动生成标点符号。视频和电话通话音频有不同的模型。

Text-to-Speech

Text-to-Speech(文字转声音)的 API可以将纯文本和SSML标记转换为声音,可以选择200多种声音和40种语言和变体。其变体包括不同的国家和民族口音,例如美国、英国、南非、印度、爱尔兰和澳大利亚的语言。

其基本的声音听起来通常很机械。WaveNet声音通常听起来更自然,但使用成本较高。用户还可以从自己的录音室质量的录音中创建自定义声音。

用户可以将合成声音的速度调高或调慢4倍,将音调调高或调低20个半音。SSML标签允许用户添加暂停、数字、日期和时间格式以及其他发音说明。还可以将音量增益最多增加16分贝,或将音量最多减小96分贝。

Speech-to-Text

Speech-to-Text (声音转文字)API使用谷歌公司先进的深度学习神经网络算法将语音转换为文字,以实现自动语音识别(ASR)。它支持超过125种语言和变体,可以在本地(带有许可证)以及在谷歌云平台中进行部署。Speech-to-Text可以针对较短的音频样本(一分钟或更短)进行同步运行,针对较长的音频(最长达到480分钟)进行异步处理,并可以进行流传输以进行实时识别。

用户可以通过提供提示来自定义语音识别,以转录特定于领域的术语和稀有单词。有专门的ASR模型用于视频、电话、命令和搜索,以及“默认”(其他任何东西)。虽然用户可以在API请求中嵌入编码的音频,但更多情况下,用户将为存储在Google云存储桶中的二进制音频文件提供URI。

Dialogflow

Dialogflow Essentials建立在“Speech-to-Text” (声音转文字)和“Text-to-Speech” (文字转声音)的基础上,并且可以利用40多个预先构建的代理作为模板,用于具有单个主题对话的小型机器人。Dialogflow CX是一个高级开发套件,用于创建会话式人工智能应用程序,包括聊天机器人、语音机器人和IVR(交互式语音响应)机器人程序。它包括一个可视化的机器人构建平台(见下面的屏幕截图)、协作和版本控制工具以及高级IVR功能支持,并针对企业规模和复杂性进行了优化。

Dialogflow CX是用于复杂语音交互虚拟代理的设计器。设计师在此处列出了意图“store.location”的十个短语。类似的短语也会被识别出来。

Inference API

时间序列数据通常需要进行一些特殊的处理,尤其是如果用户希望除了处理大型历史数据集之外还对流数据实时执行数据处理,尤其如此。完全托管的无服务器Inference API目前处于有限的Alpha测试中,可使用事件时间标记检测趋势和异常,处理包含多达数百亿个事件的数据集,每秒可以运行数千个查询,并以低延迟进行响应。

Recommendations API

使用机器学习来建立有效的推荐系统被认为是一个棘手和耗时的问题。谷歌公司已经用推荐API实现了这一过程的自动化,目前还在测试阶段。这项完全管理的服务负责预处理用户的数据、培训和调整机器学习模型,以及提供基础设施。它也纠正了偏见和季节性。它集成了相关的谷歌服务,如Analytics 360、Tag Manager、Merchant Center、云存储和BigQuery。初始模型培训和调整需要两到五天的时间才能完成。

Google Cloud AI平台

Google Cloud AI平台和加速器面向开发者、数据科学家和数据工程师。大多数情况下,使用Google Cloud AI平台来解决问题可能是一项巨大的努力。如果用户可以通过使用人工智能构建块来避免这种努力,则应该这样做。

Google Cloud AI平台促进了开发人员、数据科学家和数据工程师的端到端机器学习工作流程。虽然它不能帮助用户获取数据或为模型编码,但可以帮助将其余的机器学习工作流程结合在一起。

Google Cloud AI平台将大多数机器学习工作流程联系在一起,从模型培训到模型版本控制和管理。

人工智能平台包括几个模型训练服务和各种机器类型的训练和调整,包括GPU和TPU加速器。预测服务允许用户从任何经过培训的模型中提供预测;它不仅限于用户自己训练的模型或用户在谷歌云平台上训练的模型。

AI Platform Notebooks在谷歌云平台的虚拟机实现了JupyterLab Notebooks,并预先配置了TensorFlow、PyTorch和其他深度学习软件包。人工智能平台数据标签服务使用户可以为要用于训练模型的数据集请求人工标签。人工智能平台深度学习虚拟机映像针对关键的机器学习框架和工具以及GPU支持针对数据科学和机器学习任务进行了优化。

AI Platform Notebooks

对于许多数据科学家来说,使用Jupyter或JupyterLab Notebook是开发、共享模型和机器学习工作流的最简单方法之一。 AI Platform Notebooks使创建和管理通过JupyterLab、Git、GCP集成,以及用户选择的Python 2或Python 3、R、Python或R核心程序包、TensorFlow、PyTorch和CUDA预先配置的安全虚拟机变得更加简单。

虽然Kaggle和Colab也支持Jupyter Notebooks,但Kaggle面向的是爱好者和学习专业人士,Colab面向的是研究人员和学生,而AI Platform Notebooks则面向企业用户。对于繁重的工作,AI Platform Notebooks可以使用深度学习虚拟机、Dataproc集群和Dataflow,并且可以连接到GCP数据源,例如BigQuery。

用户可以从小型虚拟机开始开发,然后再扩展到具有更多内存和CPU的功能更强大的虚拟机,并可能使用GPU或TPU进行深度学习培训。用户还可以将Notebooks保存在Git存储库中,并将其加载到其他实例中。或者可以使用下面讨论的人工智能平台培训服务。

以下是一个使用AI Notebooks的实施代码实验室。以下是该实验的屏幕截图。里面的一个目录有预先加载到JupyterLab中的示例Notebooks。它们看起来很有趣。

当创建新的Google Cloud AI Notebook实例时,可以选择环境的起点。以后可以优化虚拟机。

代码实验室的开头设置了程序包导入,并针对公共BigQuery数据集运行查询以获取用于分析和模型训练的数据。该代码实验室自由地混合了Pandas、TensorFlow、NumPy和Scikit-learn的方法。Witwidget是Google假设工具。

在导入数据后,代码实验室会将其拆分以进行测试和培训,并训练一个简单的完全连接的神经网络。该实验的重点是演示Google Cloud AI Notebook,而不是训练最佳的模型,因此只有10个周期,最终的均方误差并不是那么大。

可解释人工智能和假设工具

如果用户使用TensorFlow作为框架来构建和拟合模型,则可以使用谷歌公司的假设分析工具来了解更改训练数据中的值可能如何影响模型。在其他领域称之为敏感性研究。假设分析工具还可以显示许多有用的图形。

如果适合TensorFlow模型,则可以使用Cloud AI Notebook中的Google假设工具来探索模型的可解释性。

人工智能平台训练

与模型开发相比,模型训练通常需要更多的计算资源。用户可以在Google Cloud AI Notebook或自己的小型数据集上训练简单模型。要在大型数据集上训练复杂的模型,使用AI Platform Training服务可能会更好。

训练服务针对存储在Cloud Storage存储桶、Cloud Bigtable或其他GCP存储服务中的训练和验证数据,运行存储在Cloud Storage存储桶中的训练应用程序。如果用户运行内置算法,则无需构建自己的训练应用程序。

用户可以训练使用云存储(目前是TensorFlow、Scikit learn和XGBoost)的代码包的模型,以及使用来自云存储的自定义容器映像的模型和使用内置算法的模型。用户还可以使用从人工智能平台深度学习容器派生的预构建PyTorch容器映像。

目前的内置算法有XGBoost、分布式XGBoost、线性学习、广度和深度学习、图像分类、图像对象检测和TabNet。除了图像分类和图像对象检测之外,所有这些算法都是从表格数据中训练出来的。目前,除XGBoost以外的所有算法都依赖TensorFlow 1.14。

用户可以从人工智能平台控制台的“作业”选项卡运行人工智能平台培训,也可以发出Google Cloud AI平台作业提交训练命令来运行人工智能平台培训。命令行调用方法还可以自动将模型代码上传到Cloud Storage存储桶。

用户可以使用分布式XGBoost、TensorFlow和PyTorch进行分布式人工智能平台训练。每个框架的设置都不同。对于TensorFlow,有三种可能的分配策略,以及“规模等级”的六个选项,它们定义了训练集群的配置。

超参数调整通过对具有不同训练过程变量的模型进行多次训练(以设置可变权重)(例如通过设置学习率来控制算法)来工作。用户可以相当简单地在TensorFlow模型上执行超参数调整,因为TensorFlow在摘要事件报告中返回其训练指标。对于其他框架,用户可能需要使用cloud ml-hypertune Python软件包,以便人工智能平台训练可以检测模型的指标。定义训练作业时,用户可以设置要调整的超参数、范围以及调整搜索策略。

用户可以使用GPU或TPU进行训练。通常,用户需要指定一个实例类型,其中包括要使用的GPU或TPU,然后从代码中启用它们。模型越大,越复杂,GPU或TPU加速其训练的可能性就越大。

Google Cloud AI Platform Jobs是用户如何使用三个机器学习框架之一或自定义容器映像来设置模型训练的方法。选择框架时,还必须选择一个版本。

内置算法是为自定义模型提供机器学习框架和代码的替代方法。

AI Platform Vizier

执行超参数优化的另一种方法是使用AI平台Vizier(黑盒优化服务)。Vizier进行了多次试验研究,并且可以解决许多类型的优化问题,而不仅仅是人工智能训练。Vizier仍处于Beta测试中。

AI Platform Prediction

在拥有训练有素的模型后,用户需要将其部署以进行预测。AI Platform Prediction管理云平台中的计算资源以运行用户的模型。用户将模型导出为可部署到AI Platform Prediction的工件。无需在Google Cloud AI上训练模型。

AI Platform Prediction假设模型会随着时间而变化,因此模型包含版本,并且可以部署版本。这些版本可以基于完全不同的机器学习模型,尽管如果模型的所有版本都使用相同的输入和输出会有所帮助。

这张照片和它的叠加显示了有助于模型将动物识别为猫而不是狗的区域。

AI Platform Prediction分配节点以处理发送到模型版本的在线预测请求。部署模型版本时,可以自定义AI Platform Prediction用于这些节点的虚拟机的数量和类型。节点并非完全是虚拟机,但是底层的机器类型是相似的。

用户可以允许AI Platform Prediction自动或人工缩放节点。如果将GPU用于模型版本,则无法自动缩放节点。如果分配的计算机类型对于模型而言太大,则可以尝试自动缩放节点,但是可能永远无法满足用于缩放的CPU负载条件。在理想情况下,用户将使用刚好适合其机器学习模型的节点。

除了预测之外,该平台还可以针对特定预测以特征归因的形式提供人工智能解释。目前正在进行Beta测试。可以将特征归因用作表格数据的条形图和图像数据的覆盖图。

AI Platform Deep Learning VM Images

当用户从普通的原始操作系统开始时,配置其环境以进行机器学习和深度学习,CUDA驱动程序以及JupyterLab有时可能需要训练模型的时间,至少对于简单模型而言是这样。使用预配置的映像可以解决这个问题。

用户可以使用TensorFlow、TensorFlow Enterprise、PyTorch、R或其他六种框架来选择人工智能平台深度学习虚拟机映像。所有图像都可以包括JupyterLab,并且打算与GPU一起使用的图像可以具有CUDA驱动程序。

用户可以通过Google Cloud命令行(通过Google Cloud SDK安装)或Google Cloud市场创建实例。创建虚拟机时,用户可以选择虚拟CPU的数量(也需确定内存数量)以及GPU的数量和种类。用户会根据所选的硬件看到每月费用的估算值,并获得持续使用的折扣。这些框架不收取额外费用。如果选择带有GPU的虚拟机,则需要等待几分钟来安装CUDA驱动程序。

用户可以从Google Cloud Console和命令行创建深度学习虚拟机。需要注意,CUDA驱动程序和JupyterLab安装均只需要选中一个复选框。框架、GPU、机器类型和区域选择是从下拉列表中完成的。

AI Platform Deep Learning Containers

谷歌公司还提供了适用于本地计算机或Google Kubernetes Engine(GKE)上的Docker的深度学习容器。容器具有用户可能需要的所有框架、驱动程序和支持软件,与虚拟机映像不同,虚拟机映像仅允许用户选择所需的内容。深度学习容器目前处于beta测试中。

AI Platform Pipelines

MLOps(机器学习操作)将DevOps(开发人员操作)实践应用于机器学习工作流。许多Google Cloud AI平台都以某种方式支持MLOps,但人工智能平台管道是MLOps的核心。

当前处于beta测试的AI Platform Pipelines通过减轻用户使用TensorFlow Extended(TFX)设置Kubeflow Pipelines的难度,使开始使用MLOps更加容易。开源Kubeflow项目致力于使机器学习工作流在Kubernetes上的部署简单,可移植且可扩展。Kubeflow Pipelines是Kubeflow的一个组件,目前处于beta测试中,它是用于部署和管理端到端机器学习工作流的全面解决方案。

当Spotify将其MLOps切换到Kubeflow Pipelines和TFX时,一些团队将其实验数量增加了7倍。

TensorFlow Extended是用于部署生产机器学习管道的端到端平台。 TFX提供了一个工具包,可帮助用户在各种编排器(如Apache Airflow、Apache Beam和Kubeflow Pipelines)上协调机器学习过程,从而使实施MLOps更加容易。Google Cloud AI Platform Pipelines使用TFX Pipelines,这是DAG(有向无环图),使用Kubeflow Pipelines,而不是Airflow或Beam。

用户可以通过Google Cloud控制台中人工智能平台的“管道”标签管理人工智能平台管道。创建一个新的管道实例将创建一个Kubernetes集群,一个云存储桶和一个Kubeflow管道。然后,用户可以根据示例定义管道,也可以使用TFX从头开始定义管道。

Spotify使用TFX和Kubeflow改进了其MLOps。该公司报告说,一些团队正在进行7倍以上的实验。

AI Platform Data Labeling Service

Google Cloud AI Platform数据标签服务可让用户与人工标签人员一起为可在机器学习模型中使用的数据集合生成高度准确的标签。该服务目前处于beta测试阶段,由于发生新冠疫情,因此可用性非常有限。

AI Hub

Google Cloud AI Hub目前处于beta测试中,可为构建人工智能系统的开发人员和数据科学家提供一系列资产。用户可以查找和共享资产。即使以beta形式,AI Hub似乎也很有用。

Google Cloud AI Hub是一种在谷歌云平台上学习、构建和共享人工智能项目的快速方法。

TensorFlow Enterprise

TensorFlow Enterprise为用户提供了TensorFlow的Google Cloud优化发行版,并具有长期版本支持。TensorFlow Enterprise发行版包含定制的TensorFlow二进制文件和相关软件包。每个版本的TensorFlow企业版发行版都基于特定版本的TensorFlow;包含的所有软件包都可以在开源中获得。

Google Cloud AI Solutions

谷歌公司针对企业高管,而不是面向数据科学家或程序员推出人工智能解决方案。解决方案通常带有可选的咨询或合同开发组件。咨询服务也可单独提供。

Contact Center AI

Contact Center AI(CCAI)是用于联络中心的谷歌解决方案,旨在提供人性化的互动。它建立在Dialogflow的基础上,可以提供虚拟代理,监视客户意图,在必要时切换到实时座席并为人工代理提供帮助。谷歌公司有六家合作伙​​伴,可帮助用户开发和部署CCAI解决方案,并支持和培训您的代理商。

Build and Use AI

Build and Use AI是通用定义的解决方案,主要提供谷歌公司的人工智能专业知识,人工智能构建基块和人工智能平台来解决用户的业务问题。除其他好处之外,该解决方案还可以帮助用户通过管道自动化和CI/CD设置MLop。

Document AI

Document AI将Google Vision API OCR构建块与Cloud Natural Language结合使用,以从通常以PDF格式提供的商业文档中提取和解释信息。其他组件可解析常规表格和发票表格。针对抵押贷款处理和采购的行业特定解决方案目前正在测试中。谷歌公司有六个合作伙​​伴可以帮助实施Document AI解决方案。

各种工具的定价

Cloud AutoML Translation:训练:每小时76美元;分类:在前50万个字符后,每百万个字符需支付80美元。

Cloud AutoML Natural Language:训练:每小时3美元;分类:在前3万条记录之后的每千条记录需要支付5美元。

Cloud AutoML Vision:训练:在第一个小时后每小时为20美元;分类:前1000个图像后每千个图像为3美元。

Cloud AutoML Tables: 训练:6小时免费一次性使用+每小时19.32美元(并行使用92台n1-standard-4等效服务器);批量预测:6小时免费一次性使用+每小时1.16 美元(并行使用5.5台n1-standard-4等效服务器);在线预测:每小时0.21美元(1台n1-standard-4等效服务器)。

Video:在每月第一个1000分钟后,每分钟将支付4美分到7美分。

Natural Language:每月第5,000个单元后,每1,000个单元需要支付0.5美元到2美元。

Translation:在每月前50万个字符之后,每百万个字符需要支付20美元。

Media Translation:每月首个60分钟之后,每分钟需要支付0.068美元至0.084美元。

Text to speech:每月首个400万个字符后,每100万个字符需要支付4美元,

Speech to text:每月首个60分钟后,每15秒需要支付0.004至0.009美元。

Dialogflow CX代理:100次聊天会话需要支付20美元,100次语音会话需要支付45美元。

Dialogflow ES代理:因模式而异,反映了基本的语音和自然语言收费。

Recommendations AI: 2.5美元/节点/小时,用于训练和调整;每月2000万个请求以上的数量折扣的预测为0.27美元/1000个。

GPU:0.11到2.48美元/GPU/小时。

TPU:每小时需要支付1.35到8美元。

AI Platform Training:每小时需要支付0.19到21.36美元。

AI Platform Predictions: 需要支付0.045到1.13美元/节点/小时,加上GPU价格为0.45到2.48美元/ GPU /小时。

平台

所有服务均在Google Cloud Platform上运行;一些也可以在内部部署设施或容器中运行。

原文标题:Review: Google Cloud AI lights up machine learning,作者:Martin Heller

【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】

【编辑推荐】

  1. 微软技术专家认为短信验证方式并不安全
  2. 关于感知器的故事:机器学习是如何发展到如今这一程度的呢?
  3. Java源代码保护方法,通过加密技术保护源代码
  4. Unity“出圈”:游戏引擎的技术革新和跨界商机
  5. 10个丰富自我的机器学习项目
【责任编辑:华轩 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

订阅专栏+更多

云原生架构实践

云原生架构实践

新技术引领移动互联网进入急速赛道
共3章 | KaliArch

28人订阅学习

数据中心和VPDN网络建设案例

数据中心和VPDN网络建设案例

漫画+案例
共20章 | 捷哥CCIE

192人订阅学习

搭建数据中心实验Lab

搭建数据中心实验Lab

实验平台Datacenter
共5章 | ITGO(老曾)

119人订阅学习

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊

51CTO服务号

51CTO官微