发新帖

AI Hub 和 Kubeflow Pipelines 简介:让 AI 更简单、更快速、对企...

[复制链接]
1440 1

快来加入 TensorFlowers 大家庭!

您需要 登录 才可以下载或查看,没有帐号?加入社区

x
无论是推行服装制造供应链的变革,还是加速电子商务的发展,各行各业的企业正逐渐将目光转向 AI,以期推动可能的发展。但对许多企业而言,全面应用 AI 技术不免太过复杂,令人望而生畏。

我们的目标是让所有企业都能运用 AI 技术,但这意味着必须降低使用门槛。为此,我们在构建所有 AI 产品时都秉承着三个原则:简单,让更多企业都能采用;实用,可以应用于最广泛的组织机构;快速,让企业能够更快地迭代和承继。

今年早些时候,我们推出了 AutoML,以帮助 ML 知识和专业技术有限的企业构建自己的自定义 ML 模型。我们投资开展了专业培训和认证,帮助企业更广泛地发展 ML 技能。我们还为企业提供 Advanced Solutions Lab 等资源,让企业有机会与 Google 的 ML 工程师进行现场协作。所有这些努力都有助推动企业采用 AI 技术。截止到目前,已有超过 15000 名付费用户使用我们的 AI 服务,这些用户遍布许多不同的行业。

为了让 AI 更快速、简单、实用,我们采取的另一个方法是帮助数据科学家提升工作效率。全世界现有大约 2000 万名开发者,而数据科学家只有 200 万。数据科学家需要能够帮助他们提高效率的工具,而组织需要有更多方法借以利用数据科学家的工作成果,同时提供给开发者和工程师使用。我们今天新推出的几款 AI 产品正好可以满足这些需求。

AI Hub 让 AI 更简单

要让 AI 技术走进更多企业,这意味着要让企业能够更容易地发现、共享和重复使用现有的工具和研究成果。但直到最近,由于员工缺乏 ML 知识,企业在构建综合性资源时面临重重挑战。今天我们要推出的 AI Hub 就可以满足这一需求。

AI Hub 是即插即用的 ML 内容一站式平台,包括管道、Jupyter 笔记、TensorFlow 模块等工具。它有两个明显的好处。第一,它让所有企业都能公开使用 Google Cloud AI、Google Research,以及其他 Google 团队开发的高质量 ML 资源。第二,它提供了一个私有且安全的中心,在这里,企业可以在自己的组织内上传和共享 ML 资源。如此,企业只需几步就可以轻松地重复使用管道,并将其部署到 Google 云端平台 (GCP) 中的生产或混合基础架构中。

在 alpha 版中,AI Hub 将提供由 Google 开发的资源和私有共享控制功能,其测试版将扩展到包含更多资源类型和更广泛的公共内容,包括合作伙伴解决方案。

Kubeflow Pipelines 和视频 API 更新让 AI 更实用

仅仅提供一个地方让组织能够发现、共享和重复使用 ML 资源尚不足够,它们还需要构建和打包资源的方法,以便在内部用户中充分利用这些资源。这正是我们推出 Kubeflow Pipelines 的原因之所在。

Kubeflow Pipelines 是 Kubeflow 的新组件,后者是 Google 发起的一个热门开源项目,可以像构建应用一样打包 ML 代码,以便整个组织中的其他用户都可以重复使用这些代码。

Kubeflow Pipelines 提供了一个工作台,用于编写、部署和管理可以重复使用的端到端机器学习工作流程,使其成为从原型设计到投入生产的非锁定混合解决方案。它还可以让实验过程快速可靠,支持用户尝试多种 ML 技术,以确定最适合应用的技术。

ML_techniques.max-1000x1000.png

公平性是我们 AI 指导原则的一部分,也是我们与那些在企业中采用 ML 技术的云客户讨论的内容。Kubeflow Pipelines 可以帮助它们利用 Google 的 TensorFlow Extended (TFX) 开源库,解决生产环境中的 ML 问题,例如模型分析、数据验证、训练服务偏差、数据偏移等。这可以改善企业经营成果的准确性、相关性和公平性。您可以在 GitHub 上开始使用 Kubeflow Pipelines。

除此之外,我们对 AI 构建基块的功能做了扩展,令其对企业的实用性进一步增强,这包括 Cloud Video API 中三个功能的测试版,这些功能可以解决广泛使用视频工作的企业所面临的共同挑战。目前,文本检测功能可以确定文本在视频中出现的位置和时间,让视频更易于搜索,该功能支持 50 多种语言。图像追踪功能可以识别视频中的 500 多类对象。视频语音转录功能可以转录音频,轻松创建标题和字幕,还能提升内容的可搜索性。您可以访问 我们的网站,了解更多有关 AI 构建基块的信息。

Cloud TPU 更新让 AI 更快捷

我们继续使用张量处理单元 (TPU) 来降低 AI 的计算门槛。这些自定义 ASIC 芯片由 Google 专为处理机器学习工作负载而设计,可以极大地提升 ML 任务的处理速度,支持用户通过云端轻松访问。

今年 7 月,我们正式发布了第二代 TPU,每位 Cloud 用户都可以使用该芯片(包括免费用户)。10 月份,我们发布了第三代液冷 Cloud TPU 的测试版,并在 Google Cloud 上提供 PyTorch,用户很快就可以在 TPU 上使用 PyTorch 了。今天,我们还公布了 V2 TPU Pod 的定价。所有这些更新都是为了让计算密集型机器学习速度更快,同时更便于全球企业使用。您可以在我们的网站上了解更多有关 TPU 的信息。

展望未来

在过去的几个月中,我们收到了许多客户的反馈,他们成功使用 AI 解决了独特的业务挑战。

媒体公司 Meredith Corporation 使用机器学习自动进行内容分类,并使用 Cloud AutoML 和自然语言来应用自定义通用分类法。机器学习可以让内容分类更具可重复性和可扩展性,从而节省时间并改善读者体验。

“在 Meredith Corporation,我们专注于为品牌创作适合不同平台和生命周期阶段的精彩内容。我们合作的品牌包括 PEOPLE、Better Homes & Gardens、Martha Stewart Living、Allrecipes 和 Food & Wine,”Meredith Corporation 首席营销和数据官 Alysia Borsa 如是说。“通过使用自然语言和 AutoML 服务将自定义通用分类法应用到我们的内容中,我们能够更好地识别和响应新兴潮流,实现强大的详细定位,并为受众提供更加相关和更有吸引力的体验。”

埃默里大学正在将临床数据、机器学习和可扩展的 GCP 基础架构相结合,用于开发一种败血症预测引擎,该引擎采用实时分析技术,试图改善高危患者的护理,同时控制医疗成本。
“对于败血症,早期检测是关键,”埃默里大学医学院生物医学信息学系助理教授 Ashish Sharma 博士说道。“通过将我们基于 TensorFlow 的败血症预测算法转换为应用,并在 Google App 引擎中运行该应用,我们可以在医生为患者采取有意义的干预措施时,在可操作窗口中提供信息。”“最重要的是,该应用将改善 ICU 中真实患者的治疗效果,而且机器学习对帮助完善患者护理至关重要。”

Geotab 使用 BigQuery ML 和 BigQuery GIS 来预测芝加哥潜在的危险行驶区域、改进数据驱动的决策制定,以及推动智慧城市计划的开展。

“Geotab 提供针对各个大洲商业车队的数据驱动分析结论,”Geotab 数据与分析副总裁 Mike Branch 说。“通过利用机器学习和 BigQuery,以及其他智慧城市数据分析结论,我们已经能够为客户开发出解决方案,根据天气和交通流量预测城市中特别危险的行驶区域。我们非常高兴能与 Google Cloud 协作研究机器学习技术,帮助我们的客户和社区创造更好的解决方案。

我们也很高兴看到 Kubeflow 社区不断发展壮大。很多组织都是这个开源项目的贡献者,例如 NVIDIA、Cisco 和 Intel,它们与我们紧密合作,推动 Kubeflow Pipelines 的应用。NVIDIA 已开始在 Kubeflow 中集成新的开源数据科学库 RAPIDS。RAPIDS 库借助 GPU 显著提高数据预处理和机器学习的速度,与 Kubeflow 可谓相辅相成。

“我们的客户目前正在经历数字化转型,而机器学习正迅速成为其中不可或缺的部分。随着企业 IT 部门和主流工程团队开始寻求部署能够为其业务范围内的数据科学家提供服务的架构,ML 越来越受到人们的青睐。要在企业环境中发挥 ML 的潜力,必须大幅简化整个解决方案的生命周期。”Cisco 产品管理数据中心副总裁 Kaustubh Das 指出,“Cisco 对 Kubeflow 的重大贡献以简化混合/多云 AI/ML 的生命周期管理为目标。Cisco 很高兴看到 Kubeflow Pipeline 问世,这将大大简化 ML 工作流程,对于推动主流团队采用 ML 技术至关重要。我们期待客户能够从这项技术以及我们世界一流的 AI/ML 产品组合中获益。”

“在多云工作负载、深度学习以及基于 Intel 架构的人工智能框架方面,Intel 与 Google 长期保持着工程技术领域的协作。合作研发 Kubeflow Pipelines 就是这一长期协作的最新实例,”Intel 数据中心团队副总裁兼云服务提供商业务总经理 Raejeanne Skillern 表示。“具体而言,我们在 Kubeflow Pipelines 中添加了一些组件,通过 OpenVINO 工具包可以实现模型自动优化,运行对模型服务器的预测和部署,从而为您 Intel 硬件上的 AI 应用提供最先进的推理优化。我们期待能够在此项目上继续与 Google 合作,帮助最终客户实现更出色的性能、更高的效率和更轻松的部署。”

我们将继续与客户和合作伙伴紧密合作,了解他们面临的业务挑战,考虑如何应用 AI 来应对这些挑战。如需详细了解 Google Cloud 上的 AI 和机器学习信息,请访问 我们的网站

本楼点评(0) 收起

精彩评论1

amyacker  TF荚荚  发表于 2019-7-2 18:08:34 | 显示全部楼层
本帖最后由 amyacker 于 2019-7-2 18:11 编辑

谢谢,这很有帮助。 许多ML服务使用google和aws apis。
本楼点评(0) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

快速回复 返回顶部 返回列表