为了测试我们的数据库在 GPU 上运行的性能,我们使用 数据集的复杂性 来自亚马逊的美食评论数据集在 TensorFlow 中训练了一个模型。该数据集包含 10 多年来的 500,000 多条评论。我们的模型旨在根据评论文本预测每种产品的得分,我们想要分析其中的情绪。然后,我们可以将 数据集的复杂性 预测得分与数据中可用但未在训练中使用的实际得分进行比较。
该数据集包含分类数据
数字数据和文本数据,这对我们的模型来说是一个不小的 亚洲数据 挑战,该模型基于 TensorFlow 中一个预先训练的模型,称为 Universal Sentence Encoder。 GPU 创造了一个有趣的用例,因为不仅不同的数据类型需要特定的编码策略,而且大量的文本也需要大型模型,这对我们的 GPU 来说将是一个很好的考验。
如果您想了解如何在 GPU 上的 UDF 中 如何撰写访谈文章整理和复习信息的技巧 训练 TensorFlow 模型,请查看 本指南 在 GitHub 上。
在我们的测试中,我们在 Google Cloud Platform (地区:爱荷华州) 上使用以下设置:
在比较 GPU 和
CPU 用于训练我们模型的性能时,K80 完成 目未 印度尼西亚号码列表 能 每个时期的速度比 8 核 CPU 快 9.9 倍(72 秒对 710 秒),比 32 核 CPU 快 2.9 倍(72 秒对 210 秒)。
V100 是目前云端最先进的 GPU,它完成每个时期的速度比 8 核 CPU 快 28.4 倍(25 秒对 710 秒),比 32 核 CPU 快 8.4 倍(25 秒对 210 秒)。
这些结果不言而喻,并为我们的客户和用户提供了将他们的数据科学应用程序直接转移到数据库中的真正机会。