您的位置:清欢网软件专题NVIDIA产品最新评测_NVIDIA产品最新资讯_NVIDIA产品最新介绍 → NVIDIA刷新三项AI自然语言理解技术纪录

NVIDIA刷新三项AI自然语言理解技术纪录

在当前AI 相关应用当中,最多是基于影像辨识做为基础的应用,另外一个领域则是自然语意会话交流的应用,然而能够正确理解人类的语言并不容易, NVIDIA 在今日宣布其基于GPU 加速的技术创下包括BART 的训练时间、最快辨识速度基处设施与达成训练当前最大规模BERT AI 模型的壮举。

因为要能够理解人类的自然语言实际上也是需要经过翻译的过程,如何把人类自然语意叙述的内容正确的转化为他们所表达的意义,是AI 在自然语意会话所需的能力,但用于训练自然语意辨识的模型相当庞大,基本的影像辨识模型约需要2,600 万笔参数,然而自然语意的复杂度需要更庞大的训练参数,这也意味着训练如此大规模的模型需要比起影像辨识更多的时间。

NVIDIA刷新三项AI自然语言理解技术纪录

自然语意对话AI 在2017 年起由Google 挑起战火,而后陆续包括微软、阿里巴巴、 Uber 、百度与Facebook 等也都投入相关技术,毕竟自然语意对话可应用在相当广泛的领域,诸如内容搜寻、语音助理、客服机器人、零售对话机器人等等,同时亦可作为各家技术大厂在AI 技术力的展示。

NVIDIA 此次所创下的第一项纪录是打破BERT 模型的训练纪录,透过NVIDIA 架设在总部的新一代超级电脑DGX SuperPOD ,一举将BERT-Large 训练时间压缩到53 分钟内,更难能可贵的是在增加大量的GPU 后,性能仍呈现线性的增长,并未因为处理器的叠加而呈现衰竭,其关键在于DGX SuperPOD 采用了InfiniBand 技术使DGX-H2 模组相互连接,使模组之间以高速通道相互连接,同时还具备容易扩充与建设的特性。即便以单一DGX-2 系统进行BERT-Large 训练,仍能在2.8 天内完成。

另一项指标性的纪录是达成高速推论速度的基础建设,透过训练完成的BERT 模型导入到基于NVIDIA Tesla T4 16GB GPU 的AI 基础设施,并搭配TensorRT 执行,达到2.2ms 的反应速度,远胜过基于CPU 伺服器的表现,更较业界普遍认定实用级的10ms 推论速度还快。

第三项NVIDIA 在AI 自然语言理解的成就就是达到前所未有的大规模模型训练,此次NVIDIA 所使用的客制化超大型BERT 达到83 亿笔参数,也是当前最大规模的AI 模型,远大于BERT- Large 的24 倍,这也是拜新一代超级电脑架构的性能与记忆体规模能够迅速处理这样的大型模型,更大型的BERT 模型亦有助于处理更复杂的自然语言。

此次NVIDIA 也宣布将多项自然语言理解软体开放,希望能够促使基于自然语意理解 AI 技术发展,让更多技术能够应用新一代对话AI 解决各领域的问题。当前大型企业如微软也使用基于NVIDIA GPU 技术的Azure AI 平台训练BERT 并在Bing 提供更精确的搜寻结果,新创公司Clinc 也藉由NVIDIA 提供的对话AI 解决方案为国际级汽车制造商、医疗保健组织、金融机构、旅游与饭店业者等提供基于自然与易理解的AI 客服。

NVIDIA产品最新评测_NVIDIA产品最新资讯_NVIDIA产品最新介绍

NVIDIA专区

专题介绍:

NVIDIA产品专注于显卡,我们游戏的显卡跟他是都有关联的,可见NVIDIA产品到底有多厉害,那么他的产品又有哪些过人之处呢?就让我们一起来看看吧!

进入专题

关于我们|免责申明|商务合作|友情链接|网站地图

@2019- QHmanhua.com 清欢网 All Rights Reserved