当前越来越多的企业将AI应用到业务中,但过程中也受到专业技能缺乏、数据不足以及开发周期较长等问题的困扰。NVIDIA为解决这个问题,推出了新的TAO”道”框架来简化AI 工作流,达到缩短时间、降低成本的效果。NVIDIA 五年来投入了数亿个 GPU 计算小时来完善和调试了上千个预训练模型(PTM,包括计算机视觉、对话式 AI 、乃至自然语言理解等等),这些高精度模型在NGC(英伟达GPU云)上有详尽的介绍并且提供免费下载和使用。TAO提供了迁移学习工具箱Transfer Learning Toolkit(TLT),使得开发者可以在本地利用已有的数据集,简化数据准备过程、加速模型训练,从而更快速得到企业自己的模型。TAO也支持联邦学习,保证不同地点的开发者安全地协作。TAO提供了TensorRT模块,它根据模型运行的的目标系统,对模型进行参数的调整从而使其达到最小规模与最高精度的最优化平衡,同时采用Triton 推理服务器(Triton Inference Server),使得用户都可以选择最佳配置将任何架构和框架的模型来部署到目标CPU和GPU上。大道至简,NVIDIA TAO简化了AI工作流程,搭建了奔向企业AI的快车道。
直播亮点:
-NVIDIA TAO简化了AI工作流程,搭建了奔向企业AI的快车道
-NVIDIA Pre-trained Models, Transfer Learning Toolkit 3.0, Deepstream 6.0, TensorRT 8.0 等
直播干货:
本次Webnair将详细介绍NVIDIA TAO的模块和相关案例,包括NVIDIA GPU Cloud (NGC)上的预训练模型(Pre-trained Model),迁移学习工具 Transfer Learning Toolkit, 新的推理优化和部署工具 TensorRT 8.0 和 Triton 等。
适宜人群:
注重人工智能算法与应用快速落地的开发者和管理者。