英伟达启动AI平台认证计划
Nvidia近期启动了一项正式的认证计划,该计划针对其OEM合作伙伴在本地IT环境中部署的基于图形处理器单元(GPU)的系统。Nvidia认证系统计划是在AI模型开始在网络边缘进行培训和部署而不是仅在云中进行培训的时候提出的。
该计划的最初参与者包括戴尔技术,惠普企业(HPE),超微型,技嘉和浪潮技术。这些供应商提供的每个系统都集成了Nvidia GPU和公司通过收购Mellanox获得的存储开关。经过认证的系统将有资格获得Nvidia的支持,该支持将通过该公司的OEM合作伙伴提供。
由于企业IT组织意识到,随着新数据源的出现,完全在云中重新训练AI模型然后更新在边缘运行的推理引擎是不切实际的,因此AI模型的培训正越来越靠近网络边缘。Nvidia高管Adel El Hallak表示,组织将需要能够在运行时更新AI模型,例如,一种在网络边缘结合了计算机视觉的应用程序。
“您必须能够将模型带到采取行动的地方,”埃尔哈拉克说。
Nvidia以美国运通(American Express)为例,该组织已经实时采用AI模型来识别欺诈,而福特(Ford)则将数据实时整合到AI模型中以测试自动驾驶汽车。同时,Domino’s Pizza(比萨饼)正在实时应用AI,以改善对何时准备好为客户准备订单的预测。
El Hallak补充说,IT组织将需要能够不断更新AI模型,而不必通过广域网传输大量数据。实际上,持续训练和更新AI模型的需求正在推动机器学习操作(MLOps)作为一种独特的IT学科的兴起,El Hallak指出。
当然,有多种类型的边缘计算平台。Nvidia正在以400亿美元的价格收购Arm,这是其努力将其AI软件的影响范围扩展到不仅边缘计算平台而且还扩展到单个设备的一部分。El Hallak补充说,随着越来越多的平台和设备采用AI模型,暴露给他们的新数据将形成一个良性循环,通过这些良性循环,这些AI模型将能够更轻松地适应不断变化的条件。
从长远来看,El Hallak表示,Nvidia希望扩展Nvidia认证系统计划,以包括基于其GPU的平台,这些平台不一定连接到Mellanox交换机。同时,Nvidia致力于与愿意为其最终用户提供支持的OEM合作伙伴紧密合作,El Hallak指出。
将AI模型及其运行的系统普遍部署到网络边缘及其他地方可能还需要一段时间。但是,很明显,人工智能将在某种程度上被并入几乎每个边缘计算平台。在大多数情况下,那些边缘计算平台将基于在云中训练的AI模型运行某种类型的推理引擎。通过重新训练驻留在云计算平台上的AI模型来更新推理引擎的当前过程在许多情况下太慢且麻烦。应用程序越来越需要在边缘计算设备或平台上创建或收集数据时实时处理和分析数据。
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章: