找回密码
 立即注册
搜索

基于GPU的人工智能与机器学习运用

【51CTO.com快译】如今,在一些令人关注的人工智能和机器学习的运用范畴,图形处理单元(GPU)发挥着日益重要的作用。
GPU继续扩展在人工智能和机器学习中的运用

人工智能(AI)无疑将改变全球消费力、工作形式和生活方式,并创造宏大的财富。根据调研机构Gartner公司的估计,到2022年,全球人工智能市场规模将从2020年的约1.2万亿美元疾速增长到约3.9万亿美元;而麦肯锡公司估计到2030年全球人工智能市场规模将达到约13万亿美元。当然,这种转变是由弱小的机器学习(ML)的工具和技术推进的,例如深度强化学习(DRL)、生成对抗网络(GAN)、梯度提升决策树模型(GBM)、自然言语处理(NLP)等。
古代的人工智能和机器学习系统获得成功次要取决于它们运用的义务优化硬件以并行方式处理大量原始数据的才能。理想上,人工智能的古代复兴始于2012年的ImageNet竞赛,深度学习算法在图像分类精度方面比非深度学习算法有了惊人的提高。但是,伴随着巧妙的编程和数学建模,公用硬件的运用在人工智能的早期成功中起到了重要的作用。
计算机视觉(CV)的提高继续推进着许多人工智能和机器学习系统的发展。计算机视觉(CV)正在更广泛运用在各行业范畴中,使组织可以彻底改变机器和业务系统的工作方式,例如制造、自动驾驶、医疗保健等行业范畴。几乎一切的计算机视觉(CV)系统都从传统的基于规则的编程形式演化为大规模的、数据驱动的机器学习形式。因此,基于GPU的硬件经过协助处理大量训练数据(其规模通常在PB级以上),并在确保高质量预测和分类方面发挥着关键作用。
本文将引见一些最受关注的人工智能和机器学习运用范畴,在这些范畴中,这些公用硬件(尤其是GPU)将发挥着越来越重要的作用。
人工智能和机器学习中一些最受关注的范畴是:

  • 自动驾驶。
  • 医疗保健/医学成像。
  • 抗击疾病、药物发现。
  • 环境/气候迷信。
为什么GPU在这些义务中大放异彩?

理想表明,通用的CPU在处理大量数据(例如,对具有数万或数十万浮点数的矩阵执行线性代数运算)时通常会遇到困难。而深度神经网络次要由矩阵乘法和向量加法等运算方法组成。
GPU的开发(次要运用在视频游戏范畴中)运用数千个微型计算核心处理大规模并行计算。它们还具有大内存带宽来处理疾速数据流(处理单元缓存到较慢的主内存并前往),而在神经网络训练数百个历元(Epochs)时需求停止大量计算。这使GPU成为处理计算机视觉义务计算负载的理想硬件。
GPU针对许多框架和计算范畴停止了优化

GPU的通用架构适用于作为深度学习算法核心的特定类型的计算义务。但是,一旦这种协同作用被研讨和开发人员充分应用并得到证明,消费GPU的厂商(例如英伟达公司)为此投入了大量的资金和人力,为各种运用场景开发更多的高功能和高度优化的GPU。
此外还确保他们的运用软件和固件堆栈不断更新,以与古代高级编程框架无缝集成,以便全球各地的数百万开发人员可以更方便地应用GPU的弱小功能。下图展现了英伟达GPU产品正在优化的各种深度学习框架的生态系统。


此外,根据功耗与功能的权衡,GPU(和相关内存)架构可以针对大量计算范畴停止优化设计,这些产品从学术实验室运用的桌面工作站到工业物联网或自动驾驶汽车上运用的边缘计算机。来自英伟达公司网站的这张图有助于阐明这一点:


自动驾驶范畴中的人工智能和机器学习

自动驾驶对于机器学习系统来说是一个极具应战性和复杂性的行业范畴。自动驾驶汽车使用具有各种功能且数量繁多的传感器来搜集有关道路状况、其他车辆、行人、骑行者、路标、出口、高速公路标记、路边商店等许多变量的信息。其中许多信息是基于图像的(运用安装在不同地方的多个摄像头)。其他的信息能够是来自LiDAR或其他类型传感器的数据流。
自动驾驶汽车的用例也非常具有应战性,由于它不只包括物体检测,还包括物体分类、分割、运动检测等。除此之外,机器学习系统需求在几秒的工夫内完成这种图像/视觉处理,并将其决策传达给担任最终驾驶义务的更高级别的监控系统。
此外,在任何一个自动驾驶系统中,通常采用多个这样的计算机视觉(CV)的系统/算法。在这些状况下对并行处理的需求很高,这对于处理数据的计算机来说面临更大的压力。假如同时运用多个神经网络,它们能够会共享公共系统存储并互相竞争公共资源池。
此外,还有高度专业化和优化的片上系统(SoC)平台用于这一范畴。以下是对英伟达公司的NVIDIA DRIVEAGX的描画:“NVIDIA DRIVE™AGX嵌入式超级计算平台处理来自摄像头、雷达和激光雷达传感器的数据,以感知周围环境,将汽车定位到地图,并规划和执行安全的行进途径。这个人工智能平台支持自动驾驶、车内功能、驾驶员监控以及其他安全功能——一切这些都集成在一个紧凑而节能的软件包中。”
医疗保健中的人工智能和机器学习(医学影像)

在医学成像的运用下,计算机视觉系统的功能是根据阅历丰富的放射科医师和了解病理图像的临床医生来判别的。此内在大多数状况下,其义务触及辨认患病率非常低的稀有疾病。这使得训练数据变得稀疏(没有足够的训练图像)。因此,深度学习(DL)架构必须经过添加巧妙的处理和复杂的架构来补偿这一点。当然,这会导致计算复杂度添加。
核磁共振成像(MRI)和其他先进的医学成像系统正在采用机器学习算法,它们越来越多地成为癌症检测的第一道防线。面对海量的数字化数据,放射科医师的数量和质量往往难以满足需求,而基于机器学习的系统是协助他们完成决策过程的完美选择。
根据一篇发表在《自然》杂志的文章,放射科医师需求在8小时工作工夫内每3~4秒解读一张​X光片图像才能满足工作量需求。如今,医学成像数据非常丰富,深度学习(DL)算法可以提供不断扩展的医学图像数据集,以像训练有素的放射科医生那样发现异常并解释结果。可以训练这种算法对常规和异常结果停止分类,例如辨认皮肤上的可疑斑点、病变、肿瘤和脑出血。但是对数百万个训练示例停止分类并正确辨认它们,则需求GPU优化的软件和硬件系统的协助。
人工智能和机器学习对抗疾病(药物发现)

行业专家指出,冠状病毒疫情等全球大盛行病大多是由病毒惹起的。在基本结构层面,这些病毒次要由一条或几条DNA/RNA链组成。而确定3D蛋白质结构,即来自基因测试数据的氨基酸分子序列是开发某些类别(亚基和核酸类型)疫苗的关键。
假如尝试采用传统的蛋白质折叠算法,这项义务在计算方面是不可行的(无论投入多少硬件资源)。而经过最新的深度强化学习(DRL)和贝叶斯优化技术,人工智能可以在协助处理这一应战方面发挥重要作用。而在这方面,谷歌公司的深度学习研讨部门DeepMind推出了AlphaFold,这是一个基于深度强化学习(DRL)的系统,可以根据蛋白质的基因序列预测蛋白质的3D结构。


2020年3月上旬,该系统对于检测冠状病毒停止了测试,DeepMind的人工智能研讨人员可以根据该系统发布与SARS-CoV-2相关的几种研讨不足的蛋白质的结构预测,以协助全球临床和病毒学研讨界更好地展开工作,以了解病毒及其对人类生物学的影响。2020年11月,在名为CASP(结构预测的关键评价)的两年一度的蛋白质结构预测应战中,这一系统的表现优于其他100个团队开发的系统。


但获得这些令人印象深入的打破性功能都以部署更多GPU驱动硬件为代价。虽然很难估计用于训练AlphaFold的计算才能,但是根据行业媒体的报道,其著名的前身AlphaGo在知名的一场围棋应战赛中同时运用了数百个CPU和GPU,并击败围棋世界冠军李世石。


在环境和气候迷信中运用的人工智能和机器学习

气候变化是21世纪人类面临的最深入的生活危机之一。要了解这一划时代变化的全球事情的影响,需求搜集大量的迷信数据、高逼真的可视化才能以及健壮的预测模型。
因此,天气预告和气候建模处于人类应对气候变化的前沿。但是这种建模并不容易。至少,对于大数据分析和迷信模拟才能的发展状况,这样规模的成绩对于当今的硬件和软件堆栈来说是难以处理的。
在美国,大多数天气预告服务都基于称为天气研讨和预测(WRF)的一个中等规模的综合模型。该模型适用于从数十米到数千公里的范围广泛的气候运用。因此,这样的综合模型必须处理有数与天气相关的变量及其高度复杂的互相关系。理想证明,用一组一致的解析方程来描画这些复杂的关系也是不能够的。与其相反,迷信家们尝试运用一种称为参数化的方法来近似方程,在这种方法中,他们以比实践现象更大的规模对关系停止建模。
深度学习的神奇力气能否处理这个成绩?美国阿贡国家实验室的环境迷信家和计算迷信家正在展开合作,运用深度神经网络(DNN)来交换天气研讨和预测(WRF)模型中某些物理方案的参数,希望在不影响保真度和预测才能的状况下分明延长建模工夫。


他们正在充分应用支持GPU的高功能计算(HPC)节点的力气来停止这种计算密集型研讨。一篇旧事文章引见了Argonne Leadership Computing Facilit(ALCF)的一些详细信息:“ALCF已末尾在ThetaGPU上为已同意的央求分配工夫。ThetaGPU是Theta的扩展,由NVIDIA DGX A100节点组成。每个DGX A100节点装备8个NVIDIA A100 TensorCore GPU和两个AMD Rome CPU,提供320GB(总计7680GB)的GPU内存用于训练人工智能数据集,同时还支持GPU特定和GPU加强的HPC运用程序停止建模和模拟。”
智能制造中的人工智能和机器学习

原材料、货物和零件的移动是任何一个制造系统的核心业务。而在计算和信息技术革命之后,人们看法到这些物品的移动只要在以准确的方式控制时才能达到最佳效率,并由信息处理引擎停止监督。
因此,软硬件的创新结合使传统行业进入了智能制造时代。随着计算和存储的成本和操作复杂性呈指数级下降,由人员、机器、控制器、工厂、仓库和物流机械产生的信息内容的规模和复杂性呈爆炸式增长。
如今,人工智能和机器学习范畴的创新理念已将许多制造组织从淹没在数据洪流中的困境中解救出来,并协助他们分析和了解每天必须处理的EB规模数据。深度学习技术被用于多个范畴——设计、质量控制、机器/流程优化、供应链、预测性和预防性维护等等。


鉴于数据生成和处理需求的数量和速度疾速增长,这些人工智能/机器学习系统中的大多数运用GPU驱动的工作站和云计算资源。
运用GPU的人工智能和机器学习运用概述

越来越多的行业范畴在其运营和RandD中采用弱小的人工智能/机器学习工具和平台。本文只讨论了其中的一些,并研讨了基于GPU的系统的弱小功能和灵敏性如何支持人工智能在各行业范畴中的运用。从这个趋向来看,可以自信地说,定制人工智能/机器学习硬件处理方案(如深度学习工作站)的市场和选择在将来几年将会继续疾速增长。
原文标题:Applications for GPU-Based AI and Machine Learning,作者:Kevin Vu
【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册