加入收藏 | 设为首页 | 会员中心 | 我要投稿 开发网_开封站长网 (http://www.0378zz.com/)- 科技、AI行业应用、媒体智能、低代码、办公协同!
当前位置: 首页 > 服务器 > 系统 > 正文

你的企业需要哪些人工智能处理单元?

发布时间:2022-06-21 13:40:10 所属栏目:系统 来源:互联网
导读:如果你希望在数据中心部署AI,请仔细考虑首先要投资的硬件和基础设施。 AI涵盖一系列技术,例如机器学习和深度学习。并且AI包括广泛的业务应用,从可预测未来表现的分析,到推荐系统和图像识别。 配备GPU的服务器 为服务器配备GPU已成为AI最常见的基础架构方
  如果你希望在数据中心部署AI,请仔细考虑首先要投资的硬件和基础设施。
 
  AI涵盖一系列技术,例如机器学习和深度学习。并且AI包括广泛的业务应用,从可预测未来表现的分析,到推荐系统和图像识别。
  
  配备GPU的服务器
  为服务器配备GPU已成为AI最常见的基础架构方法之一。你可以使用GPU芯片的大规模并行架构来加速处理AI模型所涉及的批量浮点运算。
 
  GPU也往往拥有广泛而成熟的软件生态系统。例如,Nvidia开发了CUDA工具包,让开发人员可以将GPU用于各种目的,包括深度学习和分析。然而,尽管GPU支持某些深度学习任务,但它们并不一定支持所有AI工作负载。
 
  IDC公司分析师Jack Vernon说:“在AI和机器学习的背景下,有些模型不属于深度学习的类别,并且未被充分探索,因为GPU非常擅长神经网络类型的东西,但它不一定擅长某些有趣算法,以帮助人们做有趣的事情。”
  
  谷歌通过其Google Cloud Platform向客户提供其TPU,这是一种专为深度学习设计的ASIC。另外,Graphcore专门为AI工作负载设计了IPU,而Cambricon则提供围绕针对深度学习优化的指令集而设计的处理器芯片。英特尔收购的Habana Labs将可编程加速器作为单独的芯片,用于深度学习的训练和推理部分,分别称为Gaudi和Goya。
 
  尽管GPU和类似类型的硬件加速器在AI方面备受关注,但CPU仍然与AI和机器学习的很多领域相关。例如,英特尔为其服务器CPU添加了功能,以帮助加速AI工作负载。最新的Xeon Scalable系列采用Intel Deep Learning Boost,它具有新的指令来加速推理中涉及的计算类型。这意味着这些CPU可以在不需要额外硬件的情况下加速某些AI工作负载。
 
  针对AI的存储
  在支持AI的基础设施方面,企业不应忽视存储。训练机器学习模型需要大量的样本数据,并且系统必须尽可能快地接收数据以保持性能。
 
  Vernon称:“存储是非常大的事情,训练过程本身通常涉及反馈循环。因此,你需要在一个阶段中保存模型,在此之上运行一些处理,更新它,然后不断地调用它。大多数正在构建培训和推理基础设施的企业通常很快就会需要大量额外的存储。”
 
  对于具有HPC基础设施的企业,通常已经拥有快速闪存存储层–以更大容量层为后端。对于大多数企业而言,这意味着以尽可能低的延迟部署NVMe SSD,并以成本较低的存储为后盾来提供容量。
  
  英特尔提供其OpenVINO工具包作为推理引擎,旨在优化和运行预训练模型。它具有插件架构,使其能够在一系列硬件(例如 CPU、GPU、FPGA 或三者的混合)上执行模型,从而为企业提供更大的部署灵活性。
 
  你还可以选择在云端构建和训练你的AI模型,使用按需资源,当训练完成,就可以停止使用。
  

(编辑:开发网_开封站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读