NVIDIA希望通过解决其作为传统架构中的瓶颈限制数据处理的瓶颈来接受数据到一个地区的图形处理单元(GPU)到下一级。
通常,数据中心服务器中的中央处理单元(CPU)将传递到GPU的某些数据处理计算,这被优化以运行此类工作负载。
但是,根据NVIDIA,内存带宽限制了优化水平。与CPU相比,GPU通常会与CPU相比具有相对较小的快速记忆,其具有较大量的较慢的存储器。
在CPU和GPU之间移动数据以运行数据处理工作负载需要从较慢的CPU存储器复制到GPU存储器。
为了试图删除这种记忆瓶颈,基于ARM微体系结构,NVIDIA已经推出了第一个DataceRe处理器,Grace。根据NVIDIA的说法,Grace将在最复杂的AI和高性能计算工作负载上提供当今最快的服务器的10倍。它支持下一代NVIDIA的一致性NVLink互连技术,该技术公司声称允许数据在系统内存,CPU和GPU之间更快地移动。
NVIDIA描述了恩典,作为一个高度专业的处理器,其针对最大的数据密集型HPC和AI应用程序,作为具有超过1万亿参数的下一代自然语言处理模型的培训。
瑞士国家超级计算中心(CSCS)是第一个公开宣布的组织将在2023年在线上网时,它将在一个名为ALP的超级计算机中使用NVIDIA的Grace芯片。
CSCS设计并代表Meteoswiss,瑞士气象服务代表Meteoswiss的数字天气预报(NWP)的专用系统。此系统自2016年以来一直在GPU上运行。
AlpS超级计算机将由Hewlett Packard Enterprise建造,使用新的HPE Cray Ex超级计算机产品系列以及NVIDIA HGX超级计算平台,包括NVIDIA GPU,其高性能计算软件开发人员的套件和新的恩典CPU。ALPS系统将取代CSCS现有的PIZ Daint超级计算机。
根据NVIDIA的说法,利用NVIDIA CPU和GPU之间的紧密耦合,预计ALPS将能够培训GPT-3,世界上最大的自然语言加工模型,只有两天 - 7倍,比NVIDIA的2.8-AI Exaflops Selene更快超级计算机,目前被Mlperf被公认为世界领先的超级计算机。
它说,CSCS用户将能够将这种AI性能应用于各种新兴科学研究,这些研究可以从自然语言理解中受益。这包括例如分析和理解科学论文中可用的大量知识,并为药物发现产生新分子。
“科学家们不仅能够进行模拟,还可以进行模拟,而且还可以预先处理或后处理他们的数据。这使整个工作流程对它们更有效,“CSCS DiageTortomas Schulthess说。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。