Software Saxony Blog

News Detail

Intel: HPC- und KI-Innovationen vorantreiben

  • Intel: HPC- und KI-Innovationen vorantreiben
    Xe-HPC-based GPU (code-named “Ponte Vecchio”) will be available in an OCP Accelerator Module (OAM) form factor and subsystems, serving the scale-up and scale-out capabilities required for HPC applications.

Auf der International Supercomputing Conference (ISC) 2021 zeigt Intel, wie das Unternehmen mit neuen Technologien, Partnerschaften und Kunden seine führende Rolle im High Performance Computing (HPC) ausbaut. Intel® Prozessoren sind die weltweit am meisten genutzte Compute-Architektur in Supercomputern und ermöglichen viele Entdeckungen in der Medizin und globale wissenschaftliche Durchbrüche. Der Halbleiterhersteller kündigt nun Neuigkeiten zu Intel® Xeon® Prozessoren für HPC und KI, Innovationen in den Bereichen Memory, Software, Speicher der Exascale-Klasse und Netzwerk sowie Technologien für eine Reihe von HPC-Anwendungen an.

 

 

Intel baut führende Rolle in der HPC-Leistung aus
Mit der Vorstellung der skalierbaren Intel Xeon Prozessoren der 3. Generation Anfang des Jahres hat Intel seine führende Rolle im HPC-Bereich weiter ausgebaut. Im Vergleich zum Prozessor der vorangegangenen Generation liefert die neueste CPU eine bis zu 53 % höhere Leistung in einigen HPC-Anwendungsbereichen, einschließlich Life Sciences, Finanzdienstleistungen und Fertigung.

Gegenüber Intels größtem Mitbewerber in der x86-Architektur bietet der skalierbare Intel Xeon Prozessor der 3. Generation eine verbesserte Leistung in vielen verbreiteten HPC-Workloads. Mit dem skalierbaren Intel Xeon 8358 läuft – verglichen mit einem AMD EPYC 7543 – zum Beispiel NAMD um 62 %, LAMMPS um 57 % und RELION um 68 % besser. Binomiale Optionsbewertung ist mit einer um 37 % höheren Leistung möglich. Monte-Carlo-Simulationen sind zweimal schneller, sodass Finanzunternehmen die Ergebnisse für die Preisfindung doppelt so schnell erzielen können. Die skalierbaren Intel Xeon 8380 übertreffen den AMD EPYC 7763 auch bei wichtigen KI-Workloads mit einer um 50 % besseren Leistung bei 20 gängigen Benchmarks. HPC-Labore, Supercomputing-Zentren, Universitäten und OEMs  nutzen Intels neueste Compute-Plattform, darunter Dell Technologies*, HPE*, Korea Meteorological Administration *, Lenovo*, Max Planck CDF*, Oracle*, die Universität Osaka* und die Universität von Tokio*.

High Bandwidth Memory in skalierbaren Intel® Xeon® Prozessoren der nächsten Generation integriert
Workloads wie Modellierung und Simulation (z.B. Computational Fluid Dynamics, Klima- und Wettervorhersage, Quantenchromodynamik), KI (z.B. Deep-Learning-Training und -Inferenz) Analysen (z.B. im Bereich Big-Data), In-Memory-Datenbanken und Speichersysteme treiben wissenschaftliche Durchbrüche voran. Die nächste Generation der skalierbaren Intel Xeon Prozessoren (Codename „Sapphire Rapids“) wird mit High Bandwidth Memory (HBM) ausgestattet sein, was die Speicherbandbreite der CPU drastisch erhöht und eine signifikante Leistungsverbesserung für HPC-Anwendungen ermöglicht, die speicherbandbreitensensitive Workloads nutzen. Nutzer können die Workloads entweder ausschließlich mit High Bandwidth Memory oder in Kombination mit DDR5-Speicher bewältigen.

Darüber hinaus eröffnet die auf Sapphire Rapids basierende Plattform neue Möglichkeiten um HPC zu beschleunigen, darunter die doppelte I/O-Bandbreite mit PCI Express 5.0 (im Vergleich zu PCI Express 4.0) und die Unterstützung von Compute Express Link (CXL) 1.1. Das ermöglicht neue Anwendungsmöglichkeiten in den Bereichen Compute, Networking und Storage.

Sapphire Rapids ist außerdem für HPC- und KI-Workloads optimiert. Die neue integrierte KI-Beschleunigungs-Engine Intel®Advanced Matrix Extensions (AMX) bietet eine signifikante Leistungssteigerung für Deep-Learning-Inferenz und -Training. Einige Kunden arbeiten bereits mit Sapphire Rapids, zum Beispiel das LRZ*, CINECA* und das Argonne National Lab* sowie Crossroads-Systemteams im Los Alamos National Lab* und Sandia National Lab*.

Intel® Xe-HPC GPU (Ponte Vecchio) erstmals in Betrieb

Anfang des Jahres hat Intel seine Xe-HPC-basierte GPU (Codename “Ponte Vecchio”) erstmals in Betrieb genommen (Power On), die sich derzeit im Systemvalidierungsprozess befindet. Ponte Vecchio ist eine auf der Xe-Architektur basierende GPU, die für HPC- und KI-Workloads optimiert ist und wird dank Intels Foveros 3D-Packaging-Technologie mehrere Chips im Package integrieren – beispielsweise HBM-Speicher. Rechenleistung, Speicher und Interconnects der GPU wurden entwickelt, um die steigenden Anforderungen fortschrittlicher Supercomputer zu erfüllen.

Ponte Vecchio wird in einem OAM-Formfaktor (OCP Accelerator Module) und in Subsystemen erhältlich sein und so über die für HPC-Anwendungen erforderlichen Scale-up- und Scale-out-Möglichkeiten verfügen.

Das Leibniz-Rechenzentrum setzt auf Intel
Die skalierbaren Intel Xeon Prozessoren der nächsten Generation kommen im Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften in Garching bei München zum Einsatz. Da der Höchstleistungsrechner SuperMUC-NG in die Phase 2 überführt werden soll, wird das aktuelle System in Kooperation mit Intel und Lenovo* ausgebaut. Ziel ist es, neben Höchstleistungen bei Berechnungen und Simulationen in Zukunft auch KI und Deep Learning zu integrieren. Daher wird SuperMUC-NG Phase 2 zusätzlich mit den kommenden Intel Xeon Prozessoren der nächsten Generation (Codename „Sapphire-Rapids“) sowie mit den angekündigten Intel Xe-HPC GPUs (Codename „Ponte Vecchio“) ausgerüstet.

Erweiterung von Intel Ethernet für High Performance Computing
Auf der ISC 2021 kündigte Intel außerdem die neue Lösung “High-Performance Networking with Ethernet” (HPN) an. Dieses erweitert die Ethernet-Technologie für kleinere Cluster im HPC-Segment, indem es Standard-Netzwerkadapter und -Controller der Intel-Ethernet-800-Serie, Switches, die auf P4-programmierbaren Ethernet-ASICs der Intel® Tofino™-Serie basieren und die Intel® Ethernet Fabric Suite Software verwendet. Die Software ist Intels 3. Generation der HPC-Fabric-Software und bietet eine mit InfiniBand vergleichbare Anwendungsleistung zu geringeren Kosten.

Kommerzieller Support von DAOS
Darüber hinaus kündigt Intel auch den kommerziellen Support für DAOS an. DAOS (Distributed Application Object Storage) ist ein Open-Source-Software-definierter Objektspeicher, der den Datenaustausch zwischen HPC-Architekturen von Intel optimiert. Er wird bereits von dem Argonne National Laboratory*, dem LRZ und dem Joint Institute for Nuclear Research* (JINR) genutzt.

Der DAOS-Support steht den Partnern ab sofort als L3-Support-Angebot zur Verfügung und ermöglicht es ihnen, in Kombination mit ihren Dienstleistungen eine komplette schlüsselfertige Speicherlösung bereitzustellen. Zu den frühen Partnern für den neuen kommerziellen Support gehören neben Intels eigenen Data Center Building Blocks auch HPE*, Lenovo*, Supermicro*, Brightskies*, Croit*, Nettrix*, Quanta*, und die RSC Group*.

Über Intel

Intel (Nasdaq: INTC) ist eines der führenden Unternehmen in der Entwicklung zukunftsweisender Technologien, von denen Menschen auf der ganzen Welt profitieren. Inspiriert durch das Mooresche Gesetz arbeiten wir ständig an der Weiterentwicklung unserer Halbleiter-Produkte, um Kunden bei der Bewältigung ihrer größten Herausforderungen bestmöglich zu unterstützen. Wir implementieren intelligente Technologien und Lösungen in der Cloud, im Netzwerk und in allen Geräten dazwischen. Dadurch nutzen wir das volle Potenzial von Daten, die Unternehmen und Gesellschaft verbessern.

Weiterführende Links

www.intel.de

Foto: Intel Corporation