L’année dernière, Amazon a fait part de son intention de devenir, à l’image d’AMD, Intel, VIA ou de Qualcomm, un nouvel acteur de l’industrie des semi-conducteurs. La firme de Seattle avait annoncé qu’elle comptait mettre sur pied une nouvelle génération de puces personnalisées qui alimenteront les serveurs de l’entreprise et contribueront à diminuer sa dépendance vis-à-vis du géant Intel. Il faut rappeler que les processeurs x86 de la firme de Santa Clara représentent actuellement plus de 90 % du marché des puces pour serveurs, même si AMD est en train de faire un retour en force sur le marché avec ses nouveaux CPU x86 EPYC ROME basés sur Zen 2 et le 7 nm qui embarquent jusqu’à 64 cœurs / 128 threads.
Cette annonce s’est concrétisée plus tard par la sortie des premiers processeurs 64 bits du groupe. Ils étaient basés sur l’architecture ARM (Arm Cortex-A72 d’après certaines sources), gravés en 16 nm et conçus en interne (leur conception ayant été assurée par la maison de design israélienne Annapurna Labs acquise par la firme de Seattle en 2015). Selon Amazon, ces nouvelles puces Arm portant le nom de code Graviton pouvaient générer des économies de coûts allant jusqu’à 45 % pour des services évolutifs.
Récemment, la division d’Amazon en charge des services de Cloud Computing à la demande pour les entreprises et les particuliers - Amazon Web Services (AWS) - a confirmé l’arrivée de la seconde génération de CPU Arm 32 / 64 bits conçue par et pour les besoins spécifiques de l’entreprise. AWS a révélé un nouveau processeur 32 / 64 bits basé sur l’architecture Arm v8.2 qui d’après Reuters, devrait embarquer jusqu’à 32 cœurs. La nouvelle puce qui n’a pas encore un nom de code (certaines sources évoquent Graviton2) sera le maillon clé d’une nouvelle plateforme, baptisée Neoverce N1, qui va succéder à la plateforme Cosmos qui prenait en charge Graviton.
La nouvelle puce Arm d’Amazon bénéficiera du procédé de gravure en 7 nm et devrait, à l’instar de son prédécesseur, être capable de gérer les charges de travail diversifiées ciblant l’infrastructure Cloud. La nouvelle puce d’Amazon bénéficierait d’une architecture mémoire innovante. Son TDP devrait tourner autour de 100 watts, avec une fréquence d’horloge maximale aux alentours de 3 GHz.
Signalons au passage que depuis 2018, AMD a fait part de la signature d’un partenariat stratégique avec le géant Amazon dans le secteur du HPC. Amazon va commencer à déployer une plus grande quantité de systèmes basés sur les processeurs EPYC d’AMD pour ses activités Cloud sur Amazon Web Services (AWS). Amazon déploie déjà des systèmes basés sur EPYC pour héberger ses instances EC2 ou Elastic Cloud Compute qui, selon Amazon, offrent « une capacité de calcul sécurisée et redimensionnable dans le Cloud, conçue pour faciliter le Cloud computing à l’échelle Web pour les développeurs ». Amazon a évoqué une réduction de 10 % de ses couts en migrant des serveurs Intel Xeon vers des serveurs EPYC.
Source : Reuters
Et vous ?
Que pensez-vous de cette initiative ?
Voir aussi
EPYC Rome, la seconde génération de CPU serveur d'AMD basée sur Zen 2 et le 7 nm avec 64 cœurs/128 threads : alerte rouge pour Intel sur le HPC ?
AMD pourrait vendre plus de CPU serveur dédiés au cloud computing, après le scandale des vulnérabilités matérielles touchant surtout les CPU Intel
Intel dévoile tous ses CPU Xeon Cascade Lake SP et AP (jusqu'à 56 cœurs/112 threads et 400 W de TDP) compatibles avec des modules mémoire Optane
L'architecture de tous les CPU Intel remise en question après la découverte de SPOILER, une nouvelle faille difficile à corriger par voie logicielle
Amazon dévoile sa seconde génération de puces Arm 64 bits conçue en interne et ciblant l'infrastructure Cloud
L'entreprise confirme aussi sa volonté de réduire sa dépendance vis-à-vis du géant Intel
Amazon dévoile sa seconde génération de puces Arm 64 bits conçue en interne et ciblant l'infrastructure Cloud
L'entreprise confirme aussi sa volonté de réduire sa dépendance vis-à-vis du géant Intel
Le , par Christian Olivier
Une erreur dans cette actualité ? Signalez-nous-la !