Google Axion : le changement d’approche d’Arm qui redéfinit le cloud de Google

Dernière mise à jour: 8 Novembre, 2025
  • Le processeur Axion Arm de Google offre plus de performances et d'efficacité dans le cloud sans réécritures massives.
  • Les clusters mixtes x86+Arm avec Titanium, Hyperdisk et une orchestration avancée permettent d'optimiser les coûts.
  • Google exploite déjà des services comme BigQuery et Spanner sur Axion et accélère la migration grâce à l'IA.

Processeurs Axion dans les centres de données

Google a fait un pas en avant avec AxionSa gamme de processeurs personnalisés basés sur l'architecture Arm pour centres de données a eu un impact considérable, bien au-delà d'un simple changement de puce : elle influe sur les performances, l'efficacité, la sécurité, les coûts et le déploiement à grande échelle des applications. Dans un contexte où l'IA, les données et les microservices sont les moteurs de cette transformation, la stratégie n'est pas seulement technique ; elle est également opérationnelle et axée sur les besoins du commerce.

La société est intégration d'Axion en production aux côtés des serveurs x86Permettant la coexistence de clusters multi-architectures au sein de services propriétaires (tels que BigQuery, Spanner ou YouTube Ads) et sur Google Cloud. Avec des performances jusqu'à 30 % supérieures à celles des instances Arm comparables et jusqu'à 50 % supérieures à celles des instances x86, ainsi qu'une efficacité énergétique améliorée jusqu'à 60 %, une nouvelle ère s'ouvre : le choix du processeur est désormais aligné sur la charge de travail, le coût et la durabilité.

Qu'est-ce qu'Axion et pourquoi maintenant ?

Axion est le Le premier processeur de Google pour centre de données conçu sur une architecture ArmConstruite sur l'architecture Arm Neoverse V2 et Armv9, elle a pour but de prendre en charge les charges de travail à usage général et de données, ainsi que les tâches d'IA basées sur le processeur, réduisant ainsi la dépendance aux fournisseurs traditionnels et s'inscrivant dans la tendance du secteur vers des infrastructures optimisées.

Google prétend que Axion sera disponible pour les clients de Google Cloud. En réalité, elle l'utilise déjà en interne dans BigTable, Spanner, BigQuery, Blobstore, Pub/Sub, Google Earth Engine et la plateforme publicitaire YouTube. Son principal atout réside dans la possibilité pour les clients de migrer leurs applications vers Arm avec un minimum de modifications grâce à des standards et une interopérabilité conçus pour le cloud.

Une pièce distinctive est TitaneUn système de microcontrôleur en silicium personnalisé décharge les opérations de la plateforme (réseau, sécurité) et le traitement des entrées/sorties de stockage vers Hyperdisk. Libérés de ces tâches, les processeurs Axion peuvent consacrer davantage de ressources au calcul des charges de travail des utilisateurs, améliorant ainsi la latence et le débit.

Cette initiative s'appuie sur un écosystème Arm déjà bien établi dans le cloud : Android, Kubernetes, TensorFlow ou Go Ils ont bénéficié d'optimisations pour Arm, et Google a contribué à des normes telles que SystemReady VE, qui facilitent l'exécution des systèmes d'exploitation et des packages courants sur les serveurs et les machines virtuelles Arm sans difficulté.

Processeur Arm dans le cloud

Architecture, sécurité et conception du système

Dans la conception, diverses sources internes mentionnent que Axion est fabriqué à 5 nm Il combine des cœurs performants et économes en énergie (avec des configurations allant jusqu'à 128 cœurs et des fréquences jusqu'à 3.8 GHz sur les cœurs les plus performants), conformément à la feuille de route Armv9. Son objectif : optimiser le rendement énergétique et le parallélisme dans les charges de travail multithread.

En matière de vectorisation et de traitement multimédia/scientifique, Armv9 contribue Instructions SVE2Grâce à une mise à l'échelle SIMD flexible, l'inférence, l'analyse et le traitement des données en apprentissage automatique sont accélérés. Les chaînes d'outils modernes (Clang/LLVM, GCC) génèrent des binaires ARM64 natifs, réduisant voire éliminant le besoin d'émulation de conteneur et améliorant ainsi les performances réelles.

Le plan de sécurité d'Axion constitue un autre pilier : Extension PAC (Authentification par pointeur) et marquage de la mémoire Elles contribuent à atténuer les attaques par dépassement de capacité et par utilisation après libération en ajoutant des mesures de protection matérielles. La plateforme intègre la prise en charge du démarrage sécurisé et du TPM 2.0, ainsi que le chiffrement AES-256 en transit et au repos, avec des modules conformes à des normes telles que FIPS 140-2.

  Combien de types de connecteurs USB existe-t-il ?

Le réseau et le stockage ont été conçus pour desservir des clusters hétérogènes avec réseaux dorsaux à haut débit (jusqu'à 400 Gbit/s)La commutation à faible latence et le système de fichiers distribué Colossus, qui sert de couche d'abstraction, permettent de réduire la surcharge entre les nœuds x86 et Arm, tout en garantissant la cohérence et la disponibilité.

Performance et efficacité : chiffres et comparaisons

Selon les données partagées par Google, Axion atteint jusqu'à 30% de performances en plus par rapport aux principales instances Arm à usage général dans le cloud et jusqu'à 50% de performances en plus que les instances x86 de génération actuelle comparables. Tout cela avec jusqu'à 60 % d'amélioration en matière d'efficacité énergétique par rapport à x86, un levier clé pour les coûts et les objectifs de durabilité.

En termes d'indicateurs de performance, des documents récents ont montré que le transfert de charges vers Axion peut se traduire par : Jusqu'à 65 % de performances pour le prix par rapport à x86 pour certaines charges de travail internes, ce qui explique en partie la volonté de Google de migrer les applications de production vers Arm.

Pour identifier les différences, l'écosystème x86 fournit AVX-512 Fort d'une longue expérience en matière de logiciels et de capacités de vectorisation, Arm offre SVE2, une efficacité supérieure et des performances multithread très compétitives. L'intégration de ces technologies au sein d'un même cluster permet d'affecter les tâches traditionnelles à l'architecture x86 et les charges de travail modernes ou hautement parallélisables à l'architecture Arm.

Au-delà des benchmarks synthétiques, le changement est perceptible dans emplois généralistes du monde réel (serveurs web, microservices), bases de données open source, caches en mémoire, analyse de données et tâches d'IA basées sur le CPU : compilation de code, prétraitement des données, exécution d'inférences légères et coordination des pipelines d'apprentissage automatique.

Clusters multi-architectures : comment x86 et Arm coexistent

Le grand progrès ne réside pas seulement dans la puce, mais aussi dans l'opération. Google l'exécute. clusters avec des nœuds x86 et Arm Sous un plan de contrôle unifié inspiré de Borg (le précurseur de Kubernetes), le planificateur répartit les charges de travail en fonction du coût, de la latence, du processeur disponible et, bien sûr, de la compatibilité binaire.

Dans Kubernetes, l'hétérogénéité est résolue avec affinités et sélecteurs de nœudsPar conséquent, les pods destinés à Arm sont déployés sur des nœuds compatibles. Les manifestes peuvent inclure des contraintes d'architecture et de ressources, et l'observabilité (Prometheus, Grafana) est adaptée à la lecture des métriques dans des environnements mixtes.

Pour faciliter les déploiements, les éléments suivants sont pris en compte : images multi-architectures Lorsque les binaires natifs ne sont pas disponibles, QEMU peut être utilisé pour l'émulation dynamique. Cependant, pour les environnements de production avec des charges de travail soutenues, il est recommandé de compiler en natif ARM64 afin de tirer pleinement parti d'Axion sans frais supplémentaires.

La mise à l'échelle automatique tire parti de la diversité : si un microservice d'IA basé sur le CPU voit sa demande augmenter, l'orchestrateur peut le déplacer vers Nœuds Axion et jouer avec les instances à coûts variables (par exemple, au comptant), en maintenant les SLO et en réduisant la facturation lorsque cela est possible.

Modèles de tarification et de service : comment payer moins cher sans complications

Google Cloud propose plusieurs façons de démarrer : il y en a une option de démarrage gratuit pour commencer gratuitement et essayer les services, ce qui permet de valider la compatibilité et les performances en toute sécurité.

Le modèle le plus courant est paiement à l'utilisationVous ne payez que ce que vous consommez, sans paiement anticipé ni frais d'annulation. Les prix varient selon la configuration, l'utilisation et la région ; consultez la documentation Google pour plus de détails.

  Qu’est-ce que PARS (Pairwise Relative Shift) d’Apple et comment pourrait-il transformer les futurs AirPods ?

En informatique, les éléments suivants sont cités instances c4a-highcpu avec un prix de départ d'environ 0.03787 USD par heure, avec des options d'économies pouvant atteindre des pourcentages élevés (par exemple, des paliers allant jusqu'à 55 % et jusqu'à 91 % sur certains engagements ou modalités).

En matière de stockage, plusieurs familles proposent des prix à partir du premier Go par mois : Disque persistant à partir de 0.048 USD/GB/mois, Hyperdisque à partir de 0.125 USD/GB/mois et SSD local À partir de 0.08 USD/Go/mois. Hyperdisk dissocie les performances de la taille de l'instance et peut être provisionné dynamiquement en temps réel.

En ligne, le Niveau standard Utilisez l'internet public pour le trafic entre vos services et vos utilisateurs. Le trafic entrant et sortant est gratuit jusqu'à 200 Go/mois. Niveau Premium Il utilise le réseau dorsal de Google et son prix de départ est de 0.08 $ par Go de trafic sortant (le trafic entrant reste gratuit).

IA, cybersécurité et technologies distribuées

En matière d'intelligence artificielle, Axion accélère inférences liées au processeur et tâches d'entraînement Grâce à SVE2 et à ses bibliothèques optimisées (ONNX Runtime sur Neon, chaînes d'outils ARM64 natives), il peut réduire la latence dans le transfert de données, le prétraitement et l'orchestration dans les environnements de modèles de grande taille.

En matière de sécurité, la diversité architecturale apporte un plus défense en profondeurUn incident sur une architecture x86 n'implique pas nécessairement une exposition sur les nœuds Arm, notamment grâce à la segmentation VPC, au RBAC et aux contrôles d'identité. PAC et MTE ajoutent des mesures d'atténuation de bas niveau, et la conformité est assurée par le chiffrement AES-256 et les certifications des modules cryptographiques.

Pour la blockchain et les systèmes distribués, le L'efficacité énergétique Le rapport performance/watt d'Arm est avantageux pour les validateurs et les nœuds complets. Des tests internes ont démontré des améliorations du débit des transactions de contrats intelligents compilés pour ARM64, ce qui a un impact sur les coûts et la durabilité.

En matière de réglementation, Google fait référence à RGPD, HIPAA et NIST SP 800-53 comme les cadres sur lesquels elle articule les contrôles ; des outils comme l’autorisation binaire vérifient les signatures des conteneurs avant le déploiement, et la traçabilité facilite les audits dans les environnements hybrides.

Une migration interne massive : 30 000 paquets et une IA appelée CogniPort

Google a déménagé environ 30 000 emballages de production L'entreprise migre vers Arm et prévoit de finaliser la conversion afin que ses charges de travail internes fonctionnent à la fois sur Axion et x86. Des services tels que YouTube, Gmail et BigQuery fonctionnent déjà sur les deux architectures.

Dans la prépublication «Migration du jeu d'instructions à l'échelle d'un entrepôt de données« Et les publications techniques détaillent le processus : les équipes s’attendaient à des problèmes de virgule flottante, de concurrence et de dépendances spécifiques, mais la réalité s’est avérée plus gérable grâce aux compilateurs et aux outils de désinfection modernes. »

Les premières migrations (F1, Spanner, Bigtable) ont été extraites ingénierie méthodiqueSprints hebdomadaires, ajustements des systèmes de compilation et de déploiement, et refactorisation des tests liés aux hypothèses x86. Le principal goulot d'étranglement résidait dans l'obsolescence des suites de tests et des pipelines de déploiement.

Pour passer à l'échelle, Google a développé CogniPortUne IA qui génère des commits et corrige les builds ou les tests. Dans certaines conditions, elle effectue des corrections automatiques dans environ 30 % des cas, notamment pour les tests fragiles, les spécificités de chaque plateforme et les problèmes de représentation des données.

L'objectif est que Borg puisse Planifier les chargements en fonction du coût et de la performance Entre les serveurs Arm et x86, si Axion réduit le coût par unité de travail et améliore l'efficacité, le planificateur privilégiera Arm lorsque cela est pertinent, sans compromettre les SLO.

Comparaison technique x86 vs Arm dans le cloud

Sur chaque cœur individuel, x86 offre généralement performances élevées sur un seul thread Grâce à des fréquences élevées et à un cache important, Arm compense par une densité de cœurs plus élevée et une efficacité supérieure, offrant un multithreading très robuste pour les microservices et l'analyse distribuée.

  Supprimez le bouton d’alimentation de l’écran de connexion (menu Démarrer) dans Windows.

En instructions vectorielles, x86 fournit AVX-512 Dans certains scénarios HPC/ML, Arm SVE2 s'adapte aux architectures SIMD étendues et exploite les pipelines hautement parallèles. Le choix dépend du profil de charge de travail et de l'optimisation des bibliothèques natives de chaque ISA.

En matière de sécurité matérielle, l'architecture x86 possède SGX Pour les enclaves, Arm excelle avec PAC/MTE pour renforcer la mémoire et les pointeurs. En coexistant sur le même réseau de services, la surface d'attaque est diversifiée, ce qui complique l'exploitation systématique.

En termes de compatibilité, x86 bénéficie d'un écosystème hérité C'est un fait bien établi ; Arm connaît une croissance rapide dans les conteneurs et Linux, et les artefacts multi-architectures, ainsi que QEMU lorsqu'il n'y a pas de binaire natif, adoucissent la transition.

Cas d'utilisation et modèles d'adoption dans l'industrie

Les entreprises qui utilisent intensivement les données en temps réel, comme Uber ou Spotify— ont évalué ou transféré des charges de travail vers Arm pour des raisons de coût et d'efficacité, notamment dans les services élastiques et les pipelines de streaming qui bénéficient de processeurs denses et hautement parallèles.

En matière de cybersécurité, certains fournisseurs (par exemple, simulations de menacesIls tirent parti de l'hétérogénéité pour réduire les tentatives d'évasion basées sur l'identification matérielle. Le changement d'ISA complique la tâche des attaquants et fournit des signaux supplémentaires pour la détection d'anomalies.

En IA distribuée, l'apprentissage fédéré et systèmes de recommandation à faible latence Ils tirent parti de la combinaison de processeurs performants, de réseaux à haut débit et de stockage découplé. Des frameworks comme Flower s'intègrent parfaitement aux clusters hybrides.

Pour les équipes DevOps, Google documente les chemins de migration et interface de ligne de commande gcloud avec la prise en charge des images Arm, ainsi qu'une compatibilité préliminaire dans « Migrer vers des machines virtuelles » pour déplacer les instances vers la nouvelle architecture avec moins de difficultés.

Outils, meilleures pratiques et opérations quotidiennes

Il est recommandé aux plateformes dotées de microservices d'ajouter tests multi-architecture L'intégration continue et la livraison continue (Jenkins, GitHub Actions) permettent de détecter rapidement les incompatibilités. Les matrices architecture/système d'exploitation réduisent les surprises en production.

Profilage avec performances sous Linux Le traçage dans eBPF permet d'identifier les services éligibles à l'architecture Arm (parallélisme élevé, zones de forte utilisation du processeur) et d'en mesurer les bénéfices réels. L'intégration des indicateurs clés de performance (KPI) relatifs au coût, à la latence et à la consommation d'énergie dans les tableaux de bord facilite les décisions d'ordonnancement.

Pour l'IA basée sur le processeur, des bibliothèques telles que Bibliothèque de calcul Arm La mise à jour des chaînes d'outils LLVM/GCC permet de bénéficier d'optimisations. Dans les conteneurs, l'utilisation de manifestes multi-architectures et un étiquetage correct des images évitent les plantages du planificateur.

En matière de conformité et de chaîne d'approvisionnement, renforcer Autorisation binaireLes entreprises spécialisées dans les nomenclatures de systèmes (SBOM) et les conteneurs veillent à ce que la diversité des architectures ne crée pas de vulnérabilités. Les scanners et les politiques d'admission doivent inclure des règles spécifiques à chaque architecture.

supervision continue avec Moteurs Falco ou autres La sécurité en temps réel ajoute une couche dynamique pour détecter les anomalies dans les nœuds hétérogènes, maintenant une posture cohérente entre x86 et Arm.

Avec Axion, Google définit une orientation claire : Puces Arm personnalisées, déchargements comme TitaniumDes réseaux dorsaux haut de gamme et une approche pragmatique multi-architecture qui allie le meilleur de l'écosystème x86 à l'efficacité d'Arm. En présentant des données chiffrées – performances, coûts, consommation – et en dévoilant des méthodes (telles que CogniPort AI et des guides de migration), le message est clair pour les équipes techniques : il existe une voie réaliste pour exploiter Arm à grande échelle sans tout réécrire, et grâce à des outils qui accélèrent le processus.