L'IA d'entreprise est là, mais le réseau n'est pas prêt

(Ce blog utilise des données qui seront bientôt publiées par Enterprise Management Associates. Aryaka et moi-même tenons à remercier EMA et son vice-président de la recherche, Shamus McGillicuddy, d’avoir collaboré à cette étude.)

En l’espace de quelques trimestres, l’intelligence artificielle est passée du stade de la preuve de concept à celui de mission critique. Selon une étude d’Enterprise Management Associates (EMA) qui sera bientôt publiée, 87 % des entreprises déploieront des charges de travail de formation à l’IA d’ici à la fin de 2025, les applications d’inférence suivant de près.

Ce qui change, ce n’est pas seulement l’endroit où l’IA s’exécute, c’est la façon dont elle se connecte. Les entreprises répartissent les charges de travail d’IA entre les centres de données privés, les clouds publics, les plateformes GPU-as-a-Service et, de plus en plus, les environnements de calcul en périphérie. L’implication est claire : on demande aux réseaux d’entreprise d’en faire plus que jamais, dans plus d’endroits, avec moins de marge d’erreur.

Pourtant, la plupart des réseaux ne suivent pas.

Le déficit d’infrastructure en matière d’IA est réel

La prochaine étude de l’EMA, menée auprès de 269 responsables informatiques, révèle d’importantes lacunes en matière de préparation des réseaux :

  • Seules 31 % des entreprises déclarent que leur réseau étendu (WAN) est capable de répondre aux exigences de performance de l’IA.
  • Plus de 60 % ont admis que leurs outils de surveillance et d’observabilité actuels ne permettent pas de suivre correctement les flux de trafic d’IA ou d’identifier les goulets d’étranglement.
  • 84 % ont identifié les fuites de modèles et l’accès non autorisé à l’inférence comme les principaux risques de sécurité, mais moins de la moitié ont mis en œuvre des mesures de protection adaptées aux charges de travail de l’IA.

Ces lacunes s’étendent à l’ensemble de la chaîne, des performances et de la visibilité à l’application des politiques et à la protection. Et elles ne font que se creuser à mesure que les cas d’utilisation de l’IA deviennent plus complexes et distribués.

Les réseaux doivent évoluer rapidement

Le trafic de l’IA ne ressemble pas au trafic traditionnel des entreprises. Il est lourd en rafales, sensible à la latence et gourmand en données. L’entraînement de modèles volumineux nécessite des interconnexions à haut débit entre les GPU, les lacs de données et les accélérateurs. L’inférence, en particulier à la périphérie, exige des réponses en temps réel et un accès sécurisé aux ensembles de données sensibles.

Les réseaux MPLS traditionnels manquent de flexibilité, les solutions SD-WAN bricolées manquent souvent d’envergure et même les réseaux en nuage les plus avancés ne peuvent pas garantir une application cohérente des politiques pour chaque utilisateur, chaque emplacement et chaque appareil.

En termes simples, soutenir l’IA signifie construire un réseau qui n’est pas simplement connecté – il doit être intelligent, sécurisé et observable à chaque nœud.

Combler le fossé avec Aryaka Unified SASE

Chez Aryaka, nous avons conçu notre plateforme Unified SASE as a Service pour prendre en charge la prochaine génération de charges de travail d’entreprise, y compris l’IA. Notre architecture combine un réseau privé mondial, une sécurité intégrée et une observabilité approfondie, le tout fourni en tant que service et soutenu par des accords de niveau de service.

Pour répondre aux exigences spécifiques de l’IA, nous avons introduit trois capacités spécifiques :

  • Shadow AI Discovery – Aryaka Unified SASE as a Service fournit une identification et un reporting prêts à l’emploi sur l’ensemble du trafic GenAI, permettant aux équipes de comprendre l’utilisation et le risque aujourd’hui, de conduire des initiatives de gouvernance et de mettre en œuvre des contrôles appropriés.
  • AI>Perform – Fournit un transport optimisé pour les charges de travail d’IA dans des environnements globaux et hybrides, y compris GPUaaS et cloud. Nous fournissons une latence déterministe, une optimisation du réseau étendu et un routage intelligent, autant d’éléments cruciaux pour l’entraînement à haut débit et l’inférence en temps réel.
  • AI>Observe – Aryaka AI>Observe fournit aux organisations une solution cloud native alimentée par l’IA qui s’intègre de manière transparente à Aryaka Unified SASE as a Service. L’exploitation de la visibilité de bout en bout et des modules d’apprentissage profond d’Aryaka permet d’observer pleinement les problèmes de sécurité.
  • AI>Secure (à venir au second semestre 2025) – Offre une protection approfondie contre les menaces spécifiques à l’IA, notamment le vol de modèles, l’inférence non autorisée et l’exfiltration de données. Grâce à l’intégration de NGFW, SWG, CASB et l’inspection TLS, nous aidons les entreprises à mettre en œuvre des politiques de sécurité cohérentes partout.

Que faire maintenant ?

L’IA n’est plus expérimentale. Elle génère une véritable valeur commerciale et, avec elle, la pression pour garantir la performance, la fiabilité et la confiance. Si votre réseau ne peut pas suivre, vos investissements dans l’IA sont en danger.

Aryaka est là pour vous aider. Grâce à notre plateforme de mise en réseau sécurisée prête pour l’IA, vous pouvez accélérer, observer et protéger les charges de travail d’IA, sans aucun compromis.

Vous souhaitez évaluer l’état de préparation de votre réseau à l’IA ?
Planifiez votre consultation ou demandez une démonstration personnalisée