La bande passante est l'un de ces termes techniques qui ont été adoptés par la majorité des professionnels. Par exemple : « Je n'ai pas la bande passante pour prendre un autre projet en ce moment. » Traduction : je suis trop occupé.
Bien sûr, si vous dites à un professionnel IT que vous n'avez pas assez de bande passante, il pourrait penser à tout autre chose d'abord : Quel est le problème avec le réseau ?
La bande passante du réseau est le héros invisible de l'organisation numérique – c'est-à-dire, de pratiquement toute organisation. En termes simples, la bande passante est une mesure de la quantité de données pouvant circuler sur une connexion réseau pendant une période donnée, comme une seconde. Ainsi, à une époque où les données sont traitées comme de l'or, la bande passante réseau est essentielle pour garantir que les données peuvent circuler quand et où elles sont nécessaires.
Dans cet article, nous allons examiner de plus près la bande passante réseau – ce qu'elle est réellement et, surtout, comment l'améliorer si besoin.
Qu'est-ce que la bande passante réseau ?
Tout d'abord, obtenons une définition claire de la bande passante réseau. En voici une proposée par Derek Ashmore, Application Transformation Principal chez Asperitas :
« La bande passante réseau est la quantité maximale de données pouvant être transférées sur une connexion réseau pendant une période spécifique », explique Ashmore.
Ashmore précise que la bande passante est généralement mesurée en bits ou en octets. (Petit rappel : il y a des bits dans un octet.)
Avec une définition simple en main, il devient assez facile, même pour les non-techniciens, de comprendre pourquoi la bande passante est importante : si vous n'en avez pas assez, vos applications et vos utilisateurs ne pourront probablement pas fonctionner de façon optimale à l'ère numérique. Et ce n'est pas une bonne chose.
J'ai demandé à Ashmore de partager quelques conseils pratiques pour améliorer la bande passante du réseau. Allons droit au but.
Comment améliorer la bande passante réseau
Il existe un mot-clé dans la définition donnée par Ashmore ci-dessus : maximum. Autrement dit, la bande passante réseau peut être vue comme un potentiel.
Dans ce sens, améliorer la bande passante – la quantité maximale de données qui pourraient circuler sur une connexion réseau pendant une période donnée – est en réalité assez simple. Il suffit d'être prêt à payer plus cher. Dans le jargon IT, on parle parfois d'« acheter un tuyau plus gros ».
Mais Ashmore souligne qu'améliorer votre connectivité n'est qu'une partie de l'amélioration globale des performances réseau. Une mesure différente mais liée – le débit réseau – mesure la quantité réelle de données qui circule sur une connexion réseau pendant une période spécifique. (Le débit est généralement mesuré en bits par seconde.)
La bande passante réseau est un composant fondamental du débit réseau – ce dernier ne peut pas dépasser le premier, pour commencer – mais Ashmore précise que ce n'est qu'un des éléments. De plus, augmenter la bande passante n'améliore pas automatiquement le débit.
Ainsi, quand nous parlons d'améliorer la bande passante réseau, nous voulons en réalité dire améliorer le débit réseau – la quantité réelle de données que votre réseau peut traiter efficacement.
Ashmore partage une méthodologie en cinq étapes pour y parvenir.
Étape 1 : Identifier les goulots d'étranglement de la bande passante
La première étape pour améliorer la bande passante et le débit réseau consiste à identifier les problèmes qui réduisent la vitesse et les performances. On ne peut pas résoudre des problèmes si on ignore leur existence, après tout.
La mise en œuvre de bonnes pratiques de surveillance du réseau et de bons outils est essentielle ici. (Le suivi de l'utilisation de la bande passante est aussi un indicateur important de surveillance.) Ashmore recommande de surveiller – puis de corriger – des goulots d’étranglement comme :
- Routeurs et commutateurs surchargés.
- Latence liée à la distance ou à des parcours inefficaces.
- Limites et congestion de la carte réseau (NIC).
- Serveurs sous-dimensionnés. (Ashmore précise qu'il ne s'agit pas, à proprement parler, d'une limitation réseau.)
- Mauvaise configuration des paramètres réseaux.
- Périphériques de sécurité comme les pare-feux surchargés.
- Trop de trafic broadcast ou multicast inondant le réseau.
Par exemple, une entreprise industrielle pourrait détecter une latence entre son réseau centralisé et une application critique sur un site de production éloigné. Rapprocher la connexion réseau (et potentiellement d'autres infrastructures comme le calcul et le stockage) de cette application pourrait réduire la latence et améliorer le débit. (C'est l'une des raisons pour lesquelles les architectures edge computing se sont popularisées.)
Étape 2 : Mettre à niveau le matériel et les logiciels réseau
Comme la plupart des autres formes d’informatique, un réseau dépend fondamentalement du matériel pour fonctionner. Même un réseau virtualisé, principalement géré par des logiciels, nécessite tout de même des commutateurs, routeurs, répartiteurs de charge et autres infrastructures.
Lorsque ce matériel vieillit, il peut rencontrer des problèmes de performance. (Le même principe s’applique généralement aux logiciels, en particulier si ces derniers ne reçoivent plus de mises à jour ou d’améliorations régulières.)
« Vous pouvez augmenter le débit réseau en mettant à niveau votre connexion et votre matériel réseau », explique Ashmore.
Concernant la connexion, cela peut passer par une mise à niveau – acheter un plus gros canal – pour augmenter le débit maximal potentiel.
Ashmore mentionne également la technologie d’agrégation de liens comme autre stratégie possible. Avec cette méthode, vous combinez plusieurs connexions réseau en une seule connexion réseau logique. Cette approche permet d’augmenter la bande passante disponible pour les autres terminaux du réseau, tout en améliorant la tolérance aux pannes et la résilience, car une connexion défaillante peut basculer automatiquement vers un autre lien du groupe.
Étape 3 : Réduire la distance
La latence est le fléau des administrateurs et utilisateurs réseau partout dans le monde, elle mérite donc une étape à part entière, même si nous en avons parlé à l’étape un.
Voici le principe de base : Gardez la requête réseau et la réponse réseau aussi proches que possible afin de minimiser la latence. Ashmore souligne que les effets néfastes de la latence sur la bande passante réseau expliquent en grande partie pourquoi des réseaux de diffusion de contenu (CDN) tels qu’Akamai ou Cloudflare sont largement utilisés.
« Vous ne pouvez pas changer la vitesse de la lumière, mais vous pouvez changer la distance entre l’émetteur et le récepteur », indique Ashmore.
Voici un exemple :
« Je peux disposer d’un débit de 10 Gbps entre un utilisateur à Chicago et un site depuis lequel il télécharge des données, explique Ashmore. Si le site se trouve dans la région de Chicago, je peux atteindre 6 à 8 Gbps via cette connexion, mais je n’obtiendrai probablement pas plus de 1 Gbps si ce site de téléchargement est situé en Inde ou en Australie. »
Réduisez autant que possible la distance physique entre la requête et la réponse.
Étape 4 : Envisagez d’utiliser une connexion dédiée
Si ce n’est pas déjà le cas, Ashmore recommande d’utiliser une connexion dédiée — c’est-à-dire un lien physique exclusivement réservé à votre organisation — entre votre réseau et votre fournisseur d’accès Internet ou de services cloud, au lieu de passer par une connexion réseau privé virtuel (VPN).
Les VPN sont des technologies utiles, devenues populaires pour des raisons de coût, de sécurité et autres. Mais une connexion dédiée l’emportera probablement sur le VPN en termes de débit et d’autres critères de performance.
« Même si une connexion VPN propose la même bande passante qu’une connexion dédiée, la connexion dédiée offrira constamment de meilleures performances », affirme Ashmore. Il mentionne trois raisons courantes à cela :
- Les connexions VPN sont généralement partagées, ce qui signifie que vous êtes en concurrence pour la bande passante avec d’autres utilisateurs.
- Les connexions dédiées disposent de meilleurs chemins d’acheminement réseau.
- Les connexions dédiées présentent une gigue réseau plus faible, c’est-à-dire une variation indésirable du temps d’arrivée des paquets. La réduction de la gigue améliore le débit réseau.
Étape 5 : Réduire (ou segmenter) les autres flux sur votre réseau
L’ancienne analogie qui compare un réseau informatique à une autoroute reste valable : C’est une route conçue pour rouler plus vite, mais si tout le monde veut voyager en même temps, vous aurez malgré tout des embouteillages.
Il en va de même pour la bande passante et le débit réseau : Trop d’utilisateurs (ou de requêtes) simultanés peuvent ralentir l’ensemble.
« D’autres utilisateurs sur une même connexion réseau peuvent fortement impacter les performances générales du réseau », rappelle Ashmore.
Créer des connexions réseau différentes pour des groupes distincts d’utilisateurs constitue une solution. Un exemple simple : Séparez l’accès interne au réseau (pour les employés et leurs applications métier) de l’accès à Internet (pour les clients et vos applications destinées à la clientèle).
« Cela permet de s’assurer que les employés effectuant des tâches gourmandes en réseau (comme des téléchargements volumineux) n’affectent pas leurs clients [et inversement] », souligne Ashmore.
Outils utiles
Pour améliorer la bande passante réseau, les bons outils peuvent faire toute la différence. Les logiciels de surveillance réseau constituent la première ligne de défense contre les goulets d’étranglement. Ces outils proposent une visibilité en temps réel sur l’utilisation de la bande passante, vous permettant de suivre et d’analyser les schémas de trafic réseau, d’identifier les points de congestion et de repérer rapidement les équipements ou connexions peu performants.
Des solutions telles que SolarWinds, PRTG et Nagios aident à surveiller l’état du réseau, à vous alerter sur des problèmes critiques comme des routeurs surchargés ou une latence élevée, et fournissent les données nécessaires pour optimiser l’allocation de la bande passante. Ces informations sont essentielles pour gérer le réseau de manière proactive, avant que de petits problèmes ne deviennent de véritables interruptions.
Au-delà de la surveillance, les outils qui favorisent l’optimisation du réseau — comme les logiciels de gestion de trafic ou les solutions d’optimisation WAN — peuvent contribuer à améliorer le débit. Par exemple, l’utilisation combinée de paramètres de Qualité de Service (QoS) et de l’agrégation de liens permet de prioriser le trafic critique et de regrouper plusieurs chemins réseau afin d’augmenter la bande passante disponible pour les applications à forte demande. Dans les environnements à forte latence, le déploiement d’outils tels que les CDN (Réseaux de Diffusion de Contenu) ou l’utilisation de techniques comme la compression des données peuvent réduire l’impact de la distance sur la vitesse de transmission des données.
Ces outils assurent que votre réseau fonctionne de manière aussi efficace que possible, vous aidant à tirer le maximum de performance de votre infrastructure.
5 conseils supplémentaires pour la bande passante réseau (et erreurs à éviter)
Enfin, Ashmore a partagé un mélange de « à faire » et de « à ne pas faire » à garder à l’esprit lorsqu’il s’agit d’améliorer la bande passante réseau et d’optimiser le débit.
1. Comprendre vos besoins en bande passante. Comme pour d’autres exigences informatiques, il est tout à fait possible de surdimensionner ou de sous-dimensionner les ressources. Chacune de ces situations est problématique et peut générer des coûts inutiles, une performance et une fiabilité moindres, ainsi que d’autres complications.
« Évitez de sous-estimer les besoins en bande passante, mais ne les surestimez pas non plus », indique Ashmore. « Prévoyez comment vous allez faire évoluer la configuration actuelle de votre réseau. »
2. Comprendre comment le trafic doit être routé. L’architecture du réseau constitue le socle d’une performance optimale ; prenez donc le temps de bien comprendre sa structure et les exigences que vos utilisateurs et applications feront peser sur le réseau.
3. Concevoir pour la redondance et le basculement. Vous pouvez acheter le plus gros canal possible, cela ne servirait à rien si les connexions échouent régulièrement. Certaines des stratégies évoquées plus haut, telles que l’utilisation d’une connexion dédiée, peuvent contribuer à garantir que le réseau soit hautement disponible et résilient lors d’incidents.
« Les utilisateurs s’attendent à une disponibilité réseau à 100 % », affirme Ashmore.
4. Plus c’est proche, mieux c’est. La proximité compte – souvent de façon cruciale – pour la performance (et son pendant négatif, la latence). Comme Ashmore l’a rappelé ci-dessus, gardez le demandeur et le répondeur aussi proches que possible.
5. Concevoir en tenant compte de la sécurité. Rappelez-vous que les personnes malveillantes apprécient elles aussi la bande passante et le débit. Cela signifie qu’il faut réfléchir — puis surveiller de près — le trafic réseau en entrée (ou flux entrants) et en sortie (flux sortants) vers Internet, les points de congestion potentiels (tels que les pare-feux), ainsi que la manière dont la segmentation réseau sera mise en œuvre.
Réflexions finales
Le réseau est la colonne vertébrale de pratiquement toute organisation aujourd’hui. Garantir une bande passante réseau optimale – et un débit réseau optimal – est indispensable pour s’assurer que les applications critiques sont non seulement disponibles mais aussi très performantes. Ne considérez jamais cela comme acquis.
Abonnez-vous à la newsletter The CTO Club pour plus d’actualités et discussions sur le secteur.
