Skip to main content

Les organisations qui se lancent dans des projets d’IA ne peuvent pas attendre l’aboutissement de projets longs de centralisation des données. Elles doivent pouvoir intégrer des données de haute qualité, où qu’elles se trouvent, aussi rapidement que possible, afin que leurs outils d’IA délivrent des résultats contextuellement précis en exploitant les informations issues des données les plus récentes.

L’extraction et la copie de données depuis de multiples sources vers un emplacement central pour qu’elles soient ingérées par les outils d’IA est aujourd’hui une pratique obsolète et lourde, qui consomme d’importantes ressources techniques et financières. 

L’essor de la rapatriation des données : du cloud au local

Pour de nombreuses organisations, le transfert de données du stockage cloud vers des systèmes sur site est bien engagé. C’est ce que l’on appelle la rapatriation des données. À mesure que le volume de données créées et traitées par les organisations a augmenté, les coûts associés à la gestion de ces données ont également progressé. Même à quelques centimes par gigaoctet, la facture grimpe rapidement.

Want more from The CTO Club?

Create a free account to finish this piece and join a community of CTOs and engineering leaders sharing real-world frameworks, tools, and insights for designing, deploying, and scaling AI-driven technology.

This field is for validation purposes and should be left unchanged.
Name*

Bill Burnham, CTO pour le secteur public américain chez Hewlett Packard Enterprise, observe que les coûts peuvent devenir “astronomiques” à mesure que les organisations passent au traitement de pétaoctets de données. Rapatrier les données vers le stockage local, en particulier pour les applications d’IA où de nouvelles données servent à affiner et mettre à jour les résultats, prend tout son sens d’un point de vue économique. 

D’un point de vue opérationnel, il est idéal de placer les données aussi près que possible de leur lieu d’utilisation. Les systèmes basés sur le cloud offrent de nombreux avantages, mais ne répondent pas à toutes les problématiques. Lors de l’entraînement des modèles d’IA, il est primordial qu’ils accèdent à des données récentes et précises.

Sécuriser les données et les résultats de l’IA

Des recherches de Gartner suggèrent que la mauvaise configuration des services cloud représente un risque important et peut permettre à des modèles d’IA non autorisés d’accéder à des données sensibles. Tout comme on rappelle aux utilisateurs finaux que les requêtes envoyées à des services publics d’IA générative peuvent être exploitées, ce scénario s’applique à toute donnée exposée.

Les systèmes locaux ne sont pas à l’abri des fuites de données mais le risque qu’un modèle d’IA non autorisé accède aux données de l’entreprise, provoquant une fuite de propriété intellectuelle, peut être limité.

Les résultats inexacts générés par les modèles d’IA restent problématiques. Des exemples récents, comme l’IA de Google suggérant aux cuisiniers d’utiliser de la colle pour faire tenir le fromage sur une pizza ou de manger une pierre chaque jour comme source de vitamines et minéraux, illustrent à quel point il est fondamental que les LLM soient alimentés par des données appropriées et contextuelles. En utilisant vos propres données et en les rendant rapidement disponibles à moindre coût, le risque de résultats erronés ou trompeurs diminue. 

Le rôle des données contextuelles dans la précision de l’IA

L’importance des informations contextuelles ne peut être sous-estimée. Les meilleures données qu’une organisation peut fournir à ses outils d’IA sont celles qui se rapportent spécifiquement à ses propres activités.

Pour les détaillants de vêtements, les données relatives à la démographie de leur clientèle sont essentielles. Un magasin de vêtements axé sur les femmes de 16 à 25 ans aura besoin de données différentes de celles d’une boutique qui vend des costumes à des hommes âgés de 35 à 50 ans.

Des modèles d’IA alimentés par des données trop générales, sans compréhension des besoins spécifiques de l’entreprise, peuvent induire des décisions inadaptées. Bien que certains exemples, comme coller du fromage sur une pizza, prêtent à sourire, un acheteur d’une chaîne de magasins qui commande des milliers de vêtements qui ne se vendront pas s’expose à des conséquences financières graves, voire désastreuses. 

Implanter votre IA en local

Mettre les données aussi proches que possible de là où elles seront exploitées pour l’IA réduit la complexité et les coûts. Les projets d’IA dépendent fortement des données utilisées pour entraîner le modèle. Disposer de données récentes et de qualité a plus de valeur que de recruter des data scientists supplémentaires. Les organisations doivent accorder la priorité aux données utilisées pour leurs modèles et les rendre accessibles. 

L’approche classique pour gérer les données utilisées par l’IA consiste à copier les données sources afin de les exploiter lors de l’entraînement des modèles. Mais lorsque les meilleures données sont réparties sur plusieurs plateformes, comme un CRM cloud, une plateforme financière en local, ou des outils de productivité en ligne, il peut être difficile de les rendre disponibles. Il en résulte souvent que seules les données les plus faciles à centraliser sont utilisées, les autres étant laissées de côté jusqu’à ce que le budget et le temps le permettent.

La question que doivent se poser les équipes IA est de savoir comment elles peuvent accéder à toutes les données dont elles ont besoin sans avoir à attendre des projets de rapatriement de données coûteux et chronophages. Elles ont besoin d’un moyen simple d’accéder à des données disparates situées à plusieurs endroits et de pouvoir rediriger les requêtes qui accèdent à ces données au fur et à mesure que celles-ci sont déplacées.

Les outils de préparation des données peuvent conditionner les données pour l’activation de l’IA tout en minimisant les perturbations pendant le rapatriement. En exploitant ces nouvelles approches de pointe, les projets IA peuvent passer à la vitesse supérieure sans attendre une migration de données ou la nécessité de réorganiser profondément les systèmes. Les données d’entraînement peuvent être acheminées vers les modèles d’IA et LLM à mesure qu’elles sont créées, quasiment en temps réel.

Accélérer les projets IA avec des hubs de données sur site

La hausse des coûts, les inquiétudes quant à la fuite de la propriété intellectuelle et le besoin d’agilité dans le développement des outils IA favorisent le passage des plateformes cloud aux solutions sur site. L’IA et les LLM exigent un accès à des données de haute qualité, contextuelles et actualisées pour fournir les meilleurs résultats aux utilisateurs. 

Un hub de données IA, qui sert d’atelier centralisé et de zone de gouvernance pour tous les projets d’intégration et d’IA, permet d’accélérer les initiatives IA en parallèle des projets de rapatriement depuis le cloud afin que les organisations puissent exploiter rapidement leurs données.

En parallèle, elles peuvent continuer à fournir aux utilisateurs métier de meilleures informations clients et des analyses avancées afin d’augmenter les revenus et de surpasser la concurrence dans un environnement économique extrêmement concurrentiel.  

Abonnez-vous à la newsletter The CTO Club pour plus d’actualités et de bonnes pratiques sur l’IA.

Upgrade your inbox with more tech leadership wisdom for delivering better software and systems.

Upgrade your inbox with more tech leadership wisdom for delivering better software and systems.

This field is for validation purposes and should be left unchanged.
Name*