La deuxième numérisation : Pourquoi l’IA change la donne de la « transformation numérique »

Une deuxième vague numérique s’abat sur l’industrie – et elle ne se comportera pas comme la première.

C’est ce qu’a prédit le Dr Xavier Comtesse lors de notre événement Le Tout Connecté 2026, où il a soutenu que de nombreux dirigeants comprennent l’ampleur des changements apportés par l’IA, mais qu’ils peinent encore à répondre à une question pratique : que faisons-nous réellement de l’IA au sein de notre propre organisation ?

La réponse de Xavier Comtesse est déconcertante de simplicité.

La différence entre la première et la deuxième numérisation

La première numérisation, celle que la plupart des entreprises ont vécue depuis les années 1960, a principalement consisté à transformer des données structurées en leviers opérationnels – noms, numéros, dossiers, champs ERP, feuilles de calcul, règles déterministes.

La deuxième numérisation est différente : il s’agit de pouvoir enfin travailler avec l’autre type de données – les informations désordonnées, humaines, sensorielles et contextuelles que votre entreprise produit chaque jour, mais qu’elle utilise rarement.

Et comme l’IA peut désormais « lire » ces données auparavant illisibles à grande échelle, les retombées stratégiques changent également : la numérisation n’est plus un centre de coûts (souvent justifié par des promesses de productivité), mais un moteur de croissance qui peut créer de nouveaux services, de nouvelles sources de revenus et de nouvelles marges.

La métaphore du tsunami : La première vague n’était pas la plus dangereuse

Xavier Comtesse illustre le moment avec une image qu’il souhaite que les dirigeants d’entreprises retiennent : un tsunami. La mer se retire, les gens s’approchent du rivage, puis les vagues arrivent. Mais le véritable danger ne se situe pas dans la première vague. Il se situe dans la deuxième, souvent plus importante, qui survient après la première.

« Un tsunami n’est pas une seule vague d’eau, mais une succession de vagues. C’est généralement la deuxième vague qui est la plus dangereuse. »

En d’autres termes, si votre organisation a l’impression d’avoir déjà « adopté le numérique », cette confiance peut être précisément ce qui la met en danger. La deuxième numérisation ne consiste pas à améliorer de manière incrémentielle les systèmes informatiques existants. Elle transforme les matières premières exploitables de l’entreprise.

Dark data : les 95 % de données que votre entreprise produit mais n’utilise pas

Pour rendre cette transition concrète, Xavier Comtesse a présenté un modèle mental utile : les données structurées et les données non structurées. Les données structurées sont celles qui s’intègrent parfaitement dans vos systèmes. Les données non structurées sont tout le reste : audio, vidéo, images, texte libre, conversations informelles, bruits de machines, notes, courriels, chats, voire même les flux de données provenant de capteurs qui ne sont pas facilement exploitables pour la prise de décision.

Il qualifie cette masse de données inexploitées de données sombres, de « réserves dormantes » d’informations que les organisations génèrent mais qu’elles ignorent généralement.

Sa comparaison est délibérément extrême : dans l’univers, la matière visible représente environ 5%, le reste étant qualifié de matière sombre et d’énergie sombre. Dans les organisations, selon lui, les proportions peuvent sembler similaires : vous travaillez sur les 5% que vous pouvez voir, tandis que les 95% restent largement inexploités.

Ces 95% contiennent des signaux commerciaux et opérationnels : ce dont les clients se plaignent dans les courriels, ce dont les ingénieurs discutent lors des réunions, ce que « ressent » une machine avant de tomber en panne, ce qui est caché dans l’archive de photos que vous avez collectées pour des raisons de conformité et que vous avez ensuite oubliées.

La percée est que l’IA – en particulier les modèles modernes de langage et multimodaux – peut désormais extraire du sens de ces formats rapidement, à moindre coût et à grande échelle.

Du « numérique pour la productivité » au « numérique qui rapporte »

La plupart des entreprises ont une mémoire intuitive de la première numérisation : systèmes importants, projets longs, intégrations fragiles, coûts élevés – souvent justifiés par des gains de productivité modestes. Selon Xavier Comtesse, la deuxième numérisation change la donne.

Au lieu de numériser ce que vous avez déjà structuré (et mesuré), vous transformez des données auparavant inexploitables en quelque chose que vous pouvez vendre, exploiter ou transformer en produit.

« Nous passons d’une informatique qui coûte beaucoup pour des gains de productivité limités, à une informatique qui génère de l’argent. Le profit est enfin au bout du digital. »

C’est pourquoi il revient sans cesse à un seul test stratégique : cette initiative en matière d’IA génère-t-elle de la croissance – et pas seulement de l’efficacité ?

Trois exemples de « victoires rapides » qui montrent les changements

L’argument le plus fort de Xavier Comtesse est d’ordre pratique : la deuxième numérisation devient réelle lorsque vous constatez à quel point des utilisations ciblées et limitées de l’IA permettent de créer de la valeur à partir de données brutes.

1) Transformer les signaux publics en offres spécifiques aux clients
Il a décrit un grossiste alimentaire qui surveille les menus des restaurants en ligne, compare les ingrédients avec les achats passés des restaurants, puis identifie automatiquement les catégories manquantes, ce qui lui permet d’envoyer des offres personnalisées (par exemple, une réduction sur des produits que le restaurant utilise mais n’achète pas auprès de ce grossiste). Un humain pourrait effectuer cette tâche manuellement pour quelques comptes, mais l’IA la rend évolutive.

2) Compteurs intelligents : quand « plus de données » devient « plus d’actions »
Les services publics reçoivent de plus en plus fréquemment des données de consommation détaillées toutes les 15 minutes. En soi, cela ne change rien. Mais si ces données sont analysées par l’IA, elles peuvent détecter des anomalies qui indiquent une panne d’un appareil (réfrigérateur défectueux, cuisinière en panne) ou contribuer à lisser les pics de demande en recommandant des changements de comportement. Les avantages sont doubles : de meilleurs résultats pour le client et une meilleure rentabilité pour le fournisseur.

3) Des archives de photos aux services de maintenance prédictive
Un fabricant d’infrastructures hydrauliques avait collecté des centaines de milliers de photos de vannes au fil des années à des fins de documentation. L’analyse par IA de ces images permet d’identifier la corrosion, l’âge, les références de modèle et les problèmes de conformité, ce qui permet de réaliser des opérations de maintenance prédictive à distance et même de recommander des modifications de conception. Le changement le plus important est que ce qui était autrefois considéré comme une « charge documentaire » devient une couche de service payante.

Dans les trois cas, le schéma est le même : l’actif était déjà là. La valeur n’était pas accessible parce que le format des données ne l’était pas.

Commencez par des victoires rapides – pas par une « grande transformation »

Si Xavier Comtesse a une prescription opérationnelle à répéter, c’est celle-ci : commencer par des gains rapides.

Selon lui, un gain rapide en matière d’IA n’est pas un projet pilote conçu pour impressionner un comité directeur. Il s’agit d’une application ciblée et de petite envergure qui est :

  • rapide à mettre en œuvre (jours ou semaines, et non pas mois),
  • à faible risque (coûts engagés limités),
  • visible (les utilisateurs peuvent immédiatement ressentir l’amélioration),
  • et éducative (elle révèle où se trouvent vos données cachées et ce qu’elles peuvent permettre).

Il donne même une référence de l’ordre de grandeur pour l’attention à accorder à la direction : des projets qui peuvent être réalisés en moins de deux mois et pour moins de CHF 20 000, voire parfois bien moins.

« Ne prenez pas de cours. Faites-le vous-même. C’est en réalisant des projets rapidement que vous apprendrez ce qui est possible. »

Vous avez besoin d’une capacité limitée, mais elle doit être interne

Les gains rapides ne sont pas uniquement une question de rapidité. Ils sont le moyen pour une organisation de développer son jugement : ce qu’il faut faire confiance, ce qu’il faut développer, ce qu’il faut ignorer et où se trouve la véritable valeur ajoutée des données.

C’est pourquoi Xavier Comtesse insiste sur la nécessité d’un petit noyau interne – un « laboratoire d’IA » au sens le plus simple du terme : deux ou trois personnes de votre propre équipe informatique ou numérique, pas nécessairement à temps plein, chargées de trouver et de mettre en œuvre des gains rapides sur vos propres données noires.

La logique est simple : les fournisseurs peuvent vous vendre des outils, mais ils ne peuvent pas s’approprier votre contexte. Le scénario le plus risqué est de confier votre compréhension à un tiers au moment même où la compréhension devient un avantage concurrentiel.

Ce que les dirigeants devraient retenir

La « deuxième numérisation » n’est pas un slogan. C’est un changement de paradigme :

  • La matière première s’élargit : il ne s’agit plus seulement de ce que vos systèmes peuvent stocker, mais de ce que votre organisation produit.
  • L’économie change : la numérisation n’est plus justifiée par la productivité, mais par la création de revenus.
  • La stratégie évolue : les transformations radicales cèdent la place à des victoires rapides et itératives qui renforcent les capacités et la dynamique.
  • Le modèle opérationnel est important : il ne faut pas nécessairement un département IA massif, mais un noyau interne qui apprend en faisant.

Les organisations qui considèrent cette vague comme une exploration pratique et qui ont pris l’habitude de transformer les données brutes en valeur pour le client seront en position de force lorsque la deuxième vague arrivera.

À propos de l’expert

Dr. Xavier Comtesse est mathématicien et informaticien. Depuis les années 1970, il travaille à l’intersection de la technologie, de la communication et de l’innovation. Il a fondé plusieurs start-ups à Genève, occupé des postes de haut niveau dans la diplomatie scientifique suisse à Washington et à Boston (où il a contribué à la création du concept Swissnex), et a été le premier directeur francophone du think tank Avenir Suisse, où il a publié plusieurs ouvrages sur l’innovation et la gouvernance. Il a également cofondé ManufactureThinking.ch, un think tank industriel axé sur la nouvelle révolution industrielle.