Annabelle Auger
Charles-Étienne Joseph
Djavan Audebert

TECHNOLOGIES DE L'INFORMATION ET DES COMMUNICATIONS

Dans l'ombre des géants du numérique
Semi-conducteurs : de grands défis pour de petites puces électroniques
L'ère du Big Data : une averse de données
Internet haute vitesse : un service essentiel
L'industrie 4.0 : la transition vers le numérique

La rencontre de l’intelligence artificielle et de  l’Internet des objets, entraîne des retombées significatives pour les organisations, notamment en raison des gains en productivité. Tant au Canada qu’aux États-Unis, la numérisation déteint sur la société et implique un changement culturel pour lequel les gouvernements peinent parfois à suivre le rythme. Des puces électroniques aux réseaux de télécommunications de nouvelle génération, les technologies changent très rapidement. Face aux grandes multinationales du secteur technologique qui dominent le marché, des mesures doivent être mises en place afin de s’assurer que les citoyens canadiens et américains voient leurs droits respectés.

Dans l'ombre des géants du numérique

Annabelle Auger et Charles-Étienne Joseph

Les technologies numériques ont complètement transformé le paysage du commerce mondial. Des géants dictent les coups tandis que de petits joueurs tentent tant bien que mal de tirer leur épingle du jeu.

L'OLIGOPOLE DES GAFAM

GAFAM est l’acronyme qui représente les cinq géants américains du numérique que sont Google (Alphabet), Amazon, Facebook (Meta), Apple et Microsoft. Plus que des chefs de file dans leur domaine, ces entreprises font toutes partie du top 10 mondial selon la capitalisation du marché (Tableau 4.11). Leurs secteurs d’activités diversifiés touchent autant les systèmes d’exploitation que l’infonuagique ou encore la publicité (Tableau 4.1.2).

Tableau 4.1.1 - Top 10 mondial des entreprises selon la capitalisation du marché

Note : Les GAFAM sont présentés en gras.
Source : PwC, 2021

Tableau 4.1.2 - Secteurs d'activité des GAFAM

Source : La finance pour tous, 2022

Avec des segments de marché qui se recoupent et en occupant de grandes parts dans ceux-ci, il est clair que les GAFAM forment un oligopole. Toutefois, comment expliquer leur puissance? D’abord, les GAFAM sont parmi les compagnies qui dépensent le plus en recherche et développement (R et D) (Bajpai, 2021). La figure 4.1.1 présente les dépenses de chacune de ces entreprises. Ces investissements leur permettent de rester au sommet de la courbe d’innovation, parfois avec des technologies de rupture, mais la plupart du temps avec des améliorations incrémentales. À titre comparatif, Tesla, elle aussi dans le top 10 présenté au tableau 4.1.1, a dépensé près de 1,5 milliard USD en recherche et développement pour l’année 2020 (Carlier, s.d.).

Figure 4.1.1 - Dépenses en recherche et développement des GAFAM (milliards USD)

Source : Bajpai, 2021

Dans un point de vue complémentaire, Fontanel & Sushcheva (2019) affirment que les GAFAM ont profité de la libéralisation d’Internet. En effet, lors des balbutiements des technologies de l’information, dans les années 1960 et 1970, le développement était principalement mené par le secteur public américain et financé à même l’argent des contribuables. Ce n’est que vers 1990 que le Web s’est démocratisé et que les entreprises ont pu consolider leur emprise sur un marché peu réglementé. Bref, les GAFAM se trouvaient au bon endroit au bon moment.

LES NATU

Avec les années, de nouveaux géants se sont joints aux GAFAM. Il s’agit des NATU, faisant référence aux entreprises Netflix, Airbnb, Tesla et Uber. Ces entreprises sont plus petites que leurs consœurs des GAFAM, mais elles ont en commun une croissance fulgurante et une capacité à présenter des modèles économiques de rupture pour des industries « vieillissantes » (Tarnaud, 2020). Par exemple, Uber a mis en place un modèle d’économie de partage où les risques, comme ceux liés à l’entretien du véhicule, sont transférés aux chauffeurs.

UNE TENDANCE NATURELLE AU MONOPOLE

La plupart des plateformes en ligne ont un modèle d’affaire biface, c’est-à-dire qu’il existe deux types de clients interdépendants. Par exemple, Uber s’adresse à la fois aux chauffeurs et à leurs clients, Facebook aux utilisateurs et aux annonceurs, l’App Store aux développeurs d’application et aux utilisateurs de téléphones intelligents. Le modèle d’affaire biface bénéficie de l’effet de réseaux qui pose des barrières à l’entrée pour les nouveaux entrants (Sarazin, 2017).

Effet de réseaux

Dans les modèles bifaces, plus le nombre d’utilisateurs augmente, plus l’entreprise peut attirer de nouveaux utilisateurs grâce au réseau qu’elle crée. Par exemple, pour Uber, plus il y a de chauffeurs, plus le service est attirant pour les clients et inversement (Sarazin, 2017).

La valeur des plateformes dépend donc intrinsèquement du nombre d’utilisateurs. L’effet de réseaux entraîne ainsi une croissance exponentielle qui facilite la création d’oligopoles dans certains secteurs de marché. Par exemple, Microsoft domine dans le secteur d’exploitation des PC et Google dans les moteurs de recherche (Sarazin, 2017). Ces plateformes utilisent des algorithmes d’intelligence artificielle conçus pour collecter et traiter les données qui exigent des investissements initiaux élevés, mais qui ont des coûts marginaux faibles. Selon l’OCDE, cette structure de coûts d’économie d’échelle peut faciliter la concentration du marché (Eleodor, 2019).

DAVID CONTRE GOLIATH : LES STRATÉGIES D'ACQUISITION POUR DOMINER LE MARCHÉ

La concurrence est difficile pour un nouvel entrant n’ayant pas accès aux larges bandes d’utilisateurs dont dispose un opérateur historique. Pourtant, dans une guerre à l’attention des utilisateurs, les entreprises émergentes exercent une pression concurrentielle sur les marchés et ont le potentiel de dévier les utilisateurs vers de nouvelles plateformes désirables et innovantes. Les programmes d’acquisitions massives permettent aux grandes entreprises comme les GAFAM de réduire cette pression. Depuis les années 2000, Google a acquis près de 270 compagnies, Microsoft en a acquis plus de 100 et Facebook a acquis 90 compagnies, principalement des entreprises émergentes. Bien que ces acquisitions fassent parfois l’objet d’enquêtes de l’American Antitrust Institute (AAI) dans le cadre des lois sur la concurrence, peu d’entre elles aboutissent à des sanctions (Glick & Ruetschlin, 2019).

Visite de Microsoft

La visite de Microsoft, à Seattle, a permis d’en apprendre davantage sur leurs produits, dont le système d’exploitation Windows qui domine le marché, les outils de productivité comme Teams et Skype, la plateforme d’infonuagique Azure et les consoles de jeux vidéo Xbox.  

Les marchés bifaces compliquent la preuve lors des enquêtes. Du point de vue des utilisateurs, Google, un moteur de recherche, et Facebook, un réseau social, sont deux plateformes entièrement différentes qui ne se font pas concurrence. Mais le marché de la publicité numérique n’y voit pas de différence, si bien que ces deux plateformes forment un duopole possédant pas moins de 60 % du revenu total du marché en question (Glick & Ruetschlin, 2019). Puisque les utilisateurs ne paient pas pour le service et utilisent généralement plusieurs plateformes à la fois, il devient d’autant plus difficile pour les autorités anticoncurrentielles d’évaluer l’impact des acquisitions.

En somme, l’emprise des GAFAM sur les technologies de l’information et des communications rend difficile pour un petit joueur d’y trouver son compte. Certains, comme les NATU, y sont parvenus par leurs modèles économiques de rupture, mais pour d’autres, il est difficile de concurrencer cet oligopole.

D. Gupta

Semi-conducteurs : de grands défis pour de petites puces électroniques

Charles-Étienne Joseph

Le fonctionnement de tout appareil électronique repose sur les transistors qui composent des puces électroniques que l’on nomme souvent semi-conducteurs, en référence aux matériaux avec lesquels elles sont fabriquées. Du matériel de télécommunications aux électroménagers en passant par les automobiles : les semi-conducteurs sont cachés, mais pourtant omniprésents (Buckler, 2013).

PORTRAIT DE L'INDUSTRIE

Il existe trois modèles d’affaires dans l'industrie des semi-conducteurs. À une extrémité du spectre se trouvent les fonderies, soit les entreprises qui fabriquent les puces électroniques et les circuits intégrés sans toutefois les concevoir. À l’autre extrémité, les entreprises non fabricantes, dites fabless en anglais, sont celles qui ont seulement les capacités de conception. Elles sont dépendantes des fonderies pour produire leurs puces. Enfin, au centre, il y a les fabricants de dispositifs intégrés. Ce sont les compagnies capables à la fois de concevoir et de produire leurs propres semi-conducteurs. La figure 4.2.1 présente certaines entreprises œuvrant dans l’industrie des semi-conducteurs selon leur modèle d’affaires.

Figure 4.2.1 - Exemples d’entreprises œuvrant dans l’industrie des semi-conducteurs selon leur modèle d’affaires

Source : POEMS Australia, 2021

Bien que le Québec compte plus de 700 entreprises œuvrant dans le secteur des systèmes électroniques, il reste un petit joueur comparativement à la Californie ou à l’Oregon (Ministère de l’Économie et de l’Innovation, s.d.). En effet, c’est en Oregon que cette industrie contribue le plus au PIB, en pourcentage, pour une valeur d’un peu plus de 8 % en 2020. C’est donc dire que l’industrie des semi-conducteurs participe grandement à la vitalité économique de l’État. La Californie suit de près avec une valeur de presque 5,5 % en 2020. La figure 4.2.2 présente la contribution au PIB, en pourcentage, du secteur de la fabrication de produits informatiques et électroniques pour les provinces et les États concernés.

Figure 4.2.2 - Pourcentage du PIB du sous-secteur de la fabrication de produits informatiques et électroniques par province ou État entre 2016 et 2020

Sources : Statistique Canada, 2021; Bureau of Economic Analysis, s.d.

LOI DE MOORE

L’industrie des semi-conducteurs fait face à une menace technique : la difficulté, dans les prochaines années, de continuer à suivre la loi de Moore.

Qu'est-ce que la loi de Moore?

Énoncée dès 1965 par Gordon Moore, cofondateur d’Intel, la loi de Moore est une loi empirique affirmant que le nombre de transistors par circuit de même taille double tous les 18 mois à un même prix (Futura, s.d.). Cela implique que la puissance de calcul des ordinateurs double au même rythme.

Les entreprises ont réussi, depuis les années 1970, à se conformer à cet énoncé (Figure 4.2.3). Le rythme imposé par cette loi est responsable de l’avènement des technologies de l’information et des communications telles que nous les connaissons ainsi que d’une partie de la croissance économique des dernières décennies (Business Wire, 2015). Toutefois, deux obstacles considérables laissent entrevoir la fin de la loi de Moore dans les prochaines années. Le premier vient du fait que les circuits de semi-conducteurs sont très rapprochés les uns des autres, soit à quelques nanomètres seulement (Waldrop, 2016). À cette échelle, les électrons sont guidés par l’incertitude quantique, ce qui rend les transistors non fiables. Il est donc impossible de réduire davantage l’espace entre ceux-ci pour en augmenter le nombre. Le second est une conséquence de l’espace restreint entre les transistors. Toujours selon Waldrop, plus les électrons ont été forcés de se déplacer rapidement dans des circuits de plus en plus rapprochés, plus les puces se sont mises à émettre de la chaleur : qui a envie d’avoir un cellulaire qui lui brûle la main?

Figure 4.2.3 - Nombre de transistors par microprocesseurs selon les années (échelle logarithmique)

Source : Karl Rupp, 2018

Pour pallier le problème de chaleur, les entreprises présentent désormais des modèles de puces à plusieurs cœurs qui permettent d’exécuter des instructions en parallèle. En ce qui concerne la taille entre les transistors, plusieurs solutions sont envisagées, allant du développement de circuits pour des applications spécifiques en passant par un changement de paradigme tel l’informatique quantique.

Ces défis techniques ne sont toutefois pas les seuls auxquels fait face l’industrie qui est actuellement aux prises avec une crise majeure.

PÉNURIE DE SEMI-CONDUCTEURS

À la fin de l’année 2020, les fonderies n’arrivaient pas à répondre à la demande toujours croissante en semi-conducteurs, ce qui affecte encore aujourd’hui la chaîne d’approvisionnement d’une panoplie d’industries. Il s’agit d’une pénurie mondiale de semi-conducteurs.

L’une des industries ayant le plus contribué à l’augmentation de la demande en puces électroniques et qui en subit aujourd’hui les contrecoups est sans doute l’industrie automobile. L’automobile moyenne compte entre 1 400 et 1 500 puces électroniques, alors que certains modèles en comportent plus de 3 000 (Ward, 2021). L’industrie automobile consomme près de 15 % de la production de semi-conducteurs. La crise, qui sévit toujours, était si grave, qu’en 2021, les entreprises fabricantes de voitures ont dû cesser leur production et estimaient alors leurs pertes en milliards de dollars (Burkacky et al., 2021).

Un autre exemple est l’industrie des jeux vidéo. Au début de la pandémie de la COVID-19, probablement à cause de la volonté des gens de se divertir malgré les confinements imposés par les gouvernements, les ventes de consoles de jeux vidéo ont augmenté, en mars 2020, de 155 % comparativement aux semaines précédentes (Clément, 2021). Les fabricants de consoles ont encore de la difficulté à s’approvisionner en semi-conducteurs : à ce jour, il est presque impossible de se procurer une console dernier cri comme une PlayStation 5 de Sony ou encore une Xbox Series X de Microsoft.

En plus de l’augmentation de la demande, des tensions géopolitiques alimentent la pénurie de semi-conducteurs. Par exemple, les entreprises américaines ne peuvent pas faire affaire avec SMIC, la plus grande fonderie chinoise (The Finery Report, 2021). D’autre part, la guerre en Ukraine nuit à l’industrie américaine des semi-conducteurs, puisque l’Ukraine est le principal fournisseur de néon, un gaz noble entrant dans la composition des lasers utilisés pour fabriquer les puces électroniques (Keary, 2022). Bref, la crise actuelle ne semble pas près de se résorber.

Afin de pallier les vulnérabilités de la chaîne d’approvisionnement en semi-conducteurs, Varas et al. (2021) mentionnent qu’il faut déployer des efforts ciblés afin de balancer les risques actuels. C’est ce que les États-Unis font avec le CHIPS Act, qui alloue 52 milliards USD pour la production de semi-conducteurs aux États-Unis (Dozier, 2021). Au Québec, les mesures s’inscrivent dans une stratégie plus large de zones d’innovation, notamment à Bromont avec C2MI. Ces zones d’innovation permettent l’assemblage de semi-conducteurs et offrent des services pour faciliter la commercialisation d’innovations technologiques (Cabinet du premier ministre, 2022).

Visite de Aeponyx

Le 14 avril 2022, l’équipe de Poly-Monde a eu la chance de visiter l’entreprise Aeponyx, spécialisée dans la conception de circuits intégrés photoniques. Aeponyx est une entreprise non fabricante et elle compte le rester. Elle fait affaire avec C2MI pour la fabrication de ses produits.

En conclusion, qu’il s’agisse de problèmes intrinsèques à l’innovation technologique ou tributaires de la conjoncture économique, l’industrie des semi-conducteurs fait face à des défis de taille!

Umberto

L'ère du Big Data : une averse de données

Djavan Audebert

Dans le monde actuel caractérisé comme étant de l’ère du Big Data, ou mégadonnées en français, les données sont considérées comme une denrée ayant un potentiel d’exploitation important et en forte croissance. Plus de données ont été extraites en 2011 que dans toute l’histoire de l’humanité, et la massification de la collecte ne cesse d’augmenter (Monnier, 2018).

Les outils de traçage sur le Web (comme les témoins ou cookies), alliés des multiples gadgets de l’Internet des objets, permettent de collecter des données dans toutes les sphères de la société. Les algorithmes d’intelligence artificielle gèrent cette « infobésité ». Ils font en effet émerger des modèles à partir de données peu structurées en détectant les répétitions et en modélisant les comportements. Le raisonnement n’est plus déductif, mais plutôt inductif.

LE BIG BANG DE LA DONNÉE

Les estimations indiquent que le marché global des mégadonnées devrait plus que doubler, passant de 193,14 milliards USD en 2019 à 420,98 milliards USD en 2027 (Olabode et al., 2022). Le volume de données numériques créées ou répliquées à l’échelle mondiale a été multiplié par plus de trente au cours de la dernière décennie, passant de 2 zettaoctets en 2010 à 79 zettaoctets en 2021. Selon les prévisions (Figure 4.3.1), le volume de données générées dans le monde devrait dépasser 180 zettaoctets à l’horizon de 2025, soit une croissance annuelle moyenne de près de 40 % sur cinq ans. La démocratisation croissante des objets connectés et le développement de la 5G constituent les principaux moteurs de ce Big Bang de la donnée (Gaudiaut, 2021).

Figure 4.3.1 - Volume mondial de données créées, capturées, copiées et consommées entre 2010 et 2025

Note : Les données pour les années 2020 à 2025 sont des projections.
Source : Statista, 2022

Zettaoctet? Qu’est-ce que cela représente?

Pour comprendre ce que représentente cette unité, 1 zettaoctet correspond à 1 000 000 000 000 000 000 000 octets, soit l’équivalent de la mémoire cumulée de 80 milliards d’iPhone 128 Go.

LA TRANFORMATION NUMÉRIQUE DANS LES MODÈLES D'AFFAIRES

Jadis, les entreprises, voire les organisations en général, peinaient à collecter sporadiquement des données fiables. Aujourd’hui, elles se scindent en deux catégories en matière de relation aux données : celles qui ont intégré cette évolution dans leur modèle d’affaires comme une opportunité ont fait de la maîtrise de la donnée un relais de croissance vertueux et celles qui demeurent perplexes face aux données massives, de natures diverses et peinent à entamer leur transition numérique (Morisse, s.d.). Les GAFAM et les NATU ont d’ailleurs bien intégré les données à leurs modèles d’affaires (Figure 4.3.2). Les algorithmes d’intelligence artificielle combinés à des sources de données diverses comme Google Maps et les paniers d’achats en ligne génèrent de nouvelles données sur les consommateurs, les concurrents et les chaînes d’approvisionnement, perturbant ainsi presque tous les facteurs connus d’avantage concurrentiel. Une étude mondiale réalisée par McKinsey indique que les entreprises tirent un bénéfice de 6 % des investissements dans les mégadonnées et que ce chiffre passe à 9 % pour les investissements sur une période de cinq ans (Olabode et al., 2022).

Figure 4.3.2 - Intégration des données dans le modèle d’affaire des entreprises

Source : Sultana et al., 2022

Le modèle conceptuel présenté à la figure 4.3.2 est un concept multidimensionnel et hiérarchique ayant des sous-dimensions distinctes. Ce modèle comprend trois éléments importants que les organisations axées sur les données doivent prendre en compte et auxquels elles doivent s’adapter lorsqu’elles recherchent un avantage concurrentiel durable, à savoir l’évolution constante des conditions du marché, le bouleversement continu des technologies de mégadonnées sans précédent et le besoin de talents innovants (Sultana et al., 2022).


Il faut cependant faire preuve de rigueur quant à la valorisation des données. Collecter des données, c’est simple, mais les valoriser, c’est tout un défi! Les mégadonnées génèrent de la redondance, des données erronées, non intégrées et non cohérentes. Il faut les nettoyer, les simplifier, les consolider et les valider. Selon Poly-Industries 4.0, lors de la journée québécoise de valorisation des données par IVADO : « [le défi] c’est de s’assurer que les données soient complètes et qu’on puisse les convertir en données utilisables. » (Passalacqua, 2018) (Figure 4.3.3).

Figure 4.3.3 - Entonnoir d’analyse des mégadonnées : des données volumineuses à de précieux résultats

Source : FOSTEC & Company, s.d.

Comme l’illustre la figure 4.3.3, une fois valorisées, les données provenant des mégadonnées permettent de contribuer à la prise de décisions plus rapidement et de meilleure qualité, à la réduction des coûts ou au développement de nouveaux produits et services, voire de nouveaux modèles d’affaires (Tableau 4.3.1). Il a été démontré que 20 % à 30 % des coûts d’exploitation des entreprises proviennent d’une mauvaise qualité des données. Il est donc possible de faire des économies considérables en valorisant les données (Irosoft, 2018).

Tableau 4.3.1 - Exemples d’application des mégadonnées

Source : FOSTEC & Company, s.d.

Le tableau 4.3.1 démontre que la récolte, la valorisation et l’interprétation des données permettent d’améliorer les connaissances sur sa clientèle et donc de proposer une meilleure expérience client, d’améliorer la sécurité et de prévenir les risques, d’optimiser ses ressources et d’améliorer sa productivité (Fostec & Company, s.d.).

DES SIMILITUDES DANS LES POLITIQUES DE PROTECTION DES DONNÉES PERSONNELLES

La protection des données personnelles est un enjeu préoccupant pour tous les gouvernements, y compris pour les gouvernements canadien et américain. En Californie, le California Consumer Privacy Act (CCPA) signé le 28 juin 2018 et mis en application le 1er janvier 2020, est venu renforcer le Privacy Act du gouvernement américain (Bellanova & De Hert, 2009). Le CCPA assure de nouveaux droits aux consommateurs, dont le pouvoir de choisir les données qu’ils veulent ou non partager, et prescrit des obligations et même des sanctions aux entreprises collectant massivement les données des utilisateurs californiens (Mediavilla, 2020) (Jami-Caston & Vincens, 2019). Au Québec, le projet de loi n° 64 (qui entrera en vigueur le 22 septembre 2023) vient moderniser la Loi canadienne sur la protection des renseignements personnels et les documents électroniques (PIPEDA) (Grynwajc, 2020) (Lévesque, 2020). Similaire au CCPA en Californie, le projet de loi n° 64 assure de nouveaux droits aux consommateurs et prescrit des obligations et des sanctions aux entreprises collectant massivement les données des utilisateurs québécois (Lapointe, 2021). Ces législations protectionnistes internes à l’État ou à la province témoignent de la volonté de pallier le problème de fuite de données, de cybersécurité et d’imposer une transparence totale des entreprises sur l’utilisation des données personnelles. Elles redonnent ainsi le pouvoir aux utilisateurs sur les informations qui les concernent personnellement, s’arrimant ainsi aux enjeux évoqués dans la partie « Renforcer la sécurité et la défense » de la Feuille de route pour le partenariat renouvelé États-Unis–Canada (Biden & Trudeau, 2021).

Visite de Komodo Health

La visite de Komodo Health a permis de comparer la législation sur les données de santé et d’assurance maladie, qui ne sont pas régies selon les mêmes lois que celles énoncées précédemment. Aux États-Unis, c’est le Health Insurance Portability and Accountability Act (HIPAA) qui régit ces données, tandis qu’au Canada c’est le Personal Health Information (PHI), deux lois assez similaires.

STOCKAGE DE DONNÉES : LA MOBILISATION MATÉRIELLE ET SPATIALE

La gestion de toutes les données créées est essentielle et elle s’effectue par l’intermédiaire de nombreux centres de données. La figure 4.3.4 illustre la répartition géographique des fournisseurs de services de centres de données en Amérique du Nord, tels que la colocation, les serveurs dédiés, les serveurs infonuagiques, l’hébergement géré, le transit IP et de nombreux autres services d’hébergement.

Figure 4.3.4 - Localisation des principaux centres de données aux États-Unis et au Canada

Source : Data Center Map, s.d.

Stockage des données : infonuagique ou centres de données personnels?

En ce qui concerne le stockage des données, une entreprise a le choix d’installer et d’exploiter ses propres centres de données ou bien de souscrire des abonnements chez des services infonuagiques tels que AWS d’Amazon ou Azure de Microsoft. Certaines compagnies combinent même les deux. Par exemple, en visite chez Netflix, l’équipe a appris que la compagnie stocke les données relatives aux comptes de leurs clients sur les serveurs d’AWS, tandis que les films sont stockés sur leurs serveurs personnels répartis aux quatre coins du monde.

Les États-Unis sont véritablement des leaders dans l’hébergement des données, surtout dans les villes comme Ashburn (Data Center Alley, Virginie), Washington D. C., San Jose et Los Angeles, là où il y a une forte concentration d’entreprises technologiques. En général, les entreprises qui fournissent des services infonuagiques ont tout intérêt à localiser leur centre de données à proximité de leurs clients. Cela permet à la fois de respecter les politiques de protection des données des gouvernements où sont implantés les clients, mais aussi de diminuer le temps d’accès aux données.

Certains États des États-Unis sont fiscalement et énergétiquement plus intéressants pour exploiter de vastes terrains afin d’implanter des centres de données à grande échelle. Au Canada, Vancouver, Toronto et Montréal représentent les principaux centres d’hébergement de données, là où la demande est la plus importante et où l’énergie produite est qualifiée d’énergie « verte ». D’ailleurs, de nombreuses compagnies américaines d’hébergement de données sont présentes sur le territoire canadien et vice-versa, s’arrimant ainsi aux enjeux évoqués dans la partie « Rebâtir en mieux » de la Feuille de route pour le partenariat renouvelé États-Unis–Canada (Biden & Trudeau, 2021).

LES DÉFIS ET LES INNOVATIONS TECHNOLOGIQUES LIÉS
À LA CONSOMMATION ÉNERGÉTIQUE

La consommation énergétique des centres de données constitue un véritable gouffre financier pour les entreprises. C’est d’ailleurs la raison pour laquelle plusieurs d’entre elles démontrent une certaine volonté de réduction de la consommation énergétique des centres de données.

En effet, l’énergie emmagasinée par les matériaux conducteurs utilisés dans les centres de données se dissipe sous forme de chaleur; c’est ce qui est appelé « l’effet joule ». Ainsi, 50 % de la facture d’électricité d’un centre de données est consacrée au refroidissement des machines (Sermondadaz, 2018).

L'effet joule

L’effet joule est un effet thermique qui se produit lors du passage du courant électrique dans un conducteur. Il se manifeste par une augmentation de l’énergie thermique du conducteur et donc de sa température (Futura Sciences, s.d.).

L'effet calorifique

L’effet calorifique est mis à profit dans de nombreux appareils de la vie quotidienne comme le fer à repasser, le grille-pain, le chauffe-eau, les radiateurs électriques, le sèche-cheveux, etc. (Électrotechnique, 2000).

Il existe deux choix pour l’optimisation énergétique d’un centre de données : valoriser les calories produites pour chauffer des bâtiments voisins, alimenter un réseau de chaleur existant, chauffer une piscine ou utiliser les énergies renouvelables de façon écoresponsable pour consommer le moins possible tout en préservant l’écosystème. Plusieurs innovations ont été développées afin de réduire la consommation énergétique des centres de données et certaines d’entre elles, ainsi que leur principe, sont présentées au tableau 4.3.2.

Tableau 4.3.2 - Principes et avantages des innovations technologiques sur la consommation énergétique d’un centre de données

Sources multiples

Il existe deux choix pour l’optimisation énergétique d’un centre de données : valoriser les calories produites pour chauffer des bâtiments voisins, alimenter un réseau de chaleur existant, chauffer une piscine ou utiliser les énergies renouvelables de façon écoresponsable pour consommer le moins possible tout en préservant l’écosystème. Plusieurs innovations ont été développées afin de réduire la consommation énergétique des centres de données et certaines d’entre elles, ainsi que leur principe, sont présentées au tableau 4.3.2.

Visite de Microsoft

Microsoft vise la carboneutralité d’ici 2030. En 2021, les services d’Azure ont vu leurs émissions décroître de 17 %. Toutefois, la forte demande de numérisation provenant des entreprises, lors de la plus récente pandémie, a fait en sorte que les gains obtenus en 2021 ont été effacés pour faire place, durant la dernière année, à une augmentation de plus de 23 % des émissions de gaz à effet de serre.

Il existe deux choix pour l’optimisation énergétique d’un centre de données : valoriser les calories produites pour chauffer des bâtiments voisins, alimenter un réseau de chaleur existant, chauffer une piscine ou utiliser les énergies renouvelables de façon écoresponsable pour consommer le moins possible tout en préservant l’écosystème. Plusieurs innovations ont été développées afin de réduire la consommation énergétique des centres de données et certaines d’entre elles, ainsi que leur principe, sont présentées au tableau 4.3.2.

Photographe anonyme

Internet haute vitesse : un service essentiel

Annabelle Auger

Dans le contexte où la numérisation touche désormais toutes les sphères des sociétés modernes comme celles du Québec et de la côte ouest américaine, les services d’Internet haute vitesse sont essentiels. Cette réalité est devenue par ailleurs très significative à la suite de la pandémie de COVID-19.

La transition obligée vers le travail à domicile a convaincu les employeurs et les employés réticents des bienfaits du télétravail. Toutefois, l’accès à l’Internet haute vitesse à un prix accessible sur l’ensemble du territoire pose de nombreux défis.

Les améliorations de la technologie sans fil, comme la 5G, proposent aujourd’hui des alternatives à l’accès à large bande, réduisant les barrières à l’entrée sur le marché. Les abonnements aux services à large bande mobile sont en croissance au Canada et aux États-Unis, tandis que les abonnements aux services fixes sont plutôt stagnants (Figure 4.4.1).

Figure 4.4.1 - Abonnements au service à large bande, fixe ou mobile, total par 100 habitants, États-Unis et Canada

Source : OCDE, 2022

5G

Il s’agit de la cinquième génération (5G, donc) de normes pour la technologie mobile, qui permet de téléphoner et de naviguer sur Internet n’importe où. Ce nouveau réseau sans fil sera plus rapide, plus fiable et plus puissant que les précédents, et pourra prendre en charge un plus grand nombre d’objets interconnectés.

CONCURRENCE DU MARCHÉ : LE RÔLE DES ORGANISMES RÉGULATEURS

Tant au Canada qu’aux États-Unis, les organismes régulateurs sont les arbitres de la concurrence que les compagnies de télécommunications peuvent se livrer. Il existe une dualité entre les types de concurrences déployées pour les réseaux de télécommunications : la concurrence fondée sur les installations et la concurrence fondée sur les services (Figure 4.4.2).

Figure 4.4.2 - Concurrence fondée sur les installations versus concurrence fondée sur les services

Source : Masse, 2016

Le déploiement de réseaux de prochaine génération exige des investissements majeurs dans les infrastructures existantes. Les approches favorisées par les différents pays au cours des dernières années démontrent que l’environnement réglementaire est crucial pour permettre aux propriétaires d’infrastructures d’investir dans leurs installations. Les exploitants de réseaux mobiles subissent les coûts d’obsolescence ou d’amélioration du réseau tandis que les concurrents comptent sur un accès obligatoire en vertu des cadres réglementaires (Masse & Beaudry, 2015).

Aux États-Unis, la Federal Communications Commission (FCC), a choisi, depuis l’an 2000, de ne pas imposer l’accès des concurrents aux réseaux existants, permettant ainsi des investissements considérables vers les nouvelles technologies à large bande. A contrario, en Europe, les politiques d’accès obligatoire ont incité la concurrence par les services, qui ne favorise pas les investissements dans les installations puisque seul l’opérateur du réseau doit investir dans la modernisation de ses installations (Masse & Beaudry, 2015). Au Canada, le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) a appliqué un régime hybride. Ainsi, l’Europe enregistre un retard dans le taux de pénétration de la technologie LTE, comparativement au Canada et aux États-Unis (Figure 4.4.3), mais aussi un ralentissement de la progression des dépenses en immobilisation dans le réseau sans fil (Figure 4.4.4).

Figure 4.4.3 - Connexions LTE en pourcentage de l’ensemble des connexions

Source : Cisco Annual Internet Report Highlights Tool, 2018-2023

Figure 4.4.4 - Progression des dépenses en immobilisations dans le réseau sans fil, 2007-2013

Source : Cisco Annual Internet Report Highlights Tool, 2018-2023

Afin de promouvoir la concurrence, le CRTC impose, en 2015, le régime appelé « marché du gros », demandant aux exploitants de réseaux mobiles (ERM) de partager leurs réseaux jusqu’au domicile avec des revendeurs en vertu de tarifs et de modalités précises définies par le CRTC (Conseil de la radiodiffusion et des télécommunications canadiennes, 2021). Toutefois, seuls les exploitants possédant déjà des installations bénéficient de ce régime; il s’agit donc d’un régime hybride. Cette annonce a cependant eu pour effet de diminuer les investissements par connexion au Canada à compter de 2015 (Masse, 2018).

Au Canada, les « trois géants » (Bell, Rogers et Telus) détiennent un pouvoir de marché important et des niveaux de rentabilité très élevés, de l’ordre de 42 % à 45 % pour la téléphonie portable (Brousseau-Pouliot, 2020). Certaines provinces canadiennes comptent également des exploitants régionaux dotés d’infrastructures leur permettant de fournir leur propre réseau. Au Québec, Vidéotron (Québecor) agit comme un perturbateur de services sans fil. Selon le Bureau de la concurrence, lorsque ces perturbateurs atteignent une part de marché de plus de 5,5 %, les prix sont de 35 % à 40 % plus bas (Bureau de la concurrence, 2022).

Visite de Telus

Le 9 mai 2022, lors de leur passage à Vancouver, les membres de Poly-Monde ont pu rencontrer Telus afin de discuter des enjeux de connectivité. Telus a notamment choisi d’investir dans les technologies de médecine, permettant de connecter les patients avec des professionnels de la santé grâce à des systèmes centralisés (télémédecine). Ces services ont été d’autant plus importants depuis la pandémie.

Aux États-Unis, les gros joueurs comme AT&T, T-Mobile, Verizon et Sprint détiennent une part importante du marché. Toutefois, dès 2011, l’arrivée des exploitants de réseaux mobiles virtuels (ERMV) (Tableau 4.4.1) vient accroître la concurrence sur le prix des services de télécommunications. Les quatre grands opérateurs fournissent une infrastructure réseau à 139 ERMV qui desservaient, en avril 2019, près de 36 millions d’abonnés (Mordor Intelligence LLP, 2020). Le programme Lifeline de la Federal Communications Commission (FCC) a contribué à faire croître les parts de marché de ces ERMV. Plusieurs États se sont notamment associés avec ces exploitants pour fournir des services haut débit à un tarif très subventionné.

Tableau 4.4.1 - Classification des fournisseurs de services en télécommunication, Canada

Source : Adaptation de Cansumer, s.d.

L'ACCÈS À INTERNET HORS DES CENTRES URBAINS

Le régime imposé en 2015 par le CRTC a eu un impact significatif sur les investissements des grands fournisseurs. Les tarifs de revente toujours plus bas imposés aux détenteurs d’infrastructures n’incitent pas les revendeurs à investir dans leurs installations. Il y a donc davantage une concurrence dans les prix de détail plutôt que des investissements dans les infrastructures. Gabriel Giguère, analyste en politiques publiques, indique que : « Le régime est contre-productif, car aujourd’hui, [il faut] avoir une entente publique avec des fonds publics pour obtenir un service de qualité. On paye près de 10 000 $ par porte, au Saguenay–Lac-Saint-Jean. On aurait pu éviter ça. En ayant de meilleures ententes avec les revendeurs, les fournisseurs auraient investi davantage par le passé. » (Lévesque, 2022) Ces mesures contre-productives du gouvernement canadien ont favorisé l’apparition du concurrent privé Starlink Canada. Ce dernier a réussi à se tailler une place de choix dans l’Internet rural avec ses satellites, pendant que les grands fournisseurs attendent que les gouvernements paient à leur place ces expansions du réseau (McKenna, 2022).

La figure 4.4.5 présente l’écart entre le taux d’accès à Internet en région urbaine versus en région rurale. Au Canada, l’écart est plus significatif qu’aux États-Unis dans les régions étudiées.

Figure 4.4.5 - Taux d’accès à Internet en région urbaine par rapport à celui en région (2019 aux É.-U.; 2020 au Canada)

Sources : Statistique Canada, 2020; United States Census Bureau, 2019

En somme, de plus en plus d’objets sont connectés chaque jour aux réseaux de télécommunications. Le déploiement de réseaux de prochaine génération implique des investissements majeurs dans les infrastructures existantes qui devront être assumés à la fois par les gros fournisseurs et les revendeurs. Les interventions gouvernementales devront également favoriser le développement de telles infrastructures technologiques et favoriser la croissance de la couverture sur l’ensemble du territoire.

Photographe anonyme

L'industrie 4.0 : la transition vers le numérique

Annabelle Auger, Djavan Audebert et Charles-Étienne Joseph

L’industrie 4.0 est le nom donné à la quatrième révolution industrielle qui optimise la numérisation entamée par la troisième révolution. L’idée est que grâce à des machines connectées et intelligentes qui récoltent des données sur la production, il est possible d’augmenter la productivité en transformant les usines traditionnelles en usines intelligentes (Marr, 2018).

Qu’est-ce qui rend possible la mise en place d’une rupture avec la troisième révolution industrielle (Tableau 4.5.1)? Selon Tripathi et al. (2020), c’est la convergence des technologies issues de plusieurs secteurs liés aux technologies de l’information et des communications. Il s’agit d’un amalgame entre l’Internet des objets (abrégée en IoT en anglais pour Internet of Things), les techniques d’intelligence artificielle et de science des données, le développement de l’infonuagique et des centres de données (Tripathi et al., 2020) ainsi que de la 5G qui ouvre un monde de possibilités pour la transmission des nouvelles données collectées (Attaran, 2021).

Tableau 4.5.1 - Les quatre révolutions industrielles

Source : DG1, s.d.

L'Internet des objets

L’Internet des objets est caractérisé par une identité numérique propre aux objets qui sont capables de communiquer les uns avec les autres (Futura, s.d.). Qui dit davantage d’objets connectés dit inévitablement une augmentation de la demande en puces électroniques et de la quantité de données générées.

NUMÉRISER L'INDUSTRIE

Les États-Unis et principalement les États de l’Ouest américain sont fortement influencés par les GAFAM et les NATU pour la transition vers le numérique. En 2020, 73 % des entreprises américaines déclaraient avoir adopté une nouvelle technologie numérique (Banque européenne d’investissement, 2021). Néanmoins au Canada, et plus particulièrement au Québec, la transformation numérique peine à rattraper son retard sur les États-Unis (Figure 4.5.1). Lors de Connexion, le salon de la transformation numérique qui s’est tenu à Montréal, en 2018, il a été recensé que 23 % des entreprises canadiennes comptent investir dans les technologies de l’information et des communication, contrairement à 66 % aux États-Unis (Irosoft, 2018). Même si le gouvernement du Canada a investi quatre milliards de dollars en lançant en juillet 2021 le Programme canadien d’adoption du numérique (PCAN), seulement 13 % des dirigeants d’entreprises interrogés dans l’ensemble du pays ont participé au programme et 52 % des responsables interrogés n’en avaient jamais entendu parler (Anaya, 2021).

Figure 4.5.1 - Classement mondial de la compétitivité numérique

Source : IMD, 2021; Pourcentage en fonction du premier du classement

La pandémie de la COVID-19 a par ailleurs accéléré la numérisation des entreprises, ce qui a eu pour effet de contribuer à la capitalisation du marché des GAFAM. Les entreprises du secteur des technologies ont connu une augmentation de 71 % de leur valeur par rapport à mars 2020 (PwC, 2021). Tandis que les États-Unis conservent leur première place en termes de compétitivité numérique depuis 2018, le Canada, quant à lui, perd du terrain, passant de la 11e à la 13e position entre 2019 et 2021. Quelques faiblesses rapportées par l’analyse d’IMD expliquent cette régression du Canada dans le classement de la figure 15 : les dépenses publiques totales pour l’éducation, le nombre de diplômes octroyés dans le domaine des sciences, l’application de nouveaux contrats et le haut débit sans fil y sont moindres que dans les autres pays qui figurent en tête du classement. De plus, la peur de l’échec persiste encore chez les entrepreneurs au Canada (IMD, 2021).

Le Canada et le Québec possèdent de bons programmes, institutions ou grappes qui favorisent l’innovation et le virage technologique des entreprises, mais le pays génère peu de géants mondiaux. Ainsi, même si le pays innove, il ne capture pas tout de cette innovation et elle se retrouve donc probablement dans la chaîne de valeur des États-Unis (Gobeil, 2021).

Visite du Digital Technology Supercluster

La visite du Digital Technology Supercluster a permis de comprendre la volonté de libérer le potentiel des Canadiens pour qu’ils puissent diriger et réussir dans le monde numérique grâce à une puissante combinaison de co-investissement, de collaboration intersectorielle, de création de propriété intellectuelle et de développement de talents numériques.

LES PROMESSES DU 4.0

La valorisation des données est le pilier fondamental de l’industrie 4.0. Carl Chouinard, chef AI de Vooban explique pourquoi : « Les études du centre de recherche de Microsoft ont démontré que la performance algorithmique est négligeable par rapport à la qualité des données. » Avant même de penser à la performance des algorithmes, il faut des données pertinentes et surtout, en grande quantité.
L’exploitation des données est bénéfique à qui sait les utiliser et permet de développer des champs d’application stratégiques afin de rester concurrentiel.  Voici quelques exemples de champs d’application : la segmentation et le ciblage, les compétences distinctives, la monétisation de la donnée, l'entreprise augmentée et le risques inhérents à la donnée (cybersécurité) (Morisse, s.d.).

Allier les données aux méthodes d’apprentissage machine et à l’intelligence artificielle s’est avéré utile dans les problèmes de prévision avec un grand nombre de variables prédictives, et permettent donc à l’entreprise de toujours avoir un pouvoir sur son futur (Martin & Nagel, 2021).

Visite de Noodle.ai

La visite de Noodle.ai a permis de détailler comment une entreprise peut valoriser les données qu’elle génère grâce à des algorithmes d’intelligence artificielle afin d’augmenter sa productivité. Grâce à ses produits, Noodle.ai permet aux entreprises d’entrer dans le monde de l’industrie 4.0.

Depuis une vingtaine d’années, les industries canadiennes semblent avoir tiré profit de la numérisation. Bien que les données ne semblent pas indiquer un lien de cause à effet, elles montrent que la numérisation est liée à une plus forte croissance de la productivité du travail (Figure 4.5.2). Les industries qui ont davantage intégré les technologies numériques à leurs activités ont été moins durement touchées par la pandémie de COVID-19 et ont démontré une plus grande résilience (Gouvernement du Canada, 2021).

Figure 4.5.2 - Croissance de la productivité du travail dans les industries à forte et à faible intensité numérique au Canada (dollars constants)

Sources : Statistique Canada, 2022

CONTRAINTES ET DÉFIS

Malgré toutes les promesses de l’industrie 4.0, la quatrième révolution industrielle implique des changements majeurs qui s’accompagnent de plusieurs défis. Les principaux défis sont les compétences requises et la sécurité des données (Capitales Studio, 2018).

La gestion et la sécurité des données, la programmation, l’interaction humain-machine et l’analytique sont quelques compétences qui permettent la transition des entreprises vers l’industrie 4.0. Les entreprises tentent tant bien que mal de former leurs employés et d’embaucher de nouvelles ressources. Or, la pénurie de main-d’œuvre en informatique qui sévit actuellement pose un frein à l’implantation de nouvelles technologies dans l’industrie manufacturière. En effet, les compétences requises pour l’industrie 4.0 ne sont pas acquises dans cette industrie : « Des études menées en Allemagne et aux États-Unis ont démontré que chez la grande majorité des employés industriels, les compétences requises pour l’industrie 4.0 ne sont pas présentes. Le Québec fait face au même constat. » (Capitales Studio, 2018).

Auparavant, les technologies étaient connectées sur le réseau interne et centralisées dans un même bâtiment. Mais aujourd’hui, la multitude d’objets connectés à Internet implantés dans les entreprises est souvent décentralisée. La mise en place d’une stratégie de gouvernance des données est donc essentielle (Figure 4.5.3). La gouvernance des données permet d’en assurer l’éthique et la sécurité et deviendra bientôt obligatoire lorsque le Règlement général sur la protection des données (RGPD), déjà en vigueur en Europe, deviendra une norme à l’échelle mondiale (Limoges, 2020).

Figure 4.5.3 - Les éléments stratégiques de la gouvernance des données

Source : Limoges, 2020

LA SOCIÉTÉ 5.0

Après avoir été introduit par les Japonais en 2017, le concept de société 5.0 se propage à travers le monde (UNESCO, 2019). Il s’agit d’une société ultra-intelligente au sein de laquelle tout passe au monde numérique; toutes les technologies sont connectées et ont comme objectif d’améliorer la qualité de vie des citoyens. Les mégadonnées, l’intelligence artificielle et l’Internet des objets sont au cœur de la société 5.0. L’objectif de ce type de société est d’intégrer la technologie développée par la quatrième révolution industrielle à une société centrée sur l’humain et ses besoins (Figure 4.5.4) (UNESCO, 2019). Nous passons de la technologie utilisée comme outil pour contrôler notre environnement à la technologie intégrée à celui-ci (Lefebvre, 2018). La société 5.0 ne serait en fin de compte que le résultat, sur la société, des innovations de l’industrie 4.0.

Figure 4.5.4 - Évolution de la société 1.0 jusqu’à la société 5.0

Sources : Gouvernement du Japon, 2019; Poly-Monde, 2019

Le Japon a donc lancé un mouvement planétaire dont les champs d’application se retrouvent de part et d’autre de la planète. En partant de problèmes sociétaux comme la pénurie de main-d’œuvre et le vieillissement, les objets connectés, les maisons intelligentes, les technologies d’assistance, de télésurveillance, de télémédecine, d’information et de communication permettront de répondre au besoin inéluctable d’une population vieillissante, un enjeu récurrent au Canada et aux États-Unis (ACFAS, 2018). Par extension, la société 5.0 viendra bonifier certains piliers essentiels : infrastructures (robots, drones, capteurs, IoT), technologie financière (IA, apprentissage machine, sécurité, fraude), soins de santé (télémédecine), logistique (prévisions, anticipations) et mobilité (véhicules autonomes, drones) (Gouvernement du Japon, s.d.).

K. Woblick

Synthèse

La quatrième révolution industrielle est déjà bien entamée, si bien qu’elle a entraîné un changement sociétal important. Les technologies numériques se déploient dans tous les secteurs de l’industrie et de la vie privée. Aujourd’hui, l’écosystème du secteur des technologies est dominé par de grandes entreprises qui ont créé une situation oligopolistique sans frontières. Ainsi, des régulations s’imposent. Toutefois, dans un monde teinté d’interdépendances et une économie globale, il devient difficile de légiférer. Pourtant, les gouvernements canadiens et américains doivent mettre en place des réglementations pour protéger les droits et les libertés de leurs citoyens.