Ashleay : Bienvenue au balado À vos intérêts! Mon nom est Ashleay et cette semaine, je suis en compagnie, comme à l'habitude, de mon collègue Sébastien Mc Mahon, stratège en chef. Nous allons parler de la croissance de l'intelligence artificielle et de la façon dont elle révolutionne la technologie avec Maxime Houde, directeur et gestionnaire de portefeuille dans les actions thématiques. Alors bonjour Maxime, bonjour, Sébastien!
Maxime : Bonjour, Ashleay, bonjour Sébastien!
Sébastien : Salut, Maxime, c'est le fun de t'avoir pour jaser d'intelligence artificielle. On en a tellement parlé et on en entend tellement parler sur toutes les tribunes. On s'est dit « pourquoi ne pas inviter l'expert qui investit dans le thème chez iA Gestion mondiale d'actifs? » Donc, Maxime, ça va être le fun de t'entendre aujourd'hui et surtout sur ce qui nous a amenés à aujourd'hui. Ashleay, je pense que c'est un peu ça le thème qu'on voulait développer?
Maxime : En fait, ce que je veux faire aujourd'hui, c'est un petit peu commencer par apporter de l'histoire sur ce qui s'est passé, ce qui nous a amené vraiment à la révolution qu'on a eue l'an passé. Puis ça remonte à loin. En fait, la première innovation qu'on a vue, ça s'est produit dans les années 1950, puis c'est là qu'on a eu l'évolution d'un modèle qui s'appelle le modèle de réseau neuronal avancé. Puis c'est ce qui se trouve derrière les modèles d'intelligence artificielle comme ChatGPT.
Sébastien : OK.
Maxime : Si on se rapproche un peu de notre ère, si on veut, la plus grande évolution, elle s'est faite en 2012. Puis ce qui est intéressant, c'est qu'hier, il y avait une grande conférence de Nvidia, puis Jensen, le PDG, a présenté ce moment-là comme étant le premier contact qu'on a eu avec l'intelligence artificielle. Puis ça s'est produit à Toronto.
Sébastien : En 2012, tu dis.
Maxime : En 2012, exactement. C'est une compétition qui avait lieu chaque année, où les gens venaient à une université à Toronto. On avait une banque de données d'images, puis on utilisait des modèles pour essayer de dire ce qu'on voyait sur l'image. Puis il y a une équipe de deux étudiants et un professeur de doctorat qui ont révolutionné un petit peu la façon dont on voyait l'utilisation de l'intelligence artificielle. Ce qu'ils ont fait de particulier, c'est qu'ils ont utilisé un processeur graphique, donc une carte graphique de jeu vidéo.
Sébastien : Un GPU.
Maxime : Un GPU, comme on appelle, au lieu d'un processeur standard pour les ordinateurs. Puis ça a fait en sorte que les résultats étaient grandement supérieurs à tout ce qu'on a vu dans le passé. Ça a été la première révolution qu'on a eue. Par lasuite, ces deux étudiants-là et ce professeur-là se sont fait engager par Google, et c'est là qu'on a vu la création de ce qu'on appelle l’apprentissage profond, la première vague d'avancée en intelligence artificielle où toutes les compagnies à Silicon Valley ont commencé à investir dans ce domaine-là.
Sébastien : Donc l'innovation, c'était de commencer à utiliser des cartes graphiques plutôt que des processeurs. Quelle est la raison derrière ça?
Maxime : En fait, ce qui est intéressant, c'est qu'on réalise qu’une carte graphique, c'est extrêmement bon pour répéter la même procédure plusieurs fois rapidement, ce qui est l'opposé un petit peu d'un CPU standard, qui va faire plusieurs opérations l'une après l'autre. L'inverse, c'est qu'une carte graphique va faire la même opération plusieurs fois très très très rapidement. Et quand on regarde un modèle d'intelligence artificielle, c'est exactement ce que ça fait. Donc c'était la première avancée importante.
Sébastien : Et quand on parle d’intelligence artificielle, c'est un peu d'essayer de reproduire ce qu'un cerveau fait. Puis un cerveau, c'est beaucoup de calculs en même temps, en parallèle. Donc, l'utilisation des cartes graphiques a permis de s'approcher plus rapidement de la capacité de calcul d'un cerveau humain.
Maxime : Tu l'as très bien expliqué, Sébastien! Le principe d'un modèle neuronal, c'est vraiment de reproduire comment nous, les humains, on pense. Puis l'utilisation de la carte graphique de type GPU, c'est vraiment ce qui nous a amené un pas plus loin, je vous dirais, dans l'évolution. Puis si on passe à la deuxième plus grande avancée qu'on a vue, ça s'est fait, en fait, en 2017. C'est une équipe chez Google qui a écrit un article, qui a développé un nouveau type d'architecture. Ça s'appelle le modèle transformateur. En fait, ce que ça fait, ce modèle-là, c'est que ça a permis d'utiliser plusieurs GPU et de les faire travailler en même temps. Donc, ce que ça a fait, c'est qu'on a pu analyser les choses d'une nouvelle manière, mais aussi c'est que le temps d'analyse a grandement diminué. Donc, c'est à partir de 2017 que les choses ont déboulé. Puis c'est ce qui nous a menés vraiment au modèle d'intelligence artificielle, les grands modèles de langage comme ChatGPT qu'on a vus en 2023. La seule chose qu'on avait besoin de faire – on avait tous les constituants – on avait seulement besoin d'avoir plus de puissance de calcul au niveau nos ordinateurs et des centres de données. Donc c'est vraiment ce qui nous a permis de nous amener à ce qu'on a eu l'an passé.
Sébastien : C'est intéressant, ce que tu dis là, parce que quand j'étais à l'université, il y a une vingtaine d'années, dans les livres d'économétrie, les mathématiques appliquées à l'économie, il y avait plusieurs façons de bâtir des modèles, mais je me rappelle qu'à la fin des manuels, il y avait toujours un chapitre sur les réseaux de neurones. Puis c'est un peu ce que tu décris là : comment peut-on s'inspirer de l'architecture des cerveaux pour extraire de l'information, des relations qu'on ne verrait peut-être pas entre des données? Puis c'était toujours : « Voici, c'est intéressant! », sauf que c'était tellement exigeant en calcul puis en pouvoir informatique que les applications étaient assez limitées. Comme tu dis, ça fait depuis les années 50 que l'humain a eu l'idée pour ce qu'il y a derrière, mais il fallait que la technologie un peu rattrape. Puis des fois, c'est par des erreurs de parcours comme ça qu'on s'est rendu compte. Ça a pris quelqu'un qui a essayé un GPU plutôt qu'un CPU ou un processeur d'ordinateur pour venir accélérer, puis là, tout d'un coup, les ressources s'en vont dans le secteur, puis là, on a une accélération qui nous mène à aujourd'hui. Mais l'intelligence artificielle n'a pas été inventée il y a dix ans. C'est vraiment juste que là, tout d'un coup, les astres se sont alignés, puis l'accélération est arrivée.
Maxime : Exactement. La force computationnelle, puis les éléments qui construisent un modèle se sont rencontrés, je vous dirais, en 2023. Puis juste pour donner un chiffre derrière tout ça, un modèle comme ChatGPT, ça a des trillions de données. Puis quand on regarde pour améliorer un modèle de deux, pour qu'il soit deux fois plus efficace, il faut l'entraîner sur dix fois plus de données environ. Donc, on a eu des marches d'escalier en termes d'amélioration, mais on devait améliorer beaucoup les forces computationnelles. Donc, on en a parlé beaucoup l'an passé, mais il y avait une seule compagnie qui faisait des cartes graphiques pour des GPU pour les modèles d’intelligence artificielle, puis c’était Nvidia. Donc cette avancée-là a beaucoup reposé sur l’amélioration des GPU de Nvidia qui nous a finalement amenés à être capables d’analyser toutes ces données-là en même temps, puis de donner le jour à ces modèles d’intelligence artificielle là.
Sébastien : Puis, tu sais, tu parlais des annonces… Au moment où on enregistre ça, on est le lendemain des annonces de Nvidia pour la prochaine génération de produits. Puis les amateurs d’informatique qui sont peut-être un peu plus âgés et qui nous écoutent se rappellent, mais on sait que c’est la miniaturisation du transistor qui a fait en sorte que l’informatique est devenue ce qu’elle est devenue. Mais hier, c’est quand même assez spectaculaire : sur ces unités graphiques là, ces processeurs graphiques là qui ont été annoncés par Nvidia, c'est 280 milliards de transistors dans un GPU, dans un processeur, puis on peut les faire travailler en parallèle. Donc, on parle maintenant, c’est plus que des centaines de milliards de transistors, là! C’est assez impressionnant, la capacité matérielle de calcul qu'on a aujourd'hui.
Maxime : Juste pour mettre un peu une image dans la tête des gens, le nouveau GPU Blackwell qui a été annoncé, on le tient dans une main. Donc quand on parle de 280 milliards de transistors, on est au niveau atomique. Donc c'est vraiment une avancée technologique. Souvent, je réfère à l'avancée des semi-conducteurs. S'il y a une chose que les humains ont réussi à faire qui est près de la magie, c'est probablement la chose la plus près, parce qu'on travaille au niveau atomique, là.
Ashleay : Puis là, évidemment, l'action, elle a augmenté avec ça, je pense...
Sébastien : Nvidia? Oui, un peu!
Ashleay : Un petit peu. C'est correct, hein? Et puis à quoi ressemble le chiffre d'affaires, justement, qui découle de tout ça?
Maxime : Bien, en fait, on va prendre un pas de recul, puis on va regarder 2023. On a parlé beaucoup de ce qu'on appelle les sept magnifiques. Donc les sept magnifiques, c'est Apple, Amazon, Google, Meta, Microsoft, Nvidia et Tesla. Je vous dirais que le golden boy dans tout ça, c'est Nvidia. Juste pour vous donner une idée, là, Nvidia a terminé l'année à plus de 240 % de rendement.
Sébastien : L'année 2023.
Maxime : 2023. Cette année, en date d'aujourd'hui, on a déjà monté d’environ 80 %. Pour vous donner une idée, Nvidia va avoir plus que triplé son chiffre d'affaires l'an passé. C'est une compagnie qui faisait environ 8 à 9 G$ de revenus en 2022. 2023 est arrivé, puis les chiffres ont explosé.
Sébastien : Puis il faut se rappeler le début des années 2000, quand Nvidia, historiquement, faisait des cartes graphiques pour les ordinateurs pour les amateurs de jeux vidéo à la maison. C’est parti de ça, puis c’est devenu ce que c’est aujourd’hui.
Maxime : Exactement. En fait, il faut remercier les joueurs de jeux vidéo puisque c’est grâce à eux que maintenant on a l'intelligence artificielle. Puisque vraiment, tu l’as bien dit, Sébastien, à la base, ils faisaient des cartes de jeux vidéo, ils ont adapté ça pour les centres de données. En 2023, c’était un monopole, c’était la seule compagnie qui en faisait sur le marché. Puis maintenant, on a une deuxième compagnie qui est AMD, qui elle aussi a réussi à produire un GPU. Mais avec les annonces qu’on a vues hier, Nvidia est toujours le leader, de loin, de ce côté-là.
Sébastien : Puis on parlait des sept magnifiques l’année dernière. Dans le fond, les marchés, vous savez comment c’est. Des fois, ils ont tendance à mettre des choses ensemble, temporairement. Donc les sept magnifiques, les compagnies que tu as nommées, aujourd’hui en 2024, est-ce que c’est encore approprié d’appeler ça les sept magnifiques ou est-ce qu’on commence à avoir une fracture dans ce groupe-là?
Maxime : Écoute, il faut comprendre qu’il y a plusieurs situations idiosyncratiques sur ces compagnies-là qui ont fait qu’elles ont bien performé l’an passé. Puis pour répondre à la question, je pense que non, on ne devrait pas les appeler les sept magnifiques cette année. Puis on a vu une grande divergence de performance, là. On a Tesla qui, en date d’aujourd’hui, est la pire action sur le S&P 500. C’était l’an passé un des sept magnifiques. Puis il faut comprendre que Tesla, c’est une compagnie qui produit des véhicules. Donc oui, il peut y avoir un impact d'intelligence artificielle sur l'opportunité d'avoir des véhicules qui se conduisent de manière autonome, mais à la fin de la journée, c’est une compagnie qui va dépendre de la demande pour ses véhicules électriques. Donc Tesla, selon moi, est une compagnie qui ne fait plus partie des sept magnifiques…
Sébastien : Pour le moment, parce qu’ils travaillent beaucoup sur l’intelligence artificielle pour leurs fameux robots. Donc, éventuellement, peut-être que ça va dominer leur chiffre d’affaires, mais en 2024, tout mettre ça ensemble, ça manque de sens.
Maxime : Absolument. Il faut comprendre qu’ils ont une très grande opportunité, comme tu l’as dit, avec les robots, mais à ce stade-ci de développement, c’est très spéculatif. Donc je vous dirais cette année, la performance est vraiment dérivée. Nvidia prévoit encore avoir une très forte croissance cette année. On a vu Microsoft, qui a un bon partenariat avec Open AI pour amener ses produits d'intelligence artificielle dans la suite Microsoft. Donc on a une bonne occasion de ce côté-là. Puis on a Meta et Amazon, qui eux aussi ont une accélération dans l'infonuagique et font beaucoup d'investissements dans l'intelligence artificielle et en bénéficient également. Google et Apple ont un petit peu de retard, je dirais, en termes de performance depuis le début de l'année, mais ils ont de forts potentiels également. Il faut comprendre par contre que Google, quand on pense à l'intelligence artificielle, on dit souvent que ça peut être une compagnie qui va être utilisée davantage qu'un Google Search par exemple. Donc Google pourrait perdre des parts de marché sur sa partie de revenus qui est la plus intéressante. Google est dans une situation qu'on appelle souvent un dilemme d'innovateurs : Google avait une très forte avancée en intelligence artificielle, mais a pris du temps à l'amener au marché puisqu'il savait qu'elle y avait un risque de perdre des revenus d'un côté. Donc c'est une situation un petit peu plus difficile pour Google. Pour Apple, ils ont une très forte opportunité à cause du fait que tout le monde, pratiquement, a un iPhone. Donc, si on amène de l'intelligence artificielle sur l’iPhone, ça peut être intéressant pour eux, mais ils sont généralement un petit peu plus lents à venir au marché. Mais c'est deux compagnies qui sont quand même intéressantes. Mais vraiment, pour revenir à la question, je pense que c'est vraiment plus des situations idiosyncratiques, puis de les jumeler en sept magnifiques… On est peut-être plus rendu aux fantastiques quatre qu’aux sept magnifiques, cette année, là.
Sébastien : Puis tantôt, tu parlais de Meta, puis Meta, c'est Facebook qui a changé de nom parce qu'il avait des ambitions envers le métavers. Puis, Ashleay, tu t'en souviens, un des premiers invités qu'on a eus, justement, un collègue était venu parler du métavers, puis des impacts économiques, puis de ce que c'était. Là, on n'en parle plus vraiment du métavers. Est-ce qu’il y a des avancées, est-ce que c'est tombé de côté?
Maxime : Bien, écoutez, le métavers, au moment où on en a parlé beaucoup dans les médias, je pense que c'est un bel exemple d'une bulle, où on a commencé à spéculativement avoir de grandes attentes face à ce que ça pouvait amener, même si l'infrastructure n'était pas déjà en place et on avait beaucoup d'avancées à faire avant qu'on soit capables de tous se parler dans un métavers puis que notre avatar soit sensiblement le même à ce qu'on est actuellement. Donc je pense que cette initiative-là n'est pas morte. Je pense qu'on va la revoir resurgir, puis ça revient un petit peu au même point qu'avec l'intelligence artificielle. C'est qu'actuellement, on est dans une situation où on a le pouvoir computationnel d'être capable d'ingérer toute l'information dans le métavers puis de l'utiliser davantage, ce qui n'était pas le cas en 2021 et 2022 puisque dans les deux dernières années, on a eu une très forte avancée sur la capacité computationnelle des ordinateurs. Donc je pense qu'effectivement, ça va revenir, et pour revenir à la conférence GTC de Nvidia, hier, une des choses dont ils ont parlé énormément dans la conférence, c'est ce qu'on appelle le jumeau numérique, qui est en partie un dérivé du métavers où tout ce qu'on construit actuellement dans le monde réel, avant le de construire, on va avoir un jumeau numérique qu'on va tester dans le virtuel. C'est vraiment une utilisation possible du métavers. Donc ces deux choses-là vont converger l'une vers l'autre.
Ashleay : C'est tout pour aujourd'hui, Maxime. Malheureusement, on manque de temps, mais je pense que ton explication en quoi l'intelligence artificielle est vraiment révolutionnaire… On n'a pas le choix : il va falloir qu'on te réinvite la semaine prochaine. Sébastien, qu'est-ce que tu en penses?
Sébastien : Oui, il le faut.
Ashleay : Merci beaucoup, Maxime, et merci à nos auditeurs et auditrices. N'hésitez pas à nous contacter si vous avez des questions, et on se dit à la semaine prochaine! Vous avez aimé cet épisode et vous aimeriez en apprendre davantage sur l'actualité économique? Abonnez-vous à notre balado À vos intérêts! disponible sur toutes les plateformes. Vous pouvez aussi visiter la page Actualités économiques sur ia.ca et nous suivre sur les réseaux sociaux.
À propos
Sébastien possède près de 20 ans d’expérience dans les secteurs privé et public. En plus de son rôle de stratège en chef et d’économiste sénior, il est également gestionnaire de portefeuilles chez iA Gestion mondiale d’actifs et membre du comité d’allocation d’actifs de la société. Ces fonctions lui permettent d’exprimer sa passion pour les chiffres, les mots et la communication. Sébastien agit en tant que porte-parole de iA Groupe financier et conférencier invité sur les questions qui touchent l’économie et la finance. Avant de se joindre à iA en 2013, il a occupé divers postes dans le secteur de l’économie à l’Autorité des marchés financiers, chez Desjardins et au ministère des Finances du Québec. Sébastien est titulaire d’une maîtrise et d’un doctorat en économie de l’Université Laval et détient le titre de CFA.
Sébastien Mc Mahon et Maxime Houde
Ce balado ne doit pas être copié ou reproduit. Les opinions exprimées dans ce balado reposent sur les conditions actuelles de marché et peuvent changer sans préavis. Elles ne visent nullement à fournir des conseils en matière de placement. Les prévisions données dans ce balado ne sont pas des garanties de rendement. Elles impliquent des risques, des incertitudes et des hypothèses. Bien que ces hypothèses nous paraissent raisonnables, il n’y a aucune assurance qu’elles se confirment.