[🧠] Comprendre le mode IA de Google et l'évolution du Search (+ 1 surprise)
Tu t'attends surement à un article pavé de 30 000 signes pour tout comprendre sur le mode IA de Google. Et bah non ! A la place, j'ai surprise pour toi. Jette un oeil 👇👇. Tu vas a-do-rer 🤗.
Alors … voila la surprise.
Pour te permettre de poser toutes les questions que tu veux au sujet du mode IA, je te partage ici mon Notebook LLM sur le sujet.
Mon Notebook est “nourrit” à TOUTES mes sources triées sur le volet et “curées” depuis des mois (presque années) pour traiter le sujet de la manière la plus approfondie possible.
Cerise sur le gateau : il est tout en Français 🇫🇷.
Alors ? Elle est pas géniale ma surprise ?
Notebook de Karine sur “comment marche le Mode IA de Google et les Aperçus IA”
Imagine ça…
On est à la Fac ensemble. Tu as loupé plusieurs semaines de cours. Et tu me demandes mon aide pour rattraper. J’accepte avec plaisir et je te dis que je vais te partager le plus possible. Sous les différents formats : Note de cours mais non seulement les explications du Profs, les documents donnés par le Chargé de TD, les documents de travail, les réponses bien sûr. Bref. Tout. Avec en prime, toutes les recherches que j’aurais pu faire sur le sujet quand je passais des heures en bibliothèque pour préparer le TD. Je te classe tout ça et te le “range” dans un gros dossier avec différents sous pochettes.
En 2025 on a les LLMs !
Ok donc ça c’était quand on était à la Fac… y’a … bref, un paquet de temps 😩.
Si ca se passait aujourd’hui, je te partagerais tout ça dans un Notebook.
Sauf que, en 2025 depuis l’IA Générative, les Chatbots, tout ça tout ça, ce Notebook se présente sous la forme d’un Chatbot avec lequel tu peux interagir.
Mode d’emploi de mon Notebook
Pour t’aider à l’utiliser, comme par définition tu ne peux prompter que si tu sais quoi demander, je t’ai mis plusieurs listes de pleins questions différentes pour te permettre de couvrir le sujet à fond.
Les 12 questions les plus importantes pour couvrir tout le sujet - en gros, ça serait les 12 parties d’un immense article de blog sur le sujet.
Les 10 questions les plus fréquemment posées - celles que tu places en fin de blog ou de page centrale de ton topic cluster.
Les 10 questions qu’on te poserait si on te soumettait un quizz - les réponses à ces questions sont celles que tu dispatches dans tes sous parties.
Un glossaire des 31 mots techniques les plus importants pour bien comprendre - ceux qui devraient être inclut dans ton post de blog si tu veux qu’il soit vraiment complet.
Voici le lien 👉 [Karine’s Notebook💜] : Comment marchent le Mode IA de Google et les Aperçus IA
NB : Certains diront qu’en fait c’est un GPTs (d’OpenAI amélioré). Pour avoir créer des dizaines de GPTs en tous genres pour mes contenus ou ceux de mes clients, je peux affirmer que NotebookLLM est mille fois mieux, pour pleins de raisons (mais ce n’est pas l’objet du post).
1. Qu'est-ce que le mode IA de Google ?
Le mode IA de Google représente la prochaine étape dans l'évolution de la recherche Google, allant au-delà de la correspondance traditionnelle par mots-clés vers une compréhension sémantique et contextuelle plus profonde des requêtes des utilisateurs.
Il s'appuie sur la puissance des grands modèles de langage (LLM) et un système de traitement sophistiqué à plusieurs étapes pour fournir aux utilisateurs des réponses synthétisées en langage naturel plutôt qu'une simple liste de liens.
Ce n'est pas simplement une réaction aux tendances actuelles, mais une continuation de la trajectoire à long terme de Google visant à améliorer la pertinence de la recherche grâce à des technologies avancées de traitement du langage comme RankBrain, Neural Matching et BERT.
2. Comment le mode IA de Google traite-t-il la requête d'un utilisateur ?
Lorsqu'un utilisateur soumet une requête, le mode IA initie un processus complexe en plusieurs étapes.
Premièrement, il assemble un "corpus personnalisé" – un sous-ensemble pertinent de l'index de recherche adapté à la requête spécifique et au contexte de l'utilisateur. Ce corpus constitue la base des étapes ultérieures.
Ensuite, il utilise un ensemble de LLM spécialisés, chacun conçu pour différentes fonctions en fonction de la classification de la requête et du besoin perçu de l'utilisateur. Cela peut impliquer des tâches telles que la synthèse d'avis sur des produits, la traduction d'informations, l'extraction de données structurées ou l'application d'un raisonnement sur plusieurs documents. Cette approche multi-LLM permet au mode IA de générer une réponse complète et personnalisée.
3. Qu'est-ce que l'« éventail des requêtes » (Query Fan-Out) dans le contexte du mode IA ?
L'éventail des requêtes est un concept clé dans le traitement du mode IA.
Au lieu de rechercher la phrase exacte de la requête de l'utilisateur, l'IA décompose la requête originale en plusieurs sous-requêtes. Ces requêtes synthétiques peuvent varier en fonction du contexte de l'utilisateur et de la compréhension par l'IA de son besoin d'information sous-jacent.
Ce processus permet au mode IA d'explorer un plus large éventail d'informations pertinentes et de construire une image plus complète avant de synthétiser une réponse.
Par exemple, une requête sur les « véhicules électriques familiaux abordables » pourrait déclencher des sous-requêtes liées à l'autonomie des véhicules électriques, aux caractéristiques de sécurité pour les familles, et aux prix ou incitations actuels.
4. Comment le mode IA de Google utilise-t-il le contexte et l'historique de l'utilisateur ?
Le contexte utilisateur et le comportement historique jouent un rôle crucial dans la formation de la réponse du mode IA. Le système récupère des informations contextuelles telles que les requêtes précédentes de la session de recherche en cours, les données des pages de résultats de recherche ou des documents précédemment visités, la localisation de l'utilisateur, et même des informations provenant de son emploi du temps (comme un calendrier électronique). Cet « état utilisateur » aide le LLM à déduire le besoin d'information plus profond ou non exprimé derrière une requête, ce qui conduit à des requêtes synthétiques plus personnalisées et pertinentes et à une réponse finale plus utile. Cet état peut être maintenu sur plusieurs « tours » dans une session de recherche conversationnelle.
5. Comment le mode IA synthétise-t-il les informations provenant de plusieurs sources ?
Une fois que le corpus personnalisé de documents pertinents est identifié, les LLM du mode IA traitent le contenu de ces sources. Les LLM sont capables d'extraire les informations clés, d'identifier les relations entre les concepts à travers différents documents et de synthétiser ces informations dans une réponse cohérente en langage naturel.
Cela va au-delà de la simple présentation d'extraits ; les LLM peuvent résumer, comparer et raisonner sur les informations trouvées dans les documents sélectionnés pour fournir une réponse unifiée.
6. Comment le mode IA présente-t-il les informations synthétisées à l'utilisateur ?
Le mode IA présente principalement les informations sous un format de langage naturel, souvent sous forme de réponse résumée à la requête. Ce résumé peut être affiché visuellement dans une interface graphique ou même présenté de manière audible. Dans certains cas, le système peut également inclure du contenu supplémentaire provenant des documents sources, tels que des images ou des vidéos, dans le résumé.
Une caractéristique notable est la capacité de « lier » (linkify) des portions du résumé en langage naturel avec des liens vers les documents sources qui vérifient l'information, permettant aux utilisateurs d'explorer les sources originales. Des scores de confiance peuvent également être attribués à différentes parties du résumé.
7. Le mode IA peut-il fournir du contenu créatif ou clarifier des requêtes ambiguës ?
Oui, le mode IA peut être équipé de LLM spécialisés à des fins différentes, y compris la génération de texte ou de médias créatifs.
Aussi, si la requête d'un utilisateur est ambiguë, le mode IA inclut des mécanismes pour demander des clarifications.
Il peut analyser l'ambiguïté et l'état de l'utilisateur pour générer des prompts ou des questions à l'utilisateur, aidant ainsi à résoudre l'incertitude et à mieux comprendre son intention avant de fournir une réponse. Cela permet une expérience de recherche plus interactive et utile pour les requêtes complexes ou vagues.
8. Quel est l'impact du mode IA sur l'optimisation pour les moteurs de recherche (SEO) ?
Avec l'avènement du mode IA, l'objectif du SEO passe de la victoire sur un seul mot-clé à celui d'être une source fiable et fréquemment citée dans le processus de raisonnement de l'IA.
La visibilité deviendra probablement un sous-produit du fait de disposer d'informations hautement fiables et extractibles, pertinentes pour les nombreuses sous-requêtes générées par la machine (éventail des requêtes).
Être une source précieuse pour le traitement multi-étapes et la synthèse de l'IA devient primordial, plutôt que de simplement se classer pour un terme de recherche spécifique.
Cela suggère une évolution vers l'optimisation du contenu pour la pertinence sémantique et la fiabilité plutôt que pour la seule densité de mots-clés.
9. Flashback - Du Search au mode IA : L’évolution naturelle du Search de Google vers la compréhension sémantique
Google le rappelle à chaque occasion - et il y’a désormais un vrai enjeu pour eux à se positionner comme la marque IA - ils ont été les premiers à injecter de l’IA dans leur moteur de recherche - depuis 2015 !
Cette année Google Search passe de la correspondance par mots-clés à la compréhension du sens (sémantique) d’une requête - ce que les professionnels du SEO et du contenu ont appelé “intention de recherche”.
Quatre technologies ont contribué à développer cette capacité de Google à détecter l’intention de recherche de l’utilisateur, devenu depuis lors un critère si important de ranking SEO.
RankBrain : Met l’accent sur l'intention sémantique.
Neural Matching : Permets la connexion des concepts.
BERT et successeurs : Compréhension contextuelle du langage.
Indexation des passages : Accès à des informations granulaires au sein des documents.
Le mode IA est aujourd'hui présenté comme l'évolution naturelle de cette trajectoire.
10. Architecture et traitement du mode IA de Google
Corpus personnalisé : Une tranche pertinente et restreinte de l'index déterminée pour une requête et un utilisateur spécifiques, servant de base à la réponse du mode IA.
Traitement et synthèse LLM multi-étapes : Des modèles de langage larges (LLM) spécialisés avec différentes fonctions sont invoqués en fonction de la classification de la requête et des besoins de l'utilisateur. Exemples :
Résumer des comparaisons.
Traduire du contenu.
Extraire des données structurées.
Appliquer un raisonnement sur plusieurs documents.
Classification des requêtes et types de réponses : Le mode IA évalue les besoins d'information de l'utilisateur pour déterminer la meilleure réponse, qui peut inclure :
Génération de texte créatif.
Génération de médias créatifs.
Résumés génératifs ambiants (résumer le contenu consulté).
Résumés SRP (résumer les pages de résultats de recherche).
Suggestions de requêtes suivantes.
Recherche de clarifications (à l'aide de LLM de clarification).
Personnalisation via les embeddings utilisateur : Les modèles d'embeddings utilisateur créent une représentation vectorielle dense et persistante de l'utilisateur, injectée dans le pipeline d'inférence LLM pour adapter les sorties du mode IA sans réentraîner le LLM. Cela permet une connaissance contextuelle basée sur l'utilisateur individuel.
11. Éventail des requêtes dans la recherche IA (Query Fan-Out)
L'IA ne recherche pas la phrase exacte de la requête.
Elle décompose la requête initiale en plusieurs sous-requêtes, qui varient en fonction du contexte de l'utilisateur.
La visibilité passe du classement pour un seul mot-clé à celui de source citée fiable à travers ces sous-requêtes générées par la machine. Tout le coeur du changement de l’algorithme de Google et du Mode IA est désormais regroupé dans ces “Query Fan-Out”.
12. Le compagnon génératif et le chat avec état
Implémenté dans le cadre d'une session de recherche pour enrichir l'expérience utilisateur.
Peut être intégré dans des applications comme les navigateurs web, les systèmes d'exploitation ou être autonome.
Facilite le chat avec état, en maintenant le contexte utilisateur (« état utilisateur ») sur plusieurs tours.
L'état utilisateur est mis à jour en fonction de la sortie actuelle et des métadonnées, influençant les réponses suivantes et les requêtes synthétiques. Il peut inclure les requêtes précédentes, les données des pages de résultats de recherche, les données des documents consultés, la localisation de l'utilisateur et les informations d'emploi du temps.
Les sessions de recherche précédentes (y compris l'état utilisateur et les requêtes) peuvent être sauvegardées, reprises et même partagées.
Peut résumer la progression de la session de recherche.
Peut être invoqué explicitement par l'utilisateur ou suggéré automatiquement en fonction du contexte.
Peut effectuer des opérations de lien (linkifying) à la demande pour citer des sources.
Les LLM en aval, y compris les LLM créatifs, ambiants et de résultats de recherche, sont sélectionnés en fonction de la classification des requêtes et contribuent à la sortie du compagnon génératif.
Questions Les plus Fréquemment Posées
Comment la technologie sous-jacente de la recherche Google a-t-elle évolué depuis 2015, et quelles sont certaines des technologies clés qui illustrent ce changement ?
La recherche Google est passée de la correspondance par mots-clés à la compréhension sémantique. Les technologies clés incluent RankBrain, Neural Matching, BERT et successeurs, et l'indexation des passages.
Qu'est-ce qu'un « corpus personnalisé » dans le contexte du mode IA de Google, et quelle est sa fonction principale ?
Un corpus personnalisé est une tranche étroite et pertinente de l'index de recherche déterminée pour une requête utilisateur spécifique à ce moment-là. Il constitue la base de la réponse du mode IA.
Décrivez le rôle du traitement LLM multi-étapes dans le mode IA et donnez deux exemples de fonctions LLM spécialisées mentionnées.
Le traitement LLM multi-étapes utilise des LLM spécialisés pour différentes tâches en fonction du type de requête et des besoins de l'utilisateur. Des exemples incluent la synthèse de revues comparatives ou la traduction d'informations.
Comment le mode IA de Google personnalise-t-il les sorties pour les utilisateurs individuels sans réentraîner l'ensemble du LLM ?
Le mode IA personnalise les sorties à l'aide de modèles d'« embedding utilisateur », qui injectent une représentation vectorielle dense et persistante de l'utilisateur dans le pipeline de traitement du LLM.
Expliquez le concept d'« éventail des requêtes » (query fan-out) dans la recherche IA et pourquoi l'IA ne recherche pas uniquement la phrase exacte de l'utilisateur.
L'éventail des requêtes (query fan-out) se produit lorsque l'IA décompose la requête d'un utilisateur en plusieurs sous-requêtes basées sur le contexte. Cela se produit parce que l'IA comprend des concepts au-delà des phrases exactes.
Selon le matériel source, comment la visibilité évolue-t-elle à l'ère du mode IA par rapport au référencement traditionnel basé sur les mots-clés ?
La visibilité passe du fait de remporter un classement pour un seul mot-clé à celui d'être une source citée fiable de passages très fiables extraits par l'IA à travers diverses sous-requêtes générées par la machine.
Qu'est-ce qu'un « compagnon génératif », et comment améliore-t-il la session de recherche d'un utilisateur ?
Un compagnon génératif est une fonctionnalité qui enrichit la session de recherche d'un utilisateur, souvent implémentée comme un chatbot de recherche, facilitant le chat avec état et fournissant des sorties multimodales.
Quel type d'informations est inclus dans l'« état utilisateur » maintenu par le compagnon génératif ?
L'état utilisateur peut inclure les requêtes précédentes, les données des résultats de recherche précédents ou des documents consultés, la localisation de l'utilisateur et même des informations sur son emploi du temps.
Comment l'interaction de l'utilisateur avec les documents de résultats de recherche peut-elle influencer la réponse du mode IA pendant une session de recherche ?
L'interaction de l'utilisateur, comme le fait de cliquer sur un résultat de recherche ou le temps passé sur une page, est surveillée par le moteur d'interaction et peut conduire à la génération d'un résumé NL révisé.
Quel est un avantage potentiel de la sauvegarde et de la reprise des sessions de recherche précédentes avec le compagnon génératif ?
Un avantage potentiel est de permettre à l'utilisateur de reprendre là où il s'était arrêté dans une tâche de recherche ou de permettre à d'autres de poursuivre un effort de recherche partagé.
Quiz de Compréhension
Décrivez brièvement le concept de "Décomposition des requêtes" dans le nouveau modèle de recherche de Google.
Quels sont les principaux systèmes auxquels les sous-requêtes sont envoyées en parallèle après la décomposition d'une requête originale ?
Expliquez comment les grands modèles linguistiques (LLM) contribuent au processus de recherche au-delà de la simple récupération d'informations.
Quels sont les trois avantages clés de la décomposition des requêtes pour l'utilisateur, selon le premier document ?
Donnez un exemple concret de "Query Fan-Out" pour la requête "Comment faire baisser naturellement mon cholestérol sans médicaments ?", en citant au moins trois sous-requêtes possibles.
Qu'est-ce que l'expression "les bots sont les interprètes de l'information pour l'utilisateur final" signifie pour les créateurs de contenu ?
Décrivez le rôle des "chaînes de raisonnement" (reasoning chains) dans la construction des réponses en Mode IA.
Comment la personnalisation est-elle réalisée dans le Mode IA de Google, et quels types de signaux comportementaux sont utilisés pour créer les "user embeddings" ?
Expliquez ce qu'est un "corpus personnalisé" (custom corpus) et son importance dans la génération de réponses du Mode IA.
Quelle est la principale différence dans l'objectif de la recherche pour Google, passant de la recherche traditionnelle par mots-clés aux fonctionnalités de l'IA ?
Glossaire des mots les plus importants
Mode IA : La prochaine évolution de la recherche de Google, tirant parti de l'IA et des LLM pour fournir des réponses plus complètes, synthétisées et personnalisées.
Résumé génératif ambiant : La capacité du mode IA à générer un résumé d'un document consulté par l'utilisateur pendant une session de recherche.
BERT : Bidirectional Encoder Representations from Transformers, un modèle de traitement du langage naturel utilisé par Google pour la compréhension contextuelle du langage dans les requêtes de recherche.
LLM de clarification : Un modèle de langage large spécialisé entraîné à générer des questions en langage naturel cherchant des clarifications de l'utilisateur lorsque sa requête est ambiguë.
Moteur de contexte : Un composant responsable de la détermination et du maintien du contexte actuel ou récent de l'appareil client et/ou de l'utilisateur pendant une session de recherche, contribuant à l'« état utilisateur ».
LLM créatif : Un modèle de langage large spécialisé entraîné à générer du texte ou des médias créatifs dans le cadre d'une réponse en mode IA.
Corpus personnalisé : Une tranche étroite, spécifique à la requête et à l'utilisateur, de l'index de recherche déterminée par le système d'IA comme étant la plus pertinente pour générer une réponse en mode IA.
LLM en aval : Modèles de langage larges spécialisés sélectionnés en fonction de la classification de la requête d'un utilisateur, utilisés pour générer des types spécifiques de contenu ou de réponses en mode IA (par exemple, créatifs, ambiants, résumés de résultats de recherche).
Compagnon génératif : Une fonctionnalité, souvent implémentée comme un chatbot de recherche, qui facilite une session de recherche avec état et multi-tours, tirant parti des capacités du mode IA pour enrichir l'expérience utilisateur.
Modèle génératif (GM) : Un terme générique englobant des modèles comme les LLM, les VLM, etc., capables de générer du nouveau contenu, utilisés en mode IA pour diverses tâches de traitement et de génération de réponses.
Moteur d'entrée implicite : Un composant qui peut générer et soumettre automatiquement des requêtes basées sur le contexte utilisateur ou les données de profil, sans entrée explicite de l'utilisateur pour cette requête spécifique.
Moteur d'interaction : Un composant qui surveille l'interaction de l'utilisateur avec les documents de résultats de recherche et d'autres contenus pour informer les étapes ultérieures du processus du mode IA, comme la génération de résumés révisés.
Modèle de langage large (LLM) : Un type de modèle génératif entraîné sur de vastes quantités de données textuelles, capable de comprendre, de générer et de traiter le langage humain. Central aux capacités du mode IA.
Lien (Linkifying) : Le processus d'ajout de liens sélectionnables à des portions d'un résumé basé sur le langage naturel qui mènent aux documents sources originaux utilisés pour vérifier ces informations.
Correspondance neuronale (Neural Matching) : Une technologie de Google qui se concentre sur la compréhension des connexions entre les concepts plutôt que sur la simple correspondance par mots-clés, contribuant à la compréhension sémantique dans la recherche.
NL (Langage Naturel) : Langage humain (parlé ou écrit), que le mode IA traite comme entrée et génère souvent comme sortie (par exemple, les résumés basés sur le NL).
Résumé basé sur le NL (NL-based Summary) : Une réponse générée par un LLM qui synthétise des informations provenant de plusieurs documents sources dans un résumé en langage naturel.
Indexation des passages (Passage Indexing) : Une technologie de Google qui permet au système de recherche de comprendre et de classer des passages spécifiques au sein d'un document, permettant un accès granulaire à l'information.
Éventail des requêtes (Query Fan-Out) : Le processus par lequel une seule requête utilisateur est décomposée et étendue en plusieurs sous-requêtes générées par la machine par le système d'IA pour récupérer un ensemble complet de documents pertinents.
RankBrain : Un système d'apprentissage automatique utilisé par Google qui aide à traiter les résultats de recherche en comprenant l'intention sémantique derrière les requêtes.
Moteur de rendu : Le composant responsable de la présentation de la réponse du mode IA (par exemple, résumé NL, médias créatifs) à l'utilisateur sur son appareil.
LLM de résultats de recherche (Search Results LLM) : Un modèle de langage large spécialisé entraîné à générer des résumés des pages de résultats de recherche (SRP).
Compréhension sémantique : La capacité d'un système à comprendre le sens et l'intention derrière le langage, allant au-delà de la simple correspondance par mots-clés.
SRD (Document de Résultat de Recherche) : Un document individuel (par exemple, une page web) renvoyé par le système de recherche comme potentiellement pertinent pour une requête.
SRP (Page de Résultats de Recherche) : La page affichée par le moteur de recherche listant les documents de résultats de recherche répondant à une requête.
Données d'état : Informations indicatives de la requête de l'utilisateur, des informations contextuelles, des requêtes synthétiques et des documents de résultats de recherche, traitées par le système pour classer la requête et sélectionner les modèles en aval ; contribue à l'« état utilisateur ».
Chat avec état (Stateful Chat) : Une interaction conversationnelle où le système maintient la connaissance du contexte de l'utilisateur et des tours précédents de la conversation, telle qu'implémentée par le compagnon génératif.
Requêtes synthétiques : Requêtes générées automatiquement par le modèle génératif sur la base de la requête initiale de l'utilisateur et des informations contextuelles, utilisées pour récupérer des documents de résultats de recherche supplémentaires pertinents.
Embeddings utilisateur : Représentations vectorielles denses et persistantes des utilisateurs individuels, utilisées pour la personnalisation des sorties du mode IA.
État utilisateur : Le contexte cumulatif d'une session de recherche d'un utilisateur, maintenu sur plusieurs tours par le compagnon génératif, y compris les interactions précédentes, les requêtes et le contenu consulté.
US20240289407A1 : Le titre de la demande de brevet « Recherche avec chat avec état » (la Patent), qui décrit les détails techniques clés et les processus sous-jacents aux aspects du mode IA de Google et du compagnon génératif.
Drôlement bien optimisé et utile cet article, merci Karine ça complète ma lecture chez Olivier https://open.substack.com/pub/iapulse/p/ai-mode-la-recherche-google-pilotee?r=aj4vj&utm_medium=ios 🙏
Bonjour Karine,
L'accès au NotebookLm ne semble pas autorisé.
Belle journée, Eric