Affiliation & GA4 : comprendre et résoudre les différences de chiffres

Affiliation & GA4 : comprendre et résoudre les différences de chiffres

Si vous vous interrogez sur l’écart des chiffres (sessions, chiffre d’affaires, etc.) entre Google Analytics 4 (GA4) et Universal Analytics (UA), vous n’êtes pas seul !

Les statistiques sur GA4 peuvent souvent sembler sensiblement plus basses que celles sur UA, suscitant des interrogations légitimes. Pas de panique : on vous explique ce qu’il se passe !

Pourquoi cette différence ?

La clé de cette disparité réside dans la manière dont GA4 et UA enregistrent les sessions. Contrairement à UA, GA4 ne comptabilise pas les changements de sources de trafic au sein d’une même session. Autrement dit, un changement de source de trafic au cours d’une session sur GA4 ne déclenche pas le début d’une nouvelle session.

Qu’est-ce que cela implique concrètement ?

Prenons un exemple concret : un client arrive sur votre site via une publicité Facebook, remplit son panier, accède au checkout, puis décide d’utiliser un code promo trouvé sur un site d’affiliation qui le redirige vers votre site.

  • Sur Universal Analytics, ce parcours serait comptabilisé comme deux sessions distinctes avec deux sources de trafic différentes (Facebook Ads et le site d’affiliation), et le chiffre d’affaires serait attribué à l’affiliation. 
  • Sur Google Analytics 4, si ce parcours se déroule dans les 30 minutes suivant la première visite, GA4 ne prend en compte que la première source de trafic, attribuant le chiffre d’affaires en conséquence à Facebook Ads

Quelles solutions existent pour obtenir une attribution précise des leviers d’affiliation ?

  • Utiliser une solution d’attribution comme Marketing Studio : cette solution va au-delà de la simple attribution last-clic. Elle offre une vision plus complète grâce à son modèle d’attribution business-driven, permettant de mieux comprendre les performances des leviers. 
  • Google BigQuery : Utilisez des requêtes dans Google BigQuery pour contourner ce problème. Ces requêtes peuvent générer des tableaux où l’attribution des conversions est similaire à celle d’Universal Analytics

Découvrez comment Marketing Studio vous livre vos vrais chiffres d’affiliation : échangez 30 min avec un expert !

 

Comparatif des modèles d’attribution (+ leur impact constaté sur les ventes)

Comparatif des modèles d’attribution (+ leur impact constaté sur les ventes)

Mettons directement les pieds dans le plat : pas de bon outil  d’attribution = pas de suivi fiable et centralisé des campagnes

C’est l’équivalent du “pas de bras, pas de chocolat”, sauf qu’on parle là de milliers voire millions d’euros en jeu pour votre enseigne chaque année. 

Dans un contexte où les coûts publicitaires deviennent aussi élevés que le degré de complexité du parcours d’achat, choisir un modèle d’attribution solide et transparent fait toute la différence. 

Mais comment vous y retrouver pour assurer une mesure objective et indépendante de vos campagnes et levieres marketing ? Sur quels modèles vous baser ? On fait le point sur les options à votre disposition aujourd’hui.

Zoom sur les limites des 3 modèles d’attribution” “classiques”… avant l’arrivée du business-driven ! 

Modèle Grands Principes Limites
Markov – Chaque étape a une probabilité de mener à la suivante.
– Prend en compte toutes les étapes de la chaîne de conversion.
– Peut devenir complexe avec l’augmentation des états.
– Assomption d’indépendance peut ne pas refléter le parcours réel des clients.
Data-Driven – Utilise les données passées pour prédire la valeur d’attribution.
– S’adapte aux changements de comportement des utilisateurs.
– Fonctionne comme une “boîte noire” (black box), rendant l’interprétation difficile.
– Dépend fortement de la qualité et quantité des données.
– Coûts de mise en œuvre.
Valeur de Shapley – Chaque interaction est un “joueur” dans un jeu.
– Détermine la contribution marginale moyenne de chaque joueur.
– Complexité computationnelle pour un grand nombre d’interactions.
– Difficulté d’interprétation pour des non-initiés.
– Est déconnecté des contraintes métiers.

Avant de passer au modèle business-driven, il est important de rappeler pourquoi il faut éviter les modèles basés sur des algorithmes d’attribution “black box ” (au fonctionnement interne inconnu ou inacessible).

  • Manque de transparence : sans comprendre comment l’algorithme attribue la valeur des conversions, il est difficile de valider sa pertinence et d’optimiser vos campagnes en conséquence.
  • Personnalisation limitée : un algorithme «black box» ne permet généralement pas de personnaliser le modèle d’attribution en fonction de vos objectifs spécifiques et du profil de votre enseigne.
  • Risque de biais : un algorithme «black box» peut être biaisé en faveur de certaines plateformes ou leviers marketing, ce qui peut fausser votre analyse de performance.

Mais alors, quel modèle adopter pour obtenir une vision fiable de chaque contribution en maîtrisant votre contexte métier ?

En passant au modèle d’attribution business-driven qu’Alphalyr a développé ! Voici un exemple de différences constatées au niveau d’une PMax lorsque nos clients utilisent Marketing Studio (les critères sont précisés sur l’image) : quel-modele-attribution-choisir-business-driven-marketing-studio
De 15% à 20% de ventes en moins sur ces modèles data-driven vs business driven ! 

Calculons votre ROI réel ! Prenez rendez-vous pour évaluer l'efficacité de votre mix media

 


L’IA s’invite dans les SERP. Quels changements à venir pour votre acquisition SEO & paid ?

Si vous êtes comme nous, vous êtes sûrement partagé entre un certain agacement sur le nombre de publications racoleuses sur ChatGPT et les AI (on te voit influenceur LInkedIn) et la beauté de ce que permet déjà de faire l’outil… sans compter l’arrivée de Bard, l’IA de Google !

Là où l’avenir se construit maintenant en matière d’acquisition de trafic, c’est que les gros moteurs de recherche travaillent déjà à intégrer des fonctionnalités d’IA dans le traitement des requêtes.

Bing, Google… pas besoin de boule de cristal pour voir que le classement dans les SERP va fortement évoluer, ainsi que la manière de (bien) faire de la publicité sur certains mots clés.

L’IA et l’évolution des pages de résultats des moteurs de recherche (SERP)

Avec l’intégration de technologies d’IA avancées comme le GPT (Generative Pretrained Transformer), les moteurs de recherche sont en train de devenir de plus en plus sophistiqués dans leur compréhension du contenu et des requêtes de recherche. 

Prenons une requête complexe comme “recette de dessert facile sans lactose et sans gluten pour 4 personnes“.

Une IA comme GPT va pouvoir comprendre cette requête de manière plus profonde et nuancée, prenant en compte des éléments tels que le niveau de compétence culinaire de l’utilisateur, le nombre exact de personnes à servir et les préférences alimentaires implicites de l’utilisateur.

Par exemple, il pourrait comprendre que l’utilisateur cherche une recette qui est non seulement sans lactose et sans gluten, mais aussi adaptée pour un débutant en cuisine (puisque l’utilisateur a demandé une recette “facile”). Il pourrait également comprendre que l’utilisateur a besoin d’une recette pour exactement 4 personnes, ce qui pourrait affecter les quantités d’ingrédients suggérées dans la recette.

A ce stade, nous direz-vous, on reste très proches de ce qu’on Google peut faire aujourd’hui… mais la suite fait la différence :

Grâce à l’IA, un moteur de recherche pourra être capable de comprendre les sous-entendus ou les intentions implicites dans la requête. Par exemple, s’il y a une tendance dans les recherches de l’utilisateur qui suggère un intérêt pour les recettes végétaliennes, le moteur de recherche va prendre en compte cet élément privilégier les recettes de desserts végétaliens, même si l’utilisateur n’a pas explicitement demandé “sans produits animaux” dans sa requête initiale.

Cela signifie que les stratégies SEO vont devoir encore évoluer. Les techniques traditionnelles d’optimisation des mots-clés restent importantes, mais il devient également crucial de comprendre et de répondre aux intentions et aux contextes subtils des utilisateurs. Les contenus de haute qualité qui répondent à ces besoins auront probablement un avantage dans le classement des moteurs de recherche.

L’intégration d’une IA comme GPT ou Bard pourrait donc permettre une compréhension plus nuancée du contenu et des requêtes de recherche, en étant capable de gérer le langage naturel de manière plus sophistiquée et de prendre en compte des contextes plus complexes.

Autre exemple : une recherche e-commerce

Supposons qu’un utilisateur recherche le “meilleur appareil photo reflex pour débutant”.

A l’heure actuelle, il peut déjà très bien identifier les principaux mots-clés : “meilleur”, “appareil photo”, “reflex”, “débutant”… et fournir une liste de produits ou d’articles de blog qui recommandent différents appareils photo reflex pour ce profil.

Avec une IA plus avancée, le moteur de recherche pourrait aller plus loin. Il pourra comprendre que l’utilisateur est probablement nouveau dans la photographie et favoriser les résultats qui expliquent les fonctionnalités de l’appareil photo de manière simple et accessible. Il pourrait également comprendre que l’utilisateur est probablement intéressé par un appareil photo qui offre un bon équilibre entre la qualité de l’image et la facilité d’utilisation.

De plus, l’IA est capable de prendre en compte des informations plus contextuelles.

Par exemple, si l’utilisateur a précédemment recherché “cours de photographie pour débutants”, le moteur de recherche pourrait privilégier les appareils photo qui sont recommandés par des sites de cours de photographie. Dans le cas de recherche d’informations sur un type spécifique de photographie, comme la photographie de paysage ou la photographie de portrait, le moteur sera capable de faire remonter en premières places les appareils photo qui sont particulièrement adaptés à ce type de photographie.

Enfin, l’IA pourra se baser sur des informations sur le comportement d’achat de l’utilisateur pour affiner les résultats. SAV de qualité, période de garantie…

Comme vous le voyez, l’intégration de plus d’intelligence artificielle dans la manière de fonctionner des moteurs de recherche actuels, couplée à un historique de recherches qui permet de contextualiser une requête et de la mettre en lien avec un profil d’utilisateur, va modifier l’expérience en ligne… et à travers elle, le type de contenu organique et payant à développer.

Quels impacts sur les résultats sponsorisés ?

Les moteurs de recherche et les plateformes publicitaires utilisent déjà l’IA et le machine learning de manière extensive pour comprendre les intentions des utilisateurs, personnaliser les résultats de recherche et cibler les publicités. 

Cependant, à mesure que ces technologies progressent, leur capacité à comprendre et à interpréter les nuances et le contexte va devenir de plus en plus fine.

Dans le contexte des résultats sponsorisés, par exemple, des avancées dans l’IA vont pouvoir permettre une personnalisation encore plus granulaire et un ciblage plus précis. 

Imaginez, par exemple, un système qui pourrait non seulement cibler des annonces en fonction des intérêts et du comportement d’achat d’un utilisateur, mais aussi en fonction de facteurs tels que l’humeur de l’utilisateur (inférée à partir de ses interactions en ligne), l’heure de la journée, ou même des événements mondiaux ou locaux en temps réel.

De plus, l’IA va aussi pouvoir aider à optimiser la création et la présentation des annonces elles-mêmes. Elle pourra par exemple être utilisée pour tester différentes versions d’une annonce et déterminer laquelle est la plus efficace pour un utilisateur ou un segment d’utilisateurs spécifique. 

Elle sera également en mesure d’aider à déterminer le meilleur moment pour présenter une annonce à un utilisateur, en fonction de son comportement en ligne et de ses habitudes de consommation de contenu.

Quid du choix des mots clés à cibler ?

Il y a fort à parier que les stratégies de bidding vont évoluer. L’accent croissant mis par les IA sur la compréhension du contexte et de la personnalisation pourrait signifier que les approches basées sur les mots-clés “short tail” ou génériques risquent de devenir moins efficaces.

  1. Vers un bidding long tail : avec l’IA capable de comprendre et de répondre à des requêtes de plus en plus spécifiques et contextuelles, les annonceurs trouveront sûrement plus de valeur à se concentrer sur les mots-clés “long tail”. Ces mots-clés, qui sont souvent moins compétitifs, peuvent cibler des utilisateurs qui sont plus loin dans le parcours d’achat et donc plus susceptibles de convertir.
  2. Bidding basé sur le contexte : avec une contextualisation croissante, il sera sûrement bénéfique pour les annonceurs de penser au-delà des keywords eux-mêmes et de considérer davantage le contexte dans lequel ces mots-clés sont utilisés. Cela pourra signifier d’adapter les annonces en fonction de facteurs tels que l’emplacement de l’utilisateur, l’heure de la journée, ou le type d’appareil utilisé.
  3. Bidding personnalisé : à mesure que l’IA permet une personnalisation plus granulaire des annonces, les annonceurs pourront également commencer à personnaliser leurs stratégies de bidding. Exemple : être prêts à payer plus pour atteindre des utilisateurs qui ont montré un intérêt particulier pour leurs produits ou qui ont un historique d’achats précédents.

Pour aller plus loin : https://searchengineland.com/ai-powered-search-paid-placements-395084

https://www.exchange4media.com/digital-news/hey-google-how-does-bard-impact-advertisers-and-the-future-of-search-125242.html

Qu’en pensez-vous ? Réfléchissez-vous déjà à une stratégie d’acquisition organique et paid adaptée aux évolutions que nous connaissons aujourd’hui ?

Maîtrisez tous vos canaux d’acquisition avec notre outil d’attribution Marketing Studio : réservez votre démo dès maintenant


Disparition de 4 modèles d’attribution GA4 et Google Ads : que faire ? ​

Disparition de 4 modèles d’attribution GA4 et Google Ads : que faire ? ​

Disparition de 4 modèles d'attribution GA4 et Google Ads : que faire ?

La saga GA4 continue…

 *** roulement de tambours***

Dernier rebondissement en date, et ça vous concerne TOUS : Google abandonne bientôt 4 des modèles d’attribution qui vous sont proposés actuellement sous Google Analytics et Google Ads. 

Qui est concerné ?

 

  • Le first click

  • Le linéaire

  • Le time decay

  • Le position-based

Google justifie cette évolution par une faible adoption et la promesse d’une augmentation des conversions de 6%. 

 

Resteront donc : 

—> Le last click (rires de la salle en mode “Friends” et années 90)

—> Le modèle basé sur les données (passion black box)

 

les traffic managers be like :

 

En d’autres termes : un gros problème pour les annonceurs, d’autant que le roll-out est rapide puisqu’il sera déroulé sur GA4 dès le mois de mai et sur Google Ads le mois suivant  . 

Si on résume ce qui se profile, vous allez devoir passer au modèle basé sur les données (vu l’inutilité du last click…), autant dire un modèle opaque sur lequel vous n’aurez pas de contrôle.

Quelle solution pour gérer l’attribution et le pilotage du ROI de vos campagnes ? 

Utiliser une solution d’attribution externe connectée à vos sources de données et votre installation Google Analytics, à l’image de Marketing Studio

Echangez avec un expert pour voir comment garder une vue complète sur votre attribution et vos leviers 

 

Netflix Ads, Amazon Inspire… top, flop ? Quelles alternatives pour un CPM qui ne s’enflamme pas ?

Netflix Ads, Amazon Inspire… top, flop ? Quelles alternatives pour un CPM qui ne s’enflamme pas ?

Vous êtes sur META

… et Google Ads

… et à peu près partout en display

… et pourquoi pas sur TikTok Ads !

 

OK, très bien.

 

Mais avez-vous envisagé de nouveaux canaux publicitaires pour l’année à venir ? 

 

Amazon a récemment présenté, le 8 décembre pour être précis, un nouvel outil baptisé Inspire fortement inspiré de TikTok. 

 

Concrètement, Inspire va permettre aux internautes d’acheter directement leurs produits au travers d’un flux personnalisé de vidéos et de photos. 

 

(c) Amazon

Alors oui, on vous entend venir : pour l’instant, la fonctionnalité n’est disponible qu’en test aux Etats-Unis.

Mais si la sauce prend, Amazon entend bien le déployer à plus grande échelle.

 

Alors, faut-il se préparer psychologiquement à investir ce potentiel nouvel espace ? 

 

Notre pronostic : avec des pincettes pour le moment

 

Amazon est peut-être un mastodonte, mais le géant du Web a aussi eu tendance, historiquement, à multiplier les ratés en matière de lancements. 

 

Autre géant, autre développement : Netflix a lancé son offre d’abonnement plus abordable avec publicités.

 

Sur le papier du moins, la possibilité de profiter de l’audience variée et captive de Netflix est prometteuse. Mais en attaquant avec un CPM de 60-65$, la plateforme a fait frémir les annonceurs. 

 

Les dernières nouvelles semblent indiquer que ce coût a tendance à baisser sur les marchés qui vont être ouverts, dont la France, mais cela reste considérable… d’autant que la transparence sur les emplacements de diffusion est aux abonnés absents

 

En attendant de tester la rentabilité réelle (…ou pas) de ces canaux, vers quelles nouvelles options vous tourner ? 

En France, investir dans des espaces IPTV/des régies publicitaires de solutions de streaming de gros groupes médias peut être une excellente approche.

 

Vous pouvez notamment vous tourner vers : 

1) M6Play

L’un de ses gros points forts en matière de publicité digitale est (entre autres) de pouvoir targeter votre liste CRM ! 

(c) M6 Play

 

2) MyTF1

TF1 permet d’investir dans des campagnes publicitaires à partir de 1000 euros.

Ce n’est bien sûr qu’un début : 

 

“La pub TV est accessible à tous les budgets : dès 5 000€, vous pouvez acheter par exemple 3 semaines de campagne sur nos chaînes de télévision TNT (TMC, TFX, LCI…) et toucher 2 500 000 contacts (soit un CPM à 2€).”

tarif-pub-tv-tf1-replay-alphalyr

© TF1

 

Dès que nous aurons plus de retours, nous vous parlerons de Disney+ et autres joyeusetés des écosystèmes fermés où investir vos précieux euros d’acquisition.

D’ici là bonnes fêtes #toussa 🎄

Bien choisir et gérer votre CMP (Consentment Management Platform)

Bien choisir et gérer votre CMP (Consentment Management Platform)

Vous utilisez très certainement une CMP (Consentment Management Platform) pour gérer le consentement aux cookies des visiteurs de votre site Web.

Il existe des CMP gratuites et des CMP payantes (ou gratuites de base avec des options payantes). Dans tous les cas, leur objectif est de permettre aux éditeurs de sites de recueillir le consentement des utilisateurs afin d’exécuter ou non un certain nombre de fonctionnalités. 

Axeptio, Tarte au citron, Sirdata… vous avez l’embarras du choix.

Le souci est que l’on s’est rendu compte ces derniers temps que toutes les CMP ne se valent pas… et que nos clients s’en aperçoivent souvent trop tard.

Aujourd’hui, faire appel à une CMP vise surtout à être capable d’historiser les consentements. En cas de contrôle de la CNIL, cette dernière va vérifier si l’éditeur du site est en possession de l’historique. Sans CMP, avec une approche “from scratch”, vous n’avez tout simplement pas cet historique (“léger” problème, n’est-ce pas ?).

Sur le papier donc, tout va bien, d’autant que les CMP permettent aussi le scan automatique des cookies pour les classer. Notez qu’il faut souvent repasser du temps dessus pour vérifier que tout est au bon endroit : il arrive que des cookies soient mal connectés.

Retour d’expérience : il arrive que notre module Marketing Studio ne reçoive pas la donnée car la solution d’exemption l’avait connectée sur un autre outil que le nôtre. 

Quelle que soit la solution d’ailleurs, cela demande toujours une vérification régulière. 

C’est un point à prendre en compte quand vous évaluez la pertinence de X ou Y CMP pour votre site (gratuite ? freemium ? payante ? pour quel forfait ?). Beaucoup de solutions ne comprennent pas d’accompagnement , hors mails à un service support. Or un account manager est souvent nécessaire. 

Et côté budget ? 

Certaines CMP facturent en fonction du nombre de domaines ou du nombre de visiteurs uniques.

ex One Trust : par ndd

Didomi : trafic

Du côté des outils disponibles gratuitement (Axeptio, Tarte au Citron…), la bannière permet rarement de personnaliser le contenu, l’emplacement, l’image… cela peut poser un souci du côté de la marque (brand), mais aussi de la conversion. Le but est d’augmenter le taux de consentement en personnalisant un maximum ! 

Sirdata se détache par son modèle particulier : la CMP est mise à disposition gratuitement, mais en contrepartie votre audience peut être revendue / retargetée sur d’autres sites.

Quid des statistiques ? 

Le nerf de la guerre pour optimiser sa conversion ! Là encore, les limites sont souvent fortes ou les chiffres biaisés. Pourquoi ? 

Vous allez par exemple avoir accès à  un graphe qui vous livre le taux de consentement, mais ces chiffres ont tendance à rendre ce taux cumulable.

Ex : jour 1, X personnes ne consentent pas

jour 2 : Y personnes ne consentent pas

Les chiffres se cumulent et au bout d’une période donnée, un vrai écart se creuse. Vous risquez d’obtenir des personnes qui achètent à J+4 alors que le refus a eu lieu le 1er jour. 

Cela impacte directement les annonceurs : “je ne comprends pas, j’ai 30% de non consentement et 50% des cas entre GA et mon back-office

Oui, il y a un problème quelque part. 

En réalité, vous avez dans ce cas un taux moyen de 20% de personnes à instant T qui n’ont peut être pas acheté ou achèteront plus tard. Il n’est pas fiable de comparer des transactions sur un mois et un taux de consentement à instant T.

On revient au problème d’écart de données entre le BO et GA. 

Ce qu’il faut retenir de tout cela :

  1. à ce stade les CMP sont surtout utilisées pour être en règle vis-à-vis de la CNIL
  2. en tant que responsable acquisition, il est important de pouvoir évaluer la capacité à pouvoir poser des questions à quelqu’un du côté de la CMP, à trouver les bonnes informations sur la plateforme, à comprendre ce que les chiffres impactent et ne pas s’en tenir à “j’ai 80% de consentement” 
  3. la personnalisation du design peut profondément impacter le taux de conversion (consentement)
  4. les analyses du consentement sont nécessaires pour identifier la part de trafic perdue et prendre les décisions nécessaires… à condition d’opter pour des études sur 6 mois plutôt que sur 1 mois 

La bonne nouvelle, c’est que l’on a 1 an d’historique désormais, ce qui rend les choses beaucoup plus fiables qu’au tout début. 

Nous vous conseillons aussi de ne pas forcément prendre de plateforme gratuite. Optez par exemple pour Didomi ou OneTrust