Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Conseil
Ce guide s’applique uniquement à l’élément de ligne hérité. Si vous utilisez l’élément de ligne augmentée (ALI), consultez Guide d’optimisation - ALI.
L’apprentissage dynamique est un algorithme d’optimisation côté vente conçu pour accélérer le processus d’apprentissage et améliorer le chiffre d’affaires de l’éditeur eCPM en déterminant un pourcentage d’apprentissage optimal par le biais d’ajustements au pourcentage d’apprentissage précédent en fonction des performances de l’apprentissage par rapport aux impressions optimisées.
Étant donné que l’apprentissage dynamique est appliqué uniquement lors de l’optimisation d’un objectif de performances (par exemple, CPC, CPA), ce contenu ne s’applique pas aux campagnes/éléments de ligne qui n’utilisent pas l’optimisation.
Conseil
Le RPM (Revenue Per Thousand) d’un nœud est inverse au volume ; un faible volume signifie que nous allons allouer une plus grande partie de nos impressions aux nœuds les plus performants pour optimiser le retour.
Sur la plateforme Microsoft Advertising, il existe deux types d’enchères : Learn Auctions, qui donnent la préférence aux enchères des nœuds dans un état Learn, et Revenue Auctions, qui donnent la préférence aux enchères des nœuds dans un état optimisé. Le pourcentage d’enchères qui recherchent activement des offres d’apprentissage est déterminé automatiquement par le système. Toutefois, vous pouvez déterminer le pourcentage maximal d’apprentissage au niveau de l’éditeur. Ce paramètre est appelé Remplacer l’apprentissage dynamique. Pour plus d’informations, consultez Create un serveur de publication.
Pour plus d’informations sur la façon dont ce paramètre affecte la phase d’apprentissage et d’optimisation, consultez la section Learn Budget .
En règle générale :
- Les éditeurs souhaitent exécuter Learn Auctions pour exécuter des créations plus récentes sur leur inventaire, exposant ainsi le site à de nouvelles campagnes qui offrent des enchères continues et peuvent offrir des bénéfices plus importants. Toutefois, le montant d’argent reconnu par une offre d’apprentissage peut varier considérablement.
- Les éditeurs veulent exécuter des ventes aux enchères de revenus pour maximiser le bénéfice qu’ils reconnaissent sur leur inventaire (l’argent qu’ils gagnent pour l’exécution de l’impression est assez certain). Toutefois, les campagnes de recettes ont une durée de vie limitée, il n’est donc pas possible d’exécuter uniquement des ventes aux enchères de revenus. Reportez-vous à Give Up Price pour obtenir une description détaillée des enchères Learn and Revenue.
Par défaut, un nouvel éditeur est configuré pour que jusqu’à 80 % de ses ventes aux enchères s’exécutent en tant qu’apprentissage dynamique. Après cela, l’algorithme d’apprentissage dynamique s’exécute deux fois par jour, en ajustant l’allocation d’learn à la hausse ou à la baisse d’au plus 20 % par exécution de l’algorithme.
Conseil
Si un éditeur définit manuellement le pourcentage d’apprentissage dynamique, l’algorithme exécute et met à jour l’allocation learn, mais notre système ignore le montant calculé. Si l’utilisateur supprime le remplacement manuel, le montant calculé est à nouveau utilisé.
Le système ne se souvient pas du point de départ pour les éditeurs existants qui utilisaient auparavant une allocation d’apprentissage manuelle. Par conséquent, nous recommandons que les éditeurs autorisent l’algorithme système à déterminer le taux d’apprentissage dynamique. (Un lieu qui a divergé d’un autre lieu conserve le taux de pourcentage utilisé par le lieu parent.)
L’apprentissage dynamique est en mesure d’ajuster les taux d’apprentissage à un niveau très précis, en allouant selon les besoins pour s’assurer que des ajustements d’allocation et de ciblage sont effectués pour suivre des enchères très performantes.
Comment l’apprentissage dynamique est utilisé
Les étapes suivantes illustrent la mécanique de l’algorithme d’apprentissage dynamique à un niveau élevé :
Chaque nouveau lieu commence à un pourcentage d’apprentissage maximal par défaut ; soit 80 % pour un nouvel éditeur, soit le plus récent maximum d’apprendre le pourcentage de l’endroit à partir duquel il a divergé. Les serveurs de publication/lieux existants utilisent leur pourcentage d’apprentissage maximal actuel comme valeur de départ.
Deux fois par jour, lors de la mise à jour du pourcentage maximal d’apprentissage, nous agrégeons les données pour chaque lieu depuis la dernière mise à jour, séparées en impressions d’apprentissage et optimisées. L’un des éléments que nous agrégons est le RPM.
Si le RPM optimisé est supérieur à Learn RPM, nous réduisons le pourcentage maximal d’apprentissage. Si Learn RPM est supérieur à rpm optimisé, nous augmenterons le pourcentage maximal d’apprentissage. Le pourcentage maximal d’apprentissage ne peut pas augmenter ou diminuer de plus de 20 % à la fois.
Lorsqu’un nœud d’optimisation en haut de la file d’attente d’apprentissage est optimisé, il est probable que le rpm optimisé monte et que le rpm d’apprentissage tombe probablement en panne. Par conséquent, l’algorithme d’apprentissage dynamique réduit le pourcentage maximal d’apprentissage, ce qui est approprié, car un nœud optimisé supplémentaire existe. En outre, si une nouvelle campagne très performante commence à apprendre sur un site, la campagne passe en haut de la file d’attente d’apprentissage et l’apprentissage est susceptible d’augmenter. Par conséquent, l’algorithme d’apprentissage dynamique augmente le pourcentage maximal d’apprentissage, ce qui permet à cette nouvelle campagne d’être optimisée plus rapidement.