{"id":120,"date":"2023-11-30T16:30:29","date_gmt":"2023-11-30T16:30:29","guid":{"rendered":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/chapter\/ai-speak-how-youtube-learns-you-part-2\/"},"modified":"2024-01-31T11:51:03","modified_gmt":"2024-01-31T11:51:03","slug":"ai-speak-how-youtube-learns-you-part-2","status":"publish","type":"chapter","link":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/chapter\/ai-speak-how-youtube-learns-you-part-2\/","title":{"raw":"Parlons IA : Comment Youtube vous apprend - Partie 2","rendered":"Parlons IA : Comment Youtube vous apprend &#8211; Partie 2"},"content":{"raw":"<h3>Le processus<\/h3>\n<p class=\"no-indent\">A travers Google, les r\u00e9seaux neuronaux profonds sont d\u00e9sormais utilis\u00e9s pour l'apprentissage automatique<sup>2<\/sup>. Sur la base du mod\u00e8le vid\u00e9o, le r\u00e9seau neuronal de Youtube prend des vid\u00e9os similaires \u00e0 celles d\u00e9j\u00e0 regard\u00e9es par l'utilisateur. Il essaie ensuite de pr\u00e9dire le temps de lecture de chaque nouvelle vid\u00e9o pour un mod\u00e8le d'utilisateur donn\u00e9 et les classe en fonction de cette pr\u00e9diction. L'id\u00e9e est ensuite de montrer les 10 \u00e0 20 vid\u00e9os (selon l'appareil) les mieux class\u00e9es.<\/p>\n<p class=\"indent\">Le processus est similaire au mod\u00e8le <a href=\"ai-speak--machine-learning\" data-cke-saved-href=\"ai-speak--machine-learning\">d'apprentissage automatique<\/a> que nous avons \u00e9tudi\u00e9 pr\u00e9c\u00e9demment. Tout d'abord, la machine prend les traits des mod\u00e8les d'utilisateurs et de vid\u00e9os donn\u00e9s par le programmeur. Elle apprend \u00e0 partir des donn\u00e9es d'entra\u00eenement quel poids donner \u00e0 chaque trait pour pr\u00e9dire correctement le temps de lecture. Et ensuite, une fois test\u00e9e et jug\u00e9e conforme, elle peut commencer \u00e0 pr\u00e9dire et \u00e0 recommander.<\/p>\n<img class=\" wp-image-58 aligncenter\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.2.png\" alt=\"\" width=\"407\" height=\"249\">\n<h3>L'entra\u00eenement<\/h3>\n<p class=\"no-indent\">Pendant l'entra\u00eenement, des millions d'exemples positifs et n\u00e9gatifs sont donn\u00e9s au syst\u00e8me. Un exemple positif est lorsqu'un utilisateur a cliqu\u00e9 sur une vid\u00e9o et l'a regard\u00e9e pendant un certain temps. Un exemple n\u00e9gatif est lorsque l'utilisateur n'a pas cliqu\u00e9 sur la vid\u00e9o ou ne l'a pas regard\u00e9e longtemps<sup>2<\/sup>.<\/p>\n<p class=\"indent\">Le r\u00e9seau prend en compte les traits de l'utilisateur et les traits de la vid\u00e9o abord\u00e9s dans la section des mod\u00e8les de\u00a0<a href=\"ai-speak--how-youtube-learns-you\" data-cke-saved-href=\"ai-speak--how-youtube-learns-you\">Comment Youtube vous apprend partie 1<\/a>. Il ajuste l'importance donn\u00e9e \u00e0 chaque trait d'entr\u00e9e en v\u00e9rifiant s'il a pr\u00e9dit correctement le temps de lecture pour une vid\u00e9o et un utilisateur donn\u00e9s.<\/p>\n<p class=\"indent\">Il y a environ un milliard de param\u00e8tres (poids de chaque trait) \u00e0 apprendre sur des centaines de milliards d'exemples<sup>2<\/sup>. Le r\u00e9seau pourrait aussi apprendre \u00e0 ne pas tenir compte de certains traits - lui donner une importance nulle. Ainsi, l'<em>embedding<\/em> ou le mod\u00e8le que l'algorithme cr\u00e9e peut \u00eatre tr\u00e8s diff\u00e9rent de ce que les d\u00e9veloppeurs ont envisag\u00e9.<\/p>\n\n<h3>Testing<\/h3>\n<p class=\"no-indent\">Une fois le r\u00e9seau entra\u00een\u00e9, il est test\u00e9 sur des donn\u00e9es d\u00e9j\u00e0 disponibles et r\u00e9gl\u00e9. Outre la pr\u00e9cision de la pr\u00e9diction, la sortie du syst\u00e8me doit \u00eatre r\u00e9gl\u00e9e par le programmeur sur la base de plusieurs jugements de valeur. Montrer des vid\u00e9os qui sont trop similaires \u00e0 des vid\u00e9os d\u00e9j\u00e0 regard\u00e9es ne sera pas tr\u00e8s engageant. Qu'est-ce que cela signifie concr\u00e8tement qu'une recommandation soit bonne ? <img class=\"size-medium wp-image-59 alignright\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-300x251.png\" alt=\"\" width=\"300\" height=\"251\">Combien de vid\u00e9os similaires montrer et combien de diversit\u00e9 introduire\u00a0; - \u00e0 la fois par rapport aux autres vid\u00e9os et par rapport \u00e0 l'historique de l'utilisateur. Combien de int\u00e9r\u00eats de l\u2019utilisateur faut-il cibler ? Quels types de recommandations conduisent \u00e0 une satisfaction imm\u00e9diate et lesquelles conduisent \u00e0 une utilisation \u00e0 long terme ?<sup>1,3<\/sup> Ce sont toutes des questions importantes \u00e0 prendre en compte.<\/p>\n<p class=\"indent\">Apr\u00e8s ces tests, on proc\u00e8de \u00e0 l'\u00e9valuation en temps r\u00e9el des recommandations. Le temps de lecture total par ensemble de vid\u00e9os pr\u00e9dites est mesur\u00e9.<sup>2<\/sup> Plus longtemps un utilisateur regarde l'ensemble de vid\u00e9os recommand\u00e9es, le mod\u00e8le est consid\u00e9r\u00e9 comme plus performant. Notez que le simple fait de regarder combien de vid\u00e9os ont \u00e9t\u00e9 cliqu\u00e9es n'est pas bon pour l'\u00e9valuation. Youtube \u00e9value ses syst\u00e8mes de recommandation en se basant sur le nombre de vid\u00e9os recommand\u00e9es qui ont \u00e9t\u00e9 regard\u00e9es pendant une partie importante de la vid\u00e9o, la dur\u00e9e de la session, le temps jusqu'au premier long visionnage et la proportion d'utilisateurs connect\u00e9s ayant des recommandations<sup>1<\/sup>.<\/p>\n\n<h3 data-pm-slice=\"1 1 []\">Interface<\/h3>\n<div data-pm-slice=\"1 1 []\">\n<p class=\"no-indent\">Enfin, sur la fa\u00e7on dont les recommandations sont pr\u00e9sent\u00e9es au spectateur : Combien de vid\u00e9os \u00e0 montrer ? Les meilleures recommandations doivent-elles \u00eatre pr\u00e9sent\u00e9es en une seule fois, ou certaines doivent-elles \u00eatre conserv\u00e9es pour plus tard ?<sup>3<\/sup> Comment afficher les vignettes et les titres des vid\u00e9os ? Quelles autres informations afficher ? Quels param\u00e8tres l'utilisateur peut-il contr\u00f4ler ?<sup>1<\/sup> Les r\u00e9ponses \u00e0 ces questions d\u00e9terminent comment Youtube garde deux milliards d'utilisateurs accroch\u00e9s 24 heures sur 24.<\/p>\n\n<\/div>\n\n<hr>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>1\u00a0<\/sup>Davidson, J., Liebald, B., Liu, J., Nandy, P., Vleet, T., <em>The Youtube Video Recommendation System<\/em>, Proceedings of the 4th ACM Conference on Recommender Systems, Barcelona, 2010.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>2<\/sup> Covington, P., Adams, J., Sargin, E., <em>Deep neural networks for Youtube Recommendations<\/em>, Proceedings of the 10th ACM Conference on Recommender Systems, ACM, New York, 2016.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>3 <\/sup>Konstan, J., Terveen, L., <em>Human-centered recommender systems: Origins, advances, challenges, and opportunities<\/em>, AI Magazine, 42(3), 31-42, 2021.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\">4 Spinelli, L., and Crovella, M., <em><a href=\"https:\/\/doi.org\/10.1145\/3386392.3399566\" target=\"_blank\" rel=\"noopener\" data-cke-saved-href=\"https:\/\/doi.org\/10.1145\/3386392.3399566\">How YouTube Leads Privacy-Seeking Users Away from Reliable Information<\/a><\/em>, In Adjunct Publication of the 28th ACM Conference on User Modeling, Adaptation and Personalization (UMAP '20 Adjunct), Association for Computing Machinery, New York, 244\u2013251, 2020.<\/p>","rendered":"<h3>Le processus<\/h3>\n<p class=\"no-indent\">A travers Google, les r\u00e9seaux neuronaux profonds sont d\u00e9sormais utilis\u00e9s pour l&rsquo;apprentissage automatique<sup>2<\/sup>. Sur la base du mod\u00e8le vid\u00e9o, le r\u00e9seau neuronal de Youtube prend des vid\u00e9os similaires \u00e0 celles d\u00e9j\u00e0 regard\u00e9es par l&rsquo;utilisateur. Il essaie ensuite de pr\u00e9dire le temps de lecture de chaque nouvelle vid\u00e9o pour un mod\u00e8le d&rsquo;utilisateur donn\u00e9 et les classe en fonction de cette pr\u00e9diction. L&rsquo;id\u00e9e est ensuite de montrer les 10 \u00e0 20 vid\u00e9os (selon l&rsquo;appareil) les mieux class\u00e9es.<\/p>\n<p class=\"indent\">Le processus est similaire au mod\u00e8le <a href=\"ai-speak--machine-learning\" data-cke-saved-href=\"ai-speak--machine-learning\">d&rsquo;apprentissage automatique<\/a> que nous avons \u00e9tudi\u00e9 pr\u00e9c\u00e9demment. Tout d&rsquo;abord, la machine prend les traits des mod\u00e8les d&rsquo;utilisateurs et de vid\u00e9os donn\u00e9s par le programmeur. Elle apprend \u00e0 partir des donn\u00e9es d&rsquo;entra\u00eenement quel poids donner \u00e0 chaque trait pour pr\u00e9dire correctement le temps de lecture. Et ensuite, une fois test\u00e9e et jug\u00e9e conforme, elle peut commencer \u00e0 pr\u00e9dire et \u00e0 recommander.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-58 aligncenter\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.2.png\" alt=\"\" width=\"407\" height=\"249\" \/><\/p>\n<h3>L&rsquo;entra\u00eenement<\/h3>\n<p class=\"no-indent\">Pendant l&rsquo;entra\u00eenement, des millions d&rsquo;exemples positifs et n\u00e9gatifs sont donn\u00e9s au syst\u00e8me. Un exemple positif est lorsqu&rsquo;un utilisateur a cliqu\u00e9 sur une vid\u00e9o et l&rsquo;a regard\u00e9e pendant un certain temps. Un exemple n\u00e9gatif est lorsque l&rsquo;utilisateur n&rsquo;a pas cliqu\u00e9 sur la vid\u00e9o ou ne l&rsquo;a pas regard\u00e9e longtemps<sup>2<\/sup>.<\/p>\n<p class=\"indent\">Le r\u00e9seau prend en compte les traits de l&rsquo;utilisateur et les traits de la vid\u00e9o abord\u00e9s dans la section des mod\u00e8les de\u00a0<a href=\"ai-speak--how-youtube-learns-you\" data-cke-saved-href=\"ai-speak--how-youtube-learns-you\">Comment Youtube vous apprend partie 1<\/a>. Il ajuste l&rsquo;importance donn\u00e9e \u00e0 chaque trait d&rsquo;entr\u00e9e en v\u00e9rifiant s&rsquo;il a pr\u00e9dit correctement le temps de lecture pour une vid\u00e9o et un utilisateur donn\u00e9s.<\/p>\n<p class=\"indent\">Il y a environ un milliard de param\u00e8tres (poids de chaque trait) \u00e0 apprendre sur des centaines de milliards d&rsquo;exemples<sup>2<\/sup>. Le r\u00e9seau pourrait aussi apprendre \u00e0 ne pas tenir compte de certains traits &#8211; lui donner une importance nulle. Ainsi, l&rsquo;<em>embedding<\/em> ou le mod\u00e8le que l&rsquo;algorithme cr\u00e9e peut \u00eatre tr\u00e8s diff\u00e9rent de ce que les d\u00e9veloppeurs ont envisag\u00e9.<\/p>\n<h3>Testing<\/h3>\n<p class=\"no-indent\">Une fois le r\u00e9seau entra\u00een\u00e9, il est test\u00e9 sur des donn\u00e9es d\u00e9j\u00e0 disponibles et r\u00e9gl\u00e9. Outre la pr\u00e9cision de la pr\u00e9diction, la sortie du syst\u00e8me doit \u00eatre r\u00e9gl\u00e9e par le programmeur sur la base de plusieurs jugements de valeur. Montrer des vid\u00e9os qui sont trop similaires \u00e0 des vid\u00e9os d\u00e9j\u00e0 regard\u00e9es ne sera pas tr\u00e8s engageant. Qu&rsquo;est-ce que cela signifie concr\u00e8tement qu&rsquo;une recommandation soit bonne ? <img loading=\"lazy\" decoding=\"async\" class=\"size-medium wp-image-59 alignright\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-300x251.png\" alt=\"\" width=\"300\" height=\"251\" srcset=\"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-300x251.png 300w, https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-768x644.png 768w, https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-65x54.png 65w, https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-225x189.png 225w, https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4-350x293.png 350w, https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-content\/uploads\/sites\/15\/2024\/01\/FR-9.4.png 940w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/>Combien de vid\u00e9os similaires montrer et combien de diversit\u00e9 introduire\u00a0; &#8211; \u00e0 la fois par rapport aux autres vid\u00e9os et par rapport \u00e0 l&rsquo;historique de l&rsquo;utilisateur. Combien de int\u00e9r\u00eats de l\u2019utilisateur faut-il cibler ? Quels types de recommandations conduisent \u00e0 une satisfaction imm\u00e9diate et lesquelles conduisent \u00e0 une utilisation \u00e0 long terme ?<sup>1,3<\/sup> Ce sont toutes des questions importantes \u00e0 prendre en compte.<\/p>\n<p class=\"indent\">Apr\u00e8s ces tests, on proc\u00e8de \u00e0 l&rsquo;\u00e9valuation en temps r\u00e9el des recommandations. Le temps de lecture total par ensemble de vid\u00e9os pr\u00e9dites est mesur\u00e9.<sup>2<\/sup> Plus longtemps un utilisateur regarde l&rsquo;ensemble de vid\u00e9os recommand\u00e9es, le mod\u00e8le est consid\u00e9r\u00e9 comme plus performant. Notez que le simple fait de regarder combien de vid\u00e9os ont \u00e9t\u00e9 cliqu\u00e9es n&rsquo;est pas bon pour l&rsquo;\u00e9valuation. Youtube \u00e9value ses syst\u00e8mes de recommandation en se basant sur le nombre de vid\u00e9os recommand\u00e9es qui ont \u00e9t\u00e9 regard\u00e9es pendant une partie importante de la vid\u00e9o, la dur\u00e9e de la session, le temps jusqu&rsquo;au premier long visionnage et la proportion d&rsquo;utilisateurs connect\u00e9s ayant des recommandations<sup>1<\/sup>.<\/p>\n<h3 data-pm-slice=\"1 1 []\">Interface<\/h3>\n<div data-pm-slice=\"1 1 []\">\n<p class=\"no-indent\">Enfin, sur la fa\u00e7on dont les recommandations sont pr\u00e9sent\u00e9es au spectateur : Combien de vid\u00e9os \u00e0 montrer ? Les meilleures recommandations doivent-elles \u00eatre pr\u00e9sent\u00e9es en une seule fois, ou certaines doivent-elles \u00eatre conserv\u00e9es pour plus tard ?<sup>3<\/sup> Comment afficher les vignettes et les titres des vid\u00e9os ? Quelles autres informations afficher ? Quels param\u00e8tres l&rsquo;utilisateur peut-il contr\u00f4ler ?<sup>1<\/sup> Les r\u00e9ponses \u00e0 ces questions d\u00e9terminent comment Youtube garde deux milliards d&rsquo;utilisateurs accroch\u00e9s 24 heures sur 24.<\/p>\n<\/div>\n<hr \/>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>1\u00a0<\/sup>Davidson, J., Liebald, B., Liu, J., Nandy, P., Vleet, T., <em>The Youtube Video Recommendation System<\/em>, Proceedings of the 4th ACM Conference on Recommender Systems, Barcelona, 2010.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>2<\/sup> Covington, P., Adams, J., Sargin, E., <em>Deep neural networks for Youtube Recommendations<\/em>, Proceedings of the 10th ACM Conference on Recommender Systems, ACM, New York, 2016.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>3 <\/sup>Konstan, J., Terveen, L., <em>Human-centered recommender systems: Origins, advances, challenges, and opportunities<\/em>, AI Magazine, 42(3), 31-42, 2021.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\">4 Spinelli, L., and Crovella, M., <em><a href=\"https:\/\/doi.org\/10.1145\/3386392.3399566\" target=\"_blank\" rel=\"noopener\" data-cke-saved-href=\"https:\/\/doi.org\/10.1145\/3386392.3399566\">How YouTube Leads Privacy-Seeking Users Away from Reliable Information<\/a><\/em>, In Adjunct Publication of the 28th ACM Conference on User Modeling, Adaptation and Personalization (UMAP &rsquo;20 Adjunct), Association for Computing Machinery, New York, 244\u2013251, 2020.<\/p>\n","protected":false},"author":1,"menu_order":4,"template":"","meta":{"pb_show_title":"","pb_short_title":"","pb_subtitle":"","pb_authors":[],"pb_section_license":""},"chapter-type":[],"contributor":[],"license":[],"part":103,"_links":{"self":[{"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/chapters\/120"}],"collection":[{"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/chapters"}],"about":[{"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/wp\/v2\/types\/chapter"}],"author":[{"embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/wp\/v2\/users\/1"}],"version-history":[{"count":1,"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/chapters\/120\/revisions"}],"predecessor-version":[{"id":121,"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/chapters\/120\/revisions\/121"}],"part":[{"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/parts\/103"}],"metadata":[{"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/chapters\/120\/metadata\/"}],"wp:attachment":[{"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/wp\/v2\/media?parent=120"}],"wp:term":[{"taxonomy":"chapter-type","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/pressbooks\/v2\/chapter-type?post=120"},{"taxonomy":"contributor","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/wp\/v2\/contributor?post=120"},{"taxonomy":"license","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/iapourlesenseignants\/wp-json\/wp\/v2\/license?post=120"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}