Detail publikace
Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles
Móro Róbert ()
Tomlein Matúš ()
Pecher Branislav, Ing. (UPGM FIT VUT)
Šimko Jakub, doc. Ing., Ph.D. (UPGM FIT VUT)
Štefancová Elena ()
Kompan Michal, doc. Ing., Ph.D. (UPGM FIT VUT)
Hrčková Andrea ()
Podroužek Juraj ()
Gavorník Adrián ()
Bieliková Mária, prof. Ing., PhD. (UPGM FIT VUT)
Audit, odporúčacie systémy, filtračné bubliny, dezinformácie, personalizácia, automatické anotovanie, etika, YouTube
V tomto článku uvádzame výsledky auditovacej štúdie vykonanej na platforme YouTube, ktorej cieľom je zistiť ako rýchlo sa používateľ môže dostať do dezinformačnej bubliny, ale aj to, čo je potrebné na to, aby takáto bublina praskla, t. j. aby sa používateľ z tejto bubliny dostal. Používame metodiku auditu ponožkových bábok, v ktorej sa vopred naprogramovaní agenti (účinkujúci ako používatelia YouTube) ponoria do dezinformačnej bubliny sledovaním obsahu propagujúceho dezinformácie. Následne sa snažia túto bublinu prasknúť a dosiahnuť vyváženejšie odporúčania sledovaním videí, ktoré dezinformácie vyvracajú. Zaznamenávame výsledky vyhľadávania, výsledky na domovskej stránky a odporúčania pri sledovaných
videách. Celkovo sme sa počas štúdie stretli s 17 405 unikátnymi videami, z ktorých sme ručne anotovali 2 914 pre prítomnosť dezinformácií. Označené videá sa použili na trénovanie modelu strojového učenia klasifikujúceho videá do troch tried (podpora dezinformácie, vyvracanie dezinformácie, neutrálne) s presnosťou 0,82. Tento model používame na klasifikáciu zvyšných videí, ktoré by nebolo možné anotovať ručne kvôli ich vysokému počtu. Pomocou manuálne aj automaticky anotovaných údajov pozorujeme dynamiku dezinformačnej bubliny pre celý rad dezinformačných tém. Naším kľúčovým zistením je, že aj keď sa v niektorých témach filtračné dezinformačné bubliny neobjavujú, tak v situáciách, keď sa tak stane, je možné ich prelomiť sledovaním obsahu čo vyvracia dezinformácie (hoci rýchlo vyvracania sa prejavuje odlišne naprieč rôznymi témami). Pozorujeme tiež náhly pokles efektu dezinformačných filtračných bublín, keď sa videá odhaľujúce dezinformácie pozerajú po videách propagujúcich dezinformácie, čo naznačuje silný kontext odporúčaní. Nakoniec, keď porovnáme naše výsledky s predchádzajúcou podobnou štúdiou, nepozorujeme výrazné zlepšenia v celkovom množstve odporúčaného dezinformačného obsahu.
@ARTICLE{FITPUB12711, author = "Ivan Srba and R\'{o}bert M\'{o}ro and Mat\'{u}\v{s} Tomlein and Branislav Pecher and Jakub \v{S}imko and Elena \v{S}tefancov\'{a} and Michal Kompan and Andrea Hr\v{c}kov\'{a} and Juraj Podrou\v{z}ek and Adri\'{a}n Gavorn\'{i}k and M\'{a}ria Bielikov\'{a}", title = "Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles", pages = "1--33", booktitle = "ACM Transactions on Recommender Systems", journal = "ACM Transactions on Recommender Systems", volume = 1, number = 1, year = 2023, ISSN = "2770-6699", doi = "10.1145/3568392", language = "english", url = "https://www.fit.vut.cz/research/publication/12711" }