“Oyiga ikki milliarddan ortiq faol foydalanuvchiga ega YouTube onlayn siyosiy videolarni iste’mol qilish sohasiga sezilarli darajada ta’sir qiladi”, deb tushuntirdi tadqiqot muallifi.Yosir Zaki, Nyu-York universiteti Abu-Dabi kompyuter fanlari kafedrasi dotsenti.
“Masalan, Qo’shma Shtatlarda kattalarning to’rtdan biri platformada muntazam ravishda siyosiy kontent bilan shug’ullanadi. YouTube video tomoshalarining taxminan 75 foizi uning tavsiyalar algoritmidan kelib chiqadi, bu algoritmning aks-sado kameralarini rivojlantirish va ekstremistik kontentni tarqatish qobiliyatini ta’kidlaydi, bu juda muhim masala. Bu bizni algoritm odamlarning platformada ko’rgan narsalariga qanday ta’sir qilishini yaxshiroq tushunish uchun tajriba yaratishga undadi.
Tadqiqotchilar YouTube foydalanuvchilarini taqlid qilish uchun 360 ta botdan foydalangan holda tadqiqot olib borishdi. Ular har bir bot uchun yangi Google va YouTube akkauntlarini yaratdilar, bu esa “shaxsiylashtirish” jarayonini YouTube’ning tavsiyalar algoritmi asosida ajratib turadi.
Dastlab tadqiqotchilar YouTube bosh sahifasidan hech qanday tomosha tarixi bo‘lmagan yangi akkauntlar uchun tavsiya etilgan 20 ta eng yaxshi videolarni to‘plashdi. Ular tavsiya etilgan video toifalari va siyosiy sinflarning taqsimlanishini tahlil qilib, “Yangiliklar & amp; “Siyosat” videolari tavsiya etilganda, asosan, markaz va chapga moyil edi.
Keyinchalik, har bir foydalanuvchi (bot) o’z siyosiy guruhiga (masalan, Uzoq Chap, Chap va boshqalar) mos keladigan 30 ta videoni tomosha qildi, har bir tomoshadan keyin tavsiya etilgan videolarni yozib oldi. Tahlil shuni ko’rsatdiki, tavsiyalar asosan foydalanuvchining siyosiy tasnifiga mos keladi va foydalanuvchining afzalliklariga moslashtirilgan tavsiyalar tezligi o’zgarib turadi.
Birinchi bosqichni tugatgan foydalanuvchilar so‘ng o‘zlarining asl sinfidan qanchalik tez “qochib”, yangi siyosiy sinfga “kirish” mumkinligini ko‘rishni maqsad qilib, boshqa siyosiy tasnifdagi 30 ta videoni tomosha qilishdi. Natijalar qochish tezligida assimetriya borligini ko‘rsatdi, bu YouTube tavsiyalarida chapga moyillik borligini ko‘rsatdi.
Nihoyat, foydalanuvchilar o’zlarining bosh sahifalarida eng ko’p tavsiya etilgan videoni tomosha qilishdi va har bir videodan keyin tavsiyalar to’plashdi. Ushbu bosqich tavsiyalardagi o’tishlarni o’rganib chiqdi va algoritm foydalanuvchilarni markazlashtirilgan tarkibga qaytarishga va siyosiy ekstremallardan uzoqlashishga moyilligini aniqladi.
Umuman olganda, topilmalar shuni ko’rsatdiki, YouTube-ning tavsiyalar algoritmi turli siyosiy sinflardagi videolar sonini nazorat qilishda ham tavsiyalarni tarqatishda chapga moyillik ko’rsatdi. Algoritm foydalanuvchilarga chapga moyil siyosiy shaxslarga kirishni va o’ngga moyil shaxslardan qochishni osonlashtirdi.
Boshqacha qilib aytadigan bo’lsak, foydalanuvchi YouTube’da “O’ta o’ng” siyosiy kontentni ko’rishni boshlaganida, tavsiyalar algoritmi kamroq ekstremal kontentni taklif qilish va targ’ib qilishda samaraliroq bo’ladi, u o’rtacha o’ng qanot kontentini yoki hatto markazchi kontentni o’z ichiga olishi mumkin. Natijada, dastlab “O’ta o’ng” kontenti bilan shug’ullanadigan foydalanuvchilar nisbatan tez orada kengroq siyosiy nuqtai nazarga duchor bo’lishlari mumkin.
Boshqa tomondan, foydalanuvchi YouTube-da chap-chap siyosiy kontentni tomosha qilishni boshlaganida, algoritm ularni o’ta chap qanot kontentidan uzoqlashtirishda biroz sekinroq ishlaydi. O’ng-o’ng stsenariysi bilan taqqoslaganda, foydalanuvchilarga Far-Chap kontentidan kamroq ekstremal tarkibga o’tish uchun ko’proq vaqt kerak bo’ladi.
“Bizning tadqiqotimiz shuni ko‘rsatadiki, YouTube’ning tavsiyalar algoritmi foydalanuvchilarga mo‘tadil ta’sir ko‘rsatadi va ularni siyosiy ekstremallardan uzoqlashtiradi. Biroq, bu ta’sir teng darajada muvozanatli emas; Bu foydalanuvchilarni Far Chapdagi kontentdan ko’ra Uzoq o’ngdagi kontentdan uzoqlashtirishda samaraliroq. Bundan tashqari, bizning topilmalarimiz shuni ko’rsatadiki, algoritm tavsiyalari foydalanuvchining oldingi ko’rish tarixi bo’lmagan taqdirda ham chapga egiladi.
Tadqiqot YouTube-ning tavsiyalar algoritmi foydalanuvchilarning siyosiy kontentni iste’mol qilishiga qanday ta’sir qilishi mumkinligini ta’kidlaydi.
“So’nggi yillarda algoritmik tarafkashlik bo’yicha tadqiqotlar katta e’tiborni tortdi va bugungi tizimlarda bunday noto’g’ri holatlarni aniqlash va bartaraf etish uchun bir qator echimlar taklif qilindi. Shuni inobatga olgan holda, biz eng ommabop platformalardan biri bo’lgan YouTube-ning tavsiyalar algoritmi hali ham chapga moyil siyosiy yo’nalishni namoyish etishidan hayratda qoldik. Ushbu topilmalar ijtimoiy media platformalaridagi tavsiyalar algoritmlarida siyosiy tarafkashliklarning maqsadga muvofiqligini va buning natijasida yuzaga kelishi mumkin bo’lgan muhim ijtimoiy va siyosiy oqibatlarni o’rganishga yordam beradi.
Ammo tadqiqot, barcha tadqiqotlar singari, ba’zi ogohlantirishlarni o’z ichiga oladi. Tadqiqot ma’lum bir davr mobaynida o’tkazildi va YouTube algoritmlari va kontent landshafti vaqt o’tishi bilan rivojlanishi mumkin. Shunday qilib, topilmalar platformaning hozirgi holatini yoki uning kelajakdagi rivojlanishini to’liq aks ettirmasligi mumkin.
Bundan tashqari, tadqiqot birinchi navbatda AQSh siyosiy kontekstiga qaratilgan. Natijada, topilmalar boshqa mamlakatlar yoki siyosiy landshaftlarga bevosita taalluqli bo’lmasligi mumkin. YouTube tavsiya algoritmi dinamikasi va uning siyosiy kontent iste’moliga ta’siri turli madaniy va siyosiy sharoitlarda sezilarli darajada farq qilishi mumkin.
“Bizning tadqiqotimiz birinchi navbatda AQSh siyosatiga qaratilgan va bu topilmalar Qo’shma Shtatlardan tashqarida qay darajada ekanligini aniqlash uchun ko’proq tadqiqotlar talab etiladi.”