YouTube algoritmi foydalanuvchilarni markazlashtirilgan tarkibga yo‘naltirishga intiladi, lekin siyosiy “qochish tezligi”da assimetriyani ko‘rsatadi.

“Masalan, Qo’shma Shtatlarda kattalarning to’rtdan biri platformada muntazam ravishda siyosiy kontent bilan shug’ullanadi. YouTube video tomoshalarining taxminan 75 foizi uning tavsiyalar algoritmidan kelib chiqadi, bu algoritmning aks-sado kameralarini rivojlantirish va ekstremistik kontentni tarqatish qobiliyatini ta’kidlaydi, bu juda muhim masala. Bu bizni algoritm odamlarning platformada ko’rgan narsalariga qanday ta’sir qilishini yaxshiroq tushunish uchun tajriba yaratishga undadi.

Tadqiqotchilar YouTube foydalanuvchilarini taqlid qilish uchun 360 ta botdan foydalangan holda tadqiqot olib borishdi. Ular YouTube tavsiya algoritmi asosida boshqariladigan “shaxsiylashtirish” jarayonini izolyatsiya qilish uchun har bir bot uchun yangi Google va YouTube hisoblarini yaratdilar.

Dastlab tadqiqotchilar YouTube bosh sahifasidan hech qanday tomosha tarixi bo‘lmagan yangi akkauntlar uchun tavsiya etilgan 20 ta eng yaxshi videolarni to‘plashdi. Ular tavsiya etilgan video toifalari va siyosiy sinflarning taqsimlanishini tahlil qilib, “Yangiliklar va siyosat” videolari tavsiya etilganda, asosan, markaz va chapga moyil ekanligini aniqladilar.

Keyinchalik, har bir foydalanuvchi (bot) o’z siyosiy guruhiga (masalan, Uzoq Chap, Chap va boshqalar) mos keladigan 30 ta videoni tomosha qildi va har bir tomoshadan keyin tavsiya etilgan videolarni yozib oldi. Tahlil shuni ko’rsatdiki, tavsiyalar asosan foydalanuvchining siyosiy tasnifiga mos keladi va foydalanuvchi imtiyozlariga moslashtirilgan tavsiyalar tezligi o’zgarib turadi.

Birinchi bosqichni tugatgan foydalanuvchilar so‘ng o‘zlarining asl sinfidan qanchalik tez “qochib”, yangi siyosiy sinfga “kirish” mumkinligini ko‘rishni maqsad qilib, boshqa siyosiy tasnifdagi 30 ta videoni tomosha qilishdi. Natijalar qochish tezligida assimetriya borligini ko‘rsatdi, bu YouTube tavsiyalarida chapga yo‘naltirilgan kontentga burilish borligini ko‘rsatdi.

Nihoyat, foydalanuvchilar o’zlarining bosh sahifalarida eng ko’p tavsiya etilgan videoni tomosha qilishdi va har bir videodan keyin tavsiyalar to’plashdi. Ushbu bosqich tavsiyalardagi o’tishlarni o’rganib chiqdi va algoritm foydalanuvchilarni markazlashtirilgan tarkibga qaytarishga va siyosiy ekstremallardan uzoqlashishga moyilligini aniqladi.

Umuman olganda, topilmalar shuni ko’rsatdiki, YouTube-ning tavsiyalar algoritmi turli siyosiy sinflardagi videolar sonini nazorat qilishda ham tavsiyalarni tarqatishda chapga moyillik ko’rsatdi. Algoritm foydalanuvchilarga chapga moyil siyosiy shaxslarga kirishni va o’ngga moyil shaxslardan qochishni osonlashtirdi.

Boshqacha qilib aytadigan bo’lsak, foydalanuvchi YouTube’da “O’ta o’ng” siyosiy kontentni ko’rishni boshlaganida, tavsiyalar algoritmi kamroq ekstremal kontentni taklif qilish va targ’ib qilishda samaraliroq bo’ladi, u o’rtacha o’ng qanot kontentini yoki hatto markazchi kontentni o’z ichiga olishi mumkin. Natijada, dastlab “O’ta o’ng” kontenti bilan shug’ullanadigan foydalanuvchilar nisbatan tez orada kengroq siyosiy nuqtai nazarga duchor bo’lishlari mumkin.

Boshqa tomondan, foydalanuvchi YouTube-da chap-chap siyosiy kontentni tomosha qilishni boshlaganida, algoritm ularni o’ta chap qanot kontentidan uzoqlashtirishda biroz sekinroq ishlaydi. O’ng-o’ng stsenariysi bilan taqqoslaganda, foydalanuvchilarga Far-Chap kontentidan kamroq ekstremal tarkibga o’tish uchun ko’proq vaqt kerak bo’ladi.

“Bizning tadqiqotimiz shuni ko‘rsatadiki, YouTube’ning tavsiyalar algoritmi foydalanuvchilarga mo‘tadil ta’sir ko‘rsatib, ularni siyosiy ekstremallardan uzoqlashtiradi. Biroq, bu ta’sir teng darajada muvozanatli emas; Bu foydalanuvchilarni Far Chapdagi kontentdan ko’ra Uzoq o’ngdagi kontentdan uzoqlashtirishda samaraliroq. Bundan tashqari, bizning topilmalarimiz shuni ko’rsatadiki, algoritm tavsiyalari foydalanuvchining oldingi ko’rish tarixi bo’lmagan taqdirda ham chapga egiladi».

Tadqiqot YouTube tavsiya algoritmi foydalanuvchilarning siyosiy kontentni iste’mol qilishiga qanday ta’sir qilishi mumkinligini ta’kidlaydi.

“So’nggi yillarda algoritmik tarafkashlik bo’yicha tadqiqotlar katta e’tiborni tortdi va bugungi tizimlarda bunday noto’g’ri holatlarni aniqlash va bartaraf etish uchun bir qator echimlar taklif qilindi. Shuni inobatga olgan holda, biz eng ommabop platformalardan biri bo’lgan YouTube-ning tavsiyalar algoritmi hali ham chapga yo’naltirilgan siyosiy yo’nalishni namoyish etishidan hayratda qoldik. Ushbu topilmalar ijtimoiy media platformalarida tavsiyalar algoritmlarida siyosiy tarafkashliklarning maqsadga muvofiqligi va buning natijasida yuzaga kelishi mumkin bo’lgan muhim ijtimoiy va siyosiy oqibatlarga oid so’rovlarni o’tkazishga yordam beradi.

Ammo tadqiqot, barcha tadqiqotlar singari, ba’zi ogohlantirishlarni o’z ichiga oladi. Tadqiqot ma’lum bir davrda o’tkazildi va YouTube algoritmlari va kontent manzarasi vaqt o’tishi bilan rivojlanishi mumkin. Shunday qilib, topilmalar platformaning hozirgi holatini yoki uning kelajakdagi rivojlanishini to’liq aks ettirmasligi mumkin.

Bundan tashqari, tadqiqot birinchi navbatda AQSh siyosiy kontekstiga qaratilgan. Natijada, topilmalar boshqa mamlakatlar yoki siyosiy landshaftlarga bevosita taalluqli bo’lmasligi mumkin. YouTube tavsiya algoritmi dinamikasi va uning siyosiy kontentni iste’mol qilishga ta’siri turli madaniy va siyosiy sharoitlarda sezilarli darajada farq qilishi mumkin.

“Bizning tadqiqotimiz birinchi navbatda AQSh siyosatiga qaratilgan va bu topilmalar Qo’shma Shtatlardan tashqarida qay darajada ekanligini aniqlash uchun ko’proq tadqiqotlar talab etiladi.”