Чому ботоферми така важлива зброя для Росії та як їх перемогти?
Давно не новина, що окрім 3-х мільйонної армії Росія має також і армії ботів. З-поміж інших гібридних засобів впливу, які здатні завдати великої шкоди супротивнику, таких як, наприклад, кібератак саме ботоармії є важливим засобом Росії з послаблення противника.
Загроза цього кібервійська до 2016 року отримала недостатню реакцію з боку Заходу, а точніше США, на які значні сили Російських ботоармій якраз і були направлені.
Однак тепер як західні країні так і Україна краще обізнані з загрозою, хоча заходи з протидії цій інфозброї все ж ще недостатньо ефективні.
То ж який механізм дії ботоферм, що робить їх такими важливим для Росії та як з ними боротися?
Щоб зрозуміти навіщо Росія активно використовує ботоферми звернімося до досліджень.
Зокрема, згідно даних Pew Research Center в 2020 році, 86% американців дізнаються про новини зі смартфону, з них 71% отримували новини саме з соціальних медіа.
Перше місце серед соціальних платформ, як основного джерела новин для американців, став Facebook – 36%, YouTube отримує друге місце – 23%, і трійку лідерів замикає Twitter – 15% відповідно.
Для розуміння природи роботи ботів в соціальних мережах і впливу на читачів, треба також звернути увагу також і на дослідження 2016 року, проведені американським Center for Media Engagement.
69,9% опитаних сказали, що хоч самі і не пишуть коментарі, але завжди читають коментарі в соціальних медіа. 46 % пояснили свою мотивацію до читання коментарів, як бажання знати думку інших з приводу того чи іншого питання.
А тепер замисліться, що думка інших, це не думка реальних людей, а ботів, які продукують повідомлення згідно виданої їм методички?
Читайте також: Просто скопіюйте цей текст, або Як українці продають свою наївність в Facebook
Підрив довіри до медіа й державних інституцій та створення розбрату
Коментарі до новин в соціальних мережах дійсно впливають на їх сприйняття аудиторією, а також на довіру до медіа загалом.
Дослідник Френк Уоддел з Флоридського Університету зауважує, що негативні коментарі знижують рівень довіри читачів до достовірності інформації.
Цей феномен дослідник називає "підтримкою повстанців": люди, як правило, менш схильні вірити в історію, яка не влаштовує багатьох інших людей. Водночас Уодделл у своєму дослідженні виявив, що кількість лайків і повторних твітів, які зібрала новина, не впливає на сприйняття вмісту іншими читачами.
Результати досліджень вказують на те, що конотація коментарів підриває класичну теорію встановлення порядку денного (agenda setting theory), згідно якої медіа мають величезну владу першочергово визначати рамку повідомлення і таким чином впливати на те, як аудиторія ставитиметься до цієї інформації.
Негативні коментарі перевертають цю теорію, просто вибивають землю з-під ніг медіа, адже можуть підривати важливість і достовірність інформації в очах людей.
Тобто поширити інформацію замало, її треба "правильно" коментувати, щоб сформувати в людей ставлення до цієї інформації.
Дискусії в соціальних мережах, де, як свідчать дослідження, люди насправді черпають своє ставлення до того чи іншого питання, стала однією з точок опори для російських ботів, завдяки якій вони намагаються перевернути світ.
Пересвідчитися на практиці, як працюють боти в соціальних мережах дуже просто. Можна взяти будь-який пост на гостру соціальну чи політичну тему і просто піти в коментарі.
Візьмемо один з недавніх прикладів – свіжий номер журналу The Economist з Володимиром Путіним на обкладинці.
В коментарях ви побачите багато щирої незгоди з повідомленням у заголовку The Economist.
Зайшовши на декілька профілів тих, хто коментує, на перший погляд може здатися, що вони реальні. Однак прискіпливий огляд дасть зрозуміти, що профіль оперує під вкраденою ідентичністю: серед друзів бота теж переважно боти.
Меседжі ж, які пише кібервійсько, часто дуже подібні, і дивним чином співпадають з позицією офіційного Кремля та його пропагандистів.
А тепер згадаймо результати досліджень Френка Уоделла, і те, що негативні коментарі впливають на сприйняття людьми новини і довіри до достовірності інформації.
Прочитавши такі коментарі, як наприклад, під постом The Economist пересічний виборець в США, подумає: а може й справді Путін правий, Росія захищається, а це НАТО агресор і перетнуло якісь "червоні лінії"?
А може й дійсно Україна – це споконвічна російська територія?
Такий користувач можливо завтра вийде на мітинг проти надання Україні військової підтримки, чи накладення на Росію санкцій, чи проти вступу України до НАТО.
Дуже влучною в цьому контексті є думка академіка Володимира Горбуліна:
"Справді, для Кремля цілями підривної діяльності завжди були й досі є неперервний системний вплив на мислення й морально бойовий дух, створення умов для зміни поведінки своїх опонентів, включно зі стимулюванням відмови від раціонального мислення.
Цим завжди займалися російські спецслужби й виткані ними агентурні мережі в усіх регіонах світу".
Для цих цілей, окрім агентури, проплачених змі та підкуплених політиків Росія використовує також і ботоармії.
Демократія, як відомо, – це правління народу. Якщо диктатор не може перемогти демократію, він намагається керувати думкою тих, хто насправді керує демократичною державою, тобто, пересічних громадян.
Дослідники Арі Лайтман та Сара Мендельсон з Heinz College of Information Systems and Public Policy Carnegie Mellon Univeristy у статті "Озброєння соціальних медіа: Експерти говорять про тролеферми та фейкові новини" влучно зазначають:
"Не кинувши бомби чи не зробивши пострілу, країни можуть завдати одна одній величезної шкоди через кібервійну.
Але навіть без, скажімо, злому електростанції чи системи зброї, зловмисники можуть підірвати довіру до інституцій та створити атмосферу презирства, недовіри та навіть насильства серед громадян".
Показовою є систематична робота російських ботоферм з підриву довіри до української влади. За прикладами далеко не потрібно ходити. Ось, скажімо, позиція Мінцифри щодо буцімто продажу інформації з додатку ДІЯ після січневих кібератак, яка активно негативно коментується ботами і таким чином значно підсилюючи й так існуючий органічний негатив.
В Україні з традиційно високою недовірою до влади, ботам залишається лишень підливати олії в і так існуюче багаття.
Поглиблювати недовіру до української влади нині вкрай важливо для Кремля і для цього з-поміж іншого активно використовуються ботоармії.
Лайтман та Мендельсон зазначають, що російські "тролеферми" виявляють проблеми в інших країнах, а потім включаються в ці дебати з метою їх розпалювання.
Замість того, щоб пропагувати будь-яку політичну ідеологію, професійні російські тролі натомість зосереджуються на розпалюванні емоцій навколо гострих тем.
Якщо взяти за приклад США, то це такі теми, як контроль над зброєю, нерівність, імміграція, а потім налаштовують американців проти американців. Тактика, буквально – розділяй і володарюй.
"Вони нічого нового не вигадують. Вони знаходять напруженість, яка існує у Facebook чи Twitter, і просто підливають масла в вогонь, – розповідає професорка Мендельсон. – Це досить простий соціальний маркетинг, який дуже успішно використовує соціальні мережі. І це робиться просто за копійки, якщо порівняти це з масштабом хаосу, який вони створили".
На жаль, вільну дискусію, як силу демократичного суспільства, тролі використовують як зброю розхитування демократій.
Оцінити точну кількість ботів поки неможливо. У звіті від колишнього співробітника Facebook в MIT Technology Review йдеться про те, що за місяць напередодні виборів 2020 року в США тролі досягли 140 мільйонів користувачів і 360 мільйонів користувачів лише за тиждень у світі.
Для порівняння сторінка мережі гіганта Walmart досягла значно меншої аудиторії в 100 мільйонів.
Після виявлення втручання російських ботоферм у вибори США, відбулися "великі чистки" в Twitter та Facebook.
Однак, на думку експертів, величезна кількість російського кібервійська продовжує свою діяльність і нині.
Читайте також: Головне болото країни. Як Facebook став джерелом №1 брехні для українців
Чому це відбувається і як з цим боротися?
Одна з причин, чому діло ботів живе та квітне незважаючи на постійні чистки, це власне Facebook та його алгоритми.
На зчитуванні вподобань користувача власне працює механізм таргетингу Facebook, що створює для користувачів так звані ехокамери, або простіше кажучи бульбашки, де вони дуже зрідка бачать точки зору, які протистоять їхнім власним.
На думку дослідника Лайтмана, постійне перебування в такій ехокамері лишень підсилює ту систему вірувань, яку вже першочергово має користувач.
В ботовійськах прекрасно розуміють принцип роботи соціальної мережі, тенденції у вподобаннях користувачів, а також базові комунікаційні теорії та використовують ці знання для коливання громадської думки або сіяння хаосу, наприклад, напередодні виборів в США.
Дослідники стверджують, що між підробленими акаунтами та соціальними ботами – спеціалізованими комп’ютерними програмами, які можуть автономно розміщувати повідомлення на соціальних платформах – неправдива інформація поширюється з неймовірною швидкістю.
"Боти посилюють проблему. Люди поширюють дезінформацію, а потім боти поширюють її в мільйони напрямків", – зазначає професор Лайтман.
Друга причина, чому кібервійсько продовжує панувати на просторах Facebook, це недосконалість механізмів виявлення фейкових акаунтів соціальною мережею.
На думку дослідників Comparitech, соціальна мережа мляво виявляє фейкові акаунти, адже вони здатні імітувати реальну активність онлайн за допомогою спеціальних програм.
Наприклад, дослідницька група Comparitech завдяки незахищеному серверу виявила ботоферму, яка керувала 14,000 фейкових акаунтів за допомогою програми Selenium.
Selenium – це багатофункціональний набір інструментів, який в цьому випадку моделює діяльність реального користувача.
Більшість облікових записів ботів були зареєстровані з тимчасовими номерами телефонів та адресами електронної пошти, вгадайте якої? Звичайно ж @mail.ru.
Дослідники кажуть, що навіть деякі з найдосконаліших методів виявлення ботів не можуть відрізнити людину від Selenium.
Читайте також: Як змусити вас повірити, що Земля пласка. Розбираємо технологію
Як боротися з ботофермами?
Основні медіакорпорації, такі як Facebook, Google і Twitter приєдналися до боротьби проти фабрик тролів.
Основна діяльність цих організацій полягає у видаленні фейкових акаунтів. Twitter і Facebook, наприклад, заблокували таким чином кампанію, яку підтримує китайська влада, – проведення пропагандистських операцій щодо протестів у Гонконзі у 2019 році.
Ботоармії мають величезні масштаби, про що свідчить той факт, що Twitter видалив 2 000 000 фейків лише за 2018 рік.
Також Facebook та Twitter проводили великі чистки після виборів в США та виявленого втручання російських ботоферм.
Але, як вже згадувалось вище, виявлення та видалення соціальними мережами фейкових акаунтів процес неефективний.
За різними оцінками дослідників Фейсбук може розрізнити лише 2 з 5 тролів.
Яким може бути рішення?
Перше – це фізичне виявлення та знешкодження ботоферм. Це питання дуже актуальне для України, адже, на жаль, в нас дуже активно діють ботоферми, замовником послуг яких часто виступає не лише український політикум чи бізнес, а саме Російська Федерація.
Це питання проблемне не лише з точки зору національної безпеки, а і точки зору репутації України.
Анонсоване Президентом України створення кібервійськ, серед функціоналу, яких могло б також і питання посилення боротьби з ботефермами є дуже на часі.
Кібервійська – поширена практика серед країн з передовими збройними силами. До прикладу, бюджет кібервійськ США в 2022 році сягне понад 10 млрд доларів, що більше всього бюджету оборони України.
Але проблема створення і роботи кібервійськ звичайно заслуговує окремого аналітичного матеріалу, адже питання не лише в бюджеті, а і у фахівцях та встановлення і дотримання стандартів кібербезпеки тощо.
Читайте також: Війни ботів. Як працюють українські армії медіакілерів у Facebook
Обізнані, а отже озброєні
Другий і більш довготривалий, але в перспективі дасть свої плоди не лише у розрізі боротьбі з ботами, це розвиток медіаграмотності серед населення. Під цим треба розуміти насамперед критичне мислення та інформаційну гігієну.
Люди повинні вміти розрізняти дезінформацію та маніпуляцію, а також вирізняти фейкові акаунти.
По-перше, люди будуть менше піддаватися впливу таких маніпуляторів.
По-друге, можливо навіть ефективніше за штучний інтелект, люди зможуть виявляти фейкові профілі та активніше надсилати скарги в адміністрацію соціальних мереж, а отже допомагатимуть у виявленні та знешкодженні ботозагонів.
Вже зараз, за словами дослідниці Сари Мендельсон, люди краще обізнані з проблемою ботів в США:
"Ми вже в зовсім іншій ситуації, ніж два роки тому. Люди знають, що зараз це відбувається, – зауважує Мендельсон. – Росіяни, можливо, продовжують це робити, але менш успішно, ніж у 2016 році, коли люди навіть не знали, що відбувається".
На думку професорки, питання медіаграмотності є фундаметальним, а отже, має стати обов’язковим предметом в шкільній освіті.
Наприклад, в Україні вже у 665 школах в рамках пілотного проекту Міносвіти та міжнародних партнерів викладається медіаграмотність. Є сподівання, що ці спроби стануть початком впровадження медіаграмотності як обов’язкового предмету в усіх школах.
Боротьба з ботовійськами має виходити за межі простого видалення акаунтів та ліквідації ботоферм, а здебільшого має бути і відповідальністю користувачів, які повинні бути більш пильними щодо дезінформації.
Важливо, щоб люди розуміли інформацію, якою вони діляться, з якого джерела вона походить, та які можуть бути наслідки поширення такої інформації.
Валентина Аксьонова
Колонка – матеріал, який відображає винятково точку зору автора. Текст колонки не претендує на об'єктивність та всебічність висвітлення теми, яка у ній піднімається. Редакція "Української правди" не відповідає за достовірність та тлумачення наведеної інформації і виконує винятково роль носія. Точка зору редакції УП може не збігатися з точкою зору автора колонки.