Читати книгу - "ХЗ. Хто знає, яким буде майбутнє"
Шрифт:
Інтервал:
Додати в закладку:
Google, Facebook, Twitter та інші ресурси треба сприймати як нове явище, що не вписується в стару мапу. Вони працюють за іншими правилами і відмовляються регулювати контент через те, що змушені, а не через примхи чи небажання витрачатися.
Google і Facebook не хочуть втручатися в систему вручну не тому, що ховаються за законом про зняття відповідальності. На ці ресурси інформація потрапляє не після наради редакторів, як-от колись у New York Times, де редакція на регулярних засіданнях вирішувала, які матеріали потраплять на обкладинку. Навіть у Times такі засідання з 2015 року скасували. Пошуковик Google здійснює колосальну роботу, шукаючи й ранжуючи кожнісіньку сторінку у всесвітній мережі — 30 трильйонів сторінок серед 250 мільярдів унікальних доменних імен248 — і видаючи їх у відповідь на понад п’ять мільйонів запитів щодня249. Так пояснив колишній віце-президент компанії Google Аміт Сінґгал. Часто трапляються стандартні запити, але щонайменше десятки мільйонів введених у пошуковий рядок текстів містять рідкісні слова й фрази. За даними Google, нетерпимі слова про Голокост, на які натрапила Керол Кедвалладр, уводять у пошук лише 300 разів на день250, тоді як загалом пошуковик обробляє 5 мільярдів запитів. Тобто йдеться про 0,000006 відсотка запитів на день — якусь мільйонну частку відсотка.
У Facebook розмах не менший. Як повідомила соціальна мережа 2013 року, щодня на сайті розміщують майже п’ять мільярдів одиниць контенту. Нині цей показник, без сумніву, вищий. Наразі мережа налічує понад мільярд користувачів, що є активними щодня, а 2013 року таких було 700 мільйонів.
Кажуть, Google чи Facebook могли б позбутися проблеми, найнявши спеціальних редакторів чи фактчекерів або звернувшись до зовнішніх медіакомпаній. Мовляв, тоді можна було б виявляти фейкові новини, ксенофобські дописи та іншу небажану інформацію та видаляти їх чи понижувати в рейтингу. Такі міркування свідчать, що люди геть не уявляють масштабів і сутності проблеми. Знаєте таку гру «Вбити крота» (Whac-A-Mole)? От тільки тут мільярди кротів і не більше сотні молотків. Людський контроль і втручання, звісно, потрібні, але сенсу в них немає, якщо обирати підхід, який пропонує Керол Кедвалладр та інші критики. Для того, щоб убити «мільярди кротів», знадобиться більше молотків і шалена швидкість.
Нам треба відійти від думки, що роль людини — натискати на аварійну кнопку. Harvard Business Review якось опублікувала статтю «У кого мавпа?» (Who’s Got the Monkey?), що спричинила резонанс. У ній пояснюється, чому менеджер, до якого підлеглий приходить із проблемою — «з мавпою на спині», як то кажуть англійською, — дає пораду і відправляє підлеглого «з мавпою» назад. Бо інакше менеджера з великим штатом завалили б ті «мавпи»251. За доби алгоритмів саме так і відбувається. Менеджери працюють із мільйонами «мавп». Керівникові треба бути вчителем. Тільки так можна витримати несамовиті, хоч і безглузді, перегони джинів, які виконують стільки роботи на неосяжних онлайн-платформах!
Звісно, Google має багато девелоперів — менеджерів цифрових кадрів. На плечах тих менеджерів — пошуковий індекс і результати пошуку. Вони невтомно навчають джинів, що працюють із нелюдською швидкістю, боротися з фейками. Я не здивуюся, якщо до того часу, як ця книжка вийде друком, з’явиться універсальна технологія виявлення фейкових новин, як апдейти Panda і Penguin 2011 року, що розправилися з «контент-фермами». До речі, усього за кілька тижнів після публікації статті обуреної Керол Кедвалладр пошукові результати про заперечення Голокосту змінилися252. Перша спроба пофіксити роботу пошукової системи виявилася не дуже дієвою, тож Google досі намагається дати раду з фейковими новинами. Однак процедури реагування на атаки, які позначаються на доцільності результатів пошуку, чітко визначені, і це обнадіює.
У Facebook трохи інші проблеми. Тоді як Google оцінює інформацію і відсилає до контенту сотень мільярдів зовнішніх сайтів, на фейсбуку інформацію постять користувачі платформи. Здебільшого це посилання на зовнішні сайти, але є й інший контент. Навіть коли контент надходить із зовнішніх сайтів, його часто оформлюють як мем. Нині мем — це графічне зображення або відео ключового моменту, цитати, вирваних із контексту і поширюваних від одного користувача до другого. Мем створюється радше, щоб справити враження, ніж сприяти діалогу чи порозумінню.
У травні 2016 року Майло Яннопулос у статті на Breitbart прогнозував, що Трамп переможе на виборах за рахунок інтернет-мемів і підтримки людей, які ці меми поширюють. «Серед істеблішменту, мабуть, гадають, що то дурниці, дитячий садочок, — писав він. — Так воно і є. Але це ефективні дурниці... Опинившись між молотом медіамашини і ковадлом онлайн-тролінґу, опоненти Дональда Трампа не мають шансів. Трамп знається на інтернет-просторі, й інтернет проштовхне його в Білий дім. Магія мемів справді існує»253.
Без контексту бракує багатьох сигналів, на які покладається Google, як-от посилання на структуру. Хоч Facebook використовує ті самі методи, інфраструктура й бізнес-процеси мережі в роботі з контентом суттєво відрізняються від ґуґлівських. Саме тому Facebook покладає надії на «спільноту». Чи зможуть користувачі, яких налічується понад мільярд, стерегти сайт, якщо матимуть для цього інструменти? У червні 2015 року компанія Facebook подала заявку на патент «Система й методи ідентифікації сумнівного контенту», де визначила свій підхід до ксенофобських коментарів, порнографії і знущань: користувачі мають повідомляти про такі випадки, але важливі додаткові сигнали, які допоможуть оцінювати не тільки повідомлення, а й дописувачів254. Методи, описані в заявці на патент, доцільні й для боротьби з фейками.
У другому пості на цю тему Марк Цукерберґ детальніше розповів про нову систему Facebook, яка дасть змогу користувачам повідомляти про фейки, допоможе співпрацювати з організаціями, які встановлюють достовірність фактів, а можливо навіть супроводжувати застереженнями новини, позначені фактчекерами чи кимось зі спільноти255. Марк також наголосив: найважливіше, що має зробити Facebook, — «класифікувати дезінформацію. Це означає, що потрібні кращі технічні системи, які виявлятимуть фальшивий контент швидше за користувачів». До того ж Марк повідомив, що компанія Facebook удосконалила алгоритми, які добирають «схожі статті» до посилань у новинній стрічці.
Алгоритми справді треба постійно «навчати», бо швидкість, з якою контент поширюється в соціальній мережі, грає не
Увага!
Сайт зберігає кукі вашого браузера. Ви зможете в будь-який момент зробити закладку та продовжити читання книги «ХЗ. Хто знає, яким буде майбутнє», після закриття браузера.