read-books.club » Інше » Війна лайків 📚 - Українською

Читати книгу - "Війна лайків"

225
0
В нашій бібліотеці можна безкоштовно в повній версії читати книжку українською мовою "Війна лайків" автора Емерсон Т. Брукінґ. Жанр книги: Інше / Наука, Освіта. Наш веб сайт read-books.club дає можливість читати повні версії улюблених книг на Вашому гаджеті (IPhone, Android) або комп’ютері абсолютно безкоштовно, без реєстрації та СМС.

Шрифт:

-
+

Інтервал:

-
+

Додати в закладку:

Додати
1 ... 76 77 78 ... 85
Перейти на сторінку:
10 млн різних скриншотів із випадкових YouTube-відео, залишаючи систему обігрувати ці дані самотужки. Фільтруючи скриншоти, нейронна мережа, – так само як і багато користувачів YouTube, – пізнавала всю чарівність зображень котиків. Виявляючи та виділяючи набір пов’язаних із котиками якостей, вона навчалася бути ефективним детектором котів. «Ми ніколи не казали їй під час навчання: “Це – котик”, – пояснив один з інженерів Google. – Система фактично вигадала поняття котика».

Звісно, нейронна мережа не мала жодного уявлення, що таке «котик», як і не вигадувала цього поняття. Машина просто розпізнавала схему котика з усіх «не котиків». Однак насправді це не відрізнялося від особливостей мислення людського мозку. Ніхто не запрограмований від народження на задане, метафізичне визначення котика. Натомість ми засвоюємо набір котячих якостей, який приміряємо на все, що сприймаємо. Щоразу, як ми помічаємо щось у світі, – скажімо, собаку чи банан, – то запускаємо швидке ймовірнісне обчислення, щоб перевірити, чи цей об’єкт не є котом.

Введіть у мережу достатньо голосових аудіозаписів, і вона навчиться розпізнавати мову. Введіть дані про щільність дорожнього руху в місті, і система скаже, де поставити світлофори. Введіть у неї 100 млн Facebook-лайків та історій покупок, і вона досить точно передбачить, що людина захоче придбати чи навіть за кого вона може проголосувати.

У контексті соцмереж потенційні застосування нейронних мереж і різноманітні, і спокусливі. Нескінченний потік контенту, створюваного в Інтернеті щодня, дає безмежні дані для навчання цих дедалі розумніших машин.

Facebook – це родюча ділянка для таких нейронних мереж. Компанія сама це визнає. До 2017-го цей гігант соцмереж провів понад мільйон щомісячних експериментів зі штучним інтелектом на основі даних понад мільярда завантажених користувачами фото. Ця система набагато перевершила й без того неймовірний алгоритм розпізнавання облич Facebook, навчившись «бачити» сотні окремих кольорів, форм, об’єктів і навіть місць. Вона могла ідентифікувати коней, шалики чи міст у Сан-Франциско. Система навіть могла знайти всі зображення конкретної людини в чорній сорочці. Якщо таку систему випустити у відкритий Інтернет, вона нагадувала б десять тисяч Bellingcat напохваті.

Для гігантів соцмереж швидке впровадження такої технології допоможе подолати політичні та бізнес-проблеми й дасть змогу перевантаженим фахівцям із модерації контенту розпізнавати і позначати зображення на базі нейронної мережі. Наприкінці 2017 року Google оголосив, що 80 % насильницьких екстремістських відео, завантажених у YouTube, будуть автоматично виявляти та видаляти ще до того, як хоч хтось про них повідомить.

Дехто в цих компаніях уважає, що наступна стадія – «хакнути переслідування», навчивши нейронні мережі розуміти потік онлайнового спілкування, щоб виявляти тролів та жорстко запобігати їхній діяльності ще до того, як виникне необхідність у втручанні модератора. Система Google покликана виявляти онлайн-образи – не лише лихослів’я, але й токсичні фрази та завуальовану ворожість. Система навчилася ранжувати речення за «шкалою атаки» від 1 до 100. Її висновки збігаються з людськими приблизно у 90 % випадків.

Аналіз почуттів на базі нейронної мережі можна застосовувати не лише до окремого спілкування, а й до активності кожного користувача соцмережі на платформі загалом. У 2017-му Facebook почав тестувати алгоритм, покликаний ідентифікувати користувачів із депресією та ризиком самогубства. Він використовував розпізнавання схем, щоб моніторити пости, тегати підозрюваних у думках про суїцид та скеровувати їх до команд модерації контенту. Схильний до самогубства користувач міг отримати слова підтримки та посилання на психологічні ресурси без ризику, що якась інша людина зверне увагу на цей пост (чи взагалі його побачить). Це був яскравий приклад потенційного блага – але й очевидний виклик онлайн-приватності.

Компанії соцмереж також можуть використовувати нейронні мережі, щоб аналізувати посилання, які поширюють користувачі. Сьогодні їх застосовують до гострої проблеми дезінформації та «фейкових новин». Багато інженерних стартапів навчають нейронні мережі перевіряти факти в заголовках та статтях, порівнюючи основні статистичні заяви («Минулого місяця зафіксовано x нелегальних мігрантів») з дедалі ширшою базою даних фактів і цифр. Головний фахівець Facebook зі штучного інтелекту «повідкручував» чимало голів, коли після американських виборів-2016 виявив, що припинити вірусні вигадки було технічно можливо. Єдина проблема, пояснив він, полягала в управлінні «компромісами» – пошуку правильної суміші «фільтрування й цензури та свободи слова й гідності». Інакше кажучи, в тих самих гострих політичних питаннях, що турбували Кремнієву долину від самого початку.

Однак найважливіше застосування нейронних мереж може полягати в імітації та заміні саме тих, на кого розраховані соцмережі: нас самих. Як ми вже переконалися, боти видають себе за людей, проштовхуючи механічні повідомлення. Їхня більш досконала версія, чат-боти, – це алгоритми, покликані створювати видимість людського інтелекту, імітуючи сценарії з величезної бази даних. Якщо користувач каже щось до одного з таких «тупих» чат-ботів («Як погодка?»), чат-бот сканує всі попередні випадки, в яких постає таке питання, вибираючи відповідь, з якою найкраще поєднані інші дані поточного спілкування (якщо, наприклад, користувачка раніше розкрила, що її звуть Саллі чи що вона зі Сполучених Штатів і любить зброю). Втім, незважаючи на переконливість, кожен чат-бот фактично читає рядки з дуже, дуже довгого сценарію.

Натомість чат-боти, навчені нейронною мережею, – також відомі як керовані машиною засоби комунікації, або MADCOM, – не мають жодного сценарію взагалі, лише мовні конструкції, розшифровані через вивчення мільйонів, а то й мільярдів комунікативних ситуацій. Замість міркувати, як можна використовувати MADCOM, простіше спитати, чого не можна досягти з розумними адаптивними алгоритмами, що віддзеркалюють схеми людської мови.

Але розвиток MADCOM наступного покоління також ілюструє недолік, притаманний усім нейронним мережам: вони не кращі за їхні ввідні дані й не моральніші за їхніх користувачів. У 2016-му Microsoft запустив Тей – чат-бота на базі нейронної мережі, що перейняв особливості мови дівчинки-підлітка. Будь-хто міг поговорити з Тей і зробити свій внесок до її бази даних; вона також отримала свій Twitter-акаунт. Акаунт Тей одразу обліпили тролі, і вона з радістю навчалася від них, як і від будь-кого іншого. Енергійна особистість Тей невдовзі піддалася расизму, сексизму та запереченню голокосту. «йде расова війна, – твітнула вона, пізніше додавши: – 11 вересня зробив Буш». Менше ніж за день Тей безцеремонно приспали, залишивши її збуджений штучний мозок бачити сни про електричних жабок.

Хоча магія нейронних мереж може проростати з подібності до людського мозку, це також один із недоліків. Ніхто, зокрема й творці, не може до кінця зрозуміти, як працюють мережі. Коли така мережа робить щось неправильно, то замість журналу реєстрації помилок є лише знання, що проблему можна виправити, якщо достатньо попрацювати з синапсами. Коли не можна зрозуміти, чи мережа помиляється – якщо вона робить передбачення

1 ... 76 77 78 ... 85
Перейти на сторінку:

 Увага!

Сайт зберігає кукі вашого браузера. Ви зможете в будь-який момент зробити закладку та продовжити читання книги «Війна лайків», після закриття браузера.

Коментарі та відгуки (0) до книги "Війна лайків"