Зайва самовпевненість нейромережам не до обличчя

Штучний розум хочуть навчити відрізняти справжні питання від безглуздих.


Хоча нейромережі вже вміють успішно розрізняти фотографії, інтерпретувати тексти і знаходити космічні радіовспліски, їх «внутрішній світ» залишається загадкою. Навіть творці нейромережі не завжди можуть сказати, чому вона прийняла те чи інше рішення. Деякі дослідники і зовсім називають нейромережі «чорними скриньками».


А якщо нейромережі доручать приймати важливі рішення, від яких залежать життя людей? Тоді вона тим більше не повинна помилятися, але щоб уникнути помилок, ми повинні знати, на які саме деталі вона звертає увагу. Райан Сокласкі (Ryan Soklaski) і його колеги з Лабораторії Лінкольна при Массачусетському технологічному інституті запропонували зробити крок назад і повернутися до нейромереж, які виконують завдання за кілька прийомів. Дослідники створили мережу, яка знаходить потрібні предмети на фотографіях - наприклад, вона може відрізнити маленьку блискучу червону кулю від циліндрів або кубів.

Спочатку нейромережа вишукувала всі маленькі предмети, потім серед маленьких знаходила всі блискучі тощо. Іноді нейромережа помилялася, тоді дослідники вручну вносили корективи. У підсумку вдалося домогтися унікального результату - нейромережа давала правильні і швидкі відповіді в 99,1% випадків, повідомляють автори в публікації на arXiv.org.

Тим часом фахівці з Мерилендського університету виявили, що нейромережі помиляються через запрограмовану самовпевненість. Вони вивчили поведінку нейромережі, здатної знаходити відповіді в частинах тексту або фразах. Зазвичай резони таких мереж вивчають, виключаючи слова в питанні. Якщо відповідь змінилася, то це слово для штучного інтелекту важливо.

Цього разу вчинили навпаки: стали виключати з питання малозначущі, на думку електронного інтелекту, слова. В одній з фраз йшлося про команди з американського футболу Panthers і Broncos. На питання про те, де тренувалися Broncos, нейромережа відповідала правильно - «на стадіоні Стенфордського університету». Після того, як фахівці прибрали з питання слово «Broncos», відповідь залишилася колишньою. Нейромережа продовжувала одноманітно відповідати і тоді, коли в питанні залишилися всього три англійські слова, і коли на людський погляд це була вже просто нісенітниця, кажуть автори в опублікованій доповіді. На їхню думку, штучний інтелект стане більш точним, якщо навчити його за прикладом людей визначати абсурдні питання і вимагати уточнень.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND