Вчені запропонували позбавити штучний інтелект впевненості в собі

Група вчених з Каліфорнійського університету в Берклі прийшла до висновку, що робота систем штучного інтелекту покращиться, якщо їх позбавити впевненості у своїх діях. Алгоритми повинні не тільки вміти виконувати необхідне завдання, а й брати до уваги спроби людини втрутитися в них. Стаття дослідників доступна на сайті ArXiv.org.


Вже зараз системи штучного інтелекту справляються з деякими завданнями краще людини. На думку деяких експертів, зайнятих у сфері машинного навчання та розвитку нейромереж, комп'ютер у 2049 році напише бестселер, а вже до 2053 року зможе проводити хірургічні операції не гірше лікарів. Такий швидкий розвиток технологій нерідко викликає занепокоєння у вчених, які бачать у цьому потенційні загрози. Одна з них полягає в тому, що одного разу цілі людини і машини не збігаються і алгоритм відмовиться підкорятися командам. В одних випадках це може бути корисно, а в інших - вкрай небезпечно, тому дослідники вже зараз намагаються визначити, який ступінь свободи необхідно надати системам штучного інтелекту.


Щоб відповісти на це питання, американські вчені створили математичну модель взаємодії між людиною і роботом, яка представлена у вигляді абстрактної «гри з вимикачем». Її концепція проста: роботу з вимикачем дається деяке завдання, яке людина в будь-який момент може перервати, натиснувши на кнопку. Однак якщо робот вважає такий вчинок нерозумним, він блокує дії оператора і продовжує свою роботу. При цьому головне завдання машини - діяти з максимальною вигодою для користувача.

Реакція робота в рамках моделі безпосередньо залежала від його суджень про раціональність людини. Якщо програма виходить з того, що поведінка оператора може бути не оптимально, а робот безумовно діє на благо його інтересів, то вона ніколи не дозволить вимкнути себе. Якщо ж машина, навпаки, вважає, що людина завжди права, то вона буде відключатися по першій його команді, навіть якщо ШІ насправді все робить правильно. Вчені прийшли до висновку, що оптимальна стратегія для машини полягає в тому, щоб взяти до уваги спробу користувача зупинити процес, поінформувати його про те, що робот хоче продовжити виконання завдання, і почекати зворотної відповіді користувача. У цьому випадку функція корисності для людини виявляється максимальною.

Така модель, як, наприклад, і дилема ув'язненого, досить абстрактна і може бути доповнена безліччю деталей, які вплинуть на результат. Так, вчені міркують про те, що в ситуації, коли безпілотний автомобіль самостійно везе маленьку дитину в школу, найкращою стратегією для неї було б ігнорувати дії пасажира. В цілому, автори роботи не говорять про якісь конкретні рішення (придумана ними гра частково носить філософський характер), проте схиляються до того, що з точки зору безпеки система не повинна впадати в крайнощі.

У майбутньому дослідники планують прорахувати ймовірність різних реакцій робота у випадках, коли він обізнаний про власну корисність. Наприклад, робот-бариста може вважати свої дії більш цінними рано вранці, ніж вдень.

Останнім часом люди все частіше стикаються з «розумними» роботами. Так, нещодавно був розроблений антропоморфний робот «Федір», який в перспективі буде допомагати космонавтам, а також робот Pepper, який вміє зчитувати емоції людини. Компанія SK Telecom створила прототип соціальної машини, яка буде виконувати роль дворецького.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND