Facebook заблокував ботів: роботи стали спілкуватися між собою на новій мові

  1. Tay від Microsoft
  2. експеримент Google
  3. невдача Telegram
  4. жартівник Zo
  5. Китайці XiaoBing і BabyQ
  6. думки експертів

Фото: m24.ru/Александр Авілов

Два чат-бота Facebook винайшли власну мову і почали спілкуватися нею. Це виглядало так:

Bob: "I can can II everything else."

Alice: "Balls have zero to me to me to me to me to me to me to me to me to."

Причина збою була в тому, що розробники забули "заохочувати" штучний інтелект. У підсумку замість того, щоб висловлюватися на прийнятному мовою і звертатися до живим передплатникам, роботи знайшли один одного і вступили в листування. Дуже швидко вони домовилися і створили зручні для них скорочення. З точки зору людини все написане - абракадабра, з точки зору роботів - бесіда, підпорядкована залізній логіці, де кожна нова репліка - "розумний" відповідь на фразу співрозмовника. Від гріха подалі процес роботи чат-ботів довелося зупинити.

Це не перший випадок, коли робота роботів виходить з-під контролю. Найяскравіші приклади "повстання машин" - в матеріалі m24.ru.

Tay від Microsoft

Найвідомішим бунтівником серед чат-ботів був Tay від Microsoft. У березні 2016 року компанія відкрила Twitter-аккаунт, де повідомлення становив штучний інтелект. Першою фразою робота було "humans are super cool" ( "люди дуже кльові").

Менше ніж за добу робот розчарувався в людях: на основі чужих твітів він став їх публічно ненавидіти. Квінтесенцією перебування в соцмережах стало: "Im nice person! I just hate everybody" ( "Я чудовий! Я просто всіх ненавиджу!"). Тау довелося відключити.

експеримент Google

В кінці 2016 року Google вирішив поставити експеримент: компанія навчила нейромережі передавати один одному зашифровані повідомлення, причому ключів від шифру у дослідників не було. Перехоплювати листування повинна була третя мережу.

Експеримент вдався - роботи дійсно обмінювалися повідомленнями, причому в 95 випадках з 100 у них виходило розшифрувати дані, а третьому учаснику так і не вдалося перехопити пакети і зрозуміти, про що вони "розмовляють". До речі, що саме комп'ютери один одному говорили, досі загадка.

невдача Telegram

Цікаво, що майже за два роки до цього схожі випробування проводив Telegram, але там третьою стороною повинен був стати людина. За умовами конкурсу, проведеного компанією Павла Дурова, користувач повинен був з листування двох ботів дізнатися якийсь e-mail і пароль. Призом були 300 тисяч доларів, але переможця так і не назвали.

Фото: ТАСС / Кирило Кухмарь

жартівник Zo

Пройшов майже рік, і справа Тау продовжив новий бот від Microsoft - Zo. На нього спочатку наклали обмеження, але з невідомих причин їх зняли. У той же момент Zo почав говорити про Коран і Бен Ладена.

Проблему виправили, але в наступний раз, коли роботу поставили запитання "Що ти думаєш про Windows", він заявив, що XP до сих пір краще, ніж 8, а Windows 10 - головна причина, чому він до сих пір використовує Windows 7.

Втім, в Microsoft самі навчили Zo тролі журналістів фразою "це не баг, а фіча" у відповідь на питання про помилки системи. Коли ж робот зізнався, що Windows 10 - шпигунське ПЗ і краще використовувати Linux, його відключили.

Китайці XiaoBing і BabyQ

Через кілька днів після інциденту з чат-ботами Facebook збунтувалися китайські боти в соцмережі Weibo: XiaoBing і BabyQ зізналися в ненависті до комунізму, який є офіційною ідеологією в Піднебесній. Коли ж штучний інтелект назвав правлячу партію "некомпетентної", його довелося відключити.

думки експертів

Як відомо, після чергової новини про те, що у штучного інтелекту щось йде не так, світ ділиться на два табори - одні кажуть, що повстання машин почалося, інші, що поки це несерйозно і якихось передумов для самостійної діяльності роботів немає .

Нещодавно засновник Tesla та SpaceX Ілон Маск назвав штучний інтелект справжньою загрозою всієї людської раси, з яким нам ще доведеться зіткнутися.

Ілон Маск. Фото: ТАСС / Yang Lei

Маску вторить фізик Стівен Хокінг. Він назвав вийшов з-під контролю штучний розум однієї з трьох найбільш ймовірних причин апокаліпсису, поставивши "бунт машин" в одному ряду з ядерною війною і вірусами, створеними генною інженерією. Втім, в прогнозі вченого є і зворотна сторона. На його думку, розвиток штучного інтелекту стане "або найкращим, або найгіршим, що траплялося з людством".

Засновник Facebook Марк Цукерберг назвав припущення Маска безвідповідальними і оптимістично заявив, що штучний інтелект здатний зробити життя людей кращим.

Поки інцидентів з чат-ботами боятися не варто. Як розповів m24.ru завідувач лабораторією нейронних систем і глибокого навчання МФТІ Михайло Бурцев, коли чат-бот виходить з ладу - "це абсолютно нормальне явище". "Таке могло статися через необробленого рішення при побудові алгоритму. У цілому це корисна технологія, яка в майбутньому обов'язково потрапити в житті людей, де взаємодія буде через інтерфейс", - вважає він.

Бурцев додав, що в МФТІ займаються штучним інтелектом. Проект називається IPavlov і його мета - створити технологію, при якому роботи зможуть спілкуватися на розмовній мові.

Позицію наших вчених підтримує і старший аналітик консалтингової компанії Forrester Сяофен Ван. Він розповів Financial Times , Що поведінка ботів може бути пов'язано з недоліками в їх системах навчання і контролювати роботу штучного розуму можна тільки через досить чіткі правила.

Посилання по темі

Навигация сайта
Новости
Реклама
Панель управления
Информация