Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена | Новини | Світ фантастики і фентезі

  1. Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена Чат-бот Zo - додаток...
  2. Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена
  3. Ми бачили серіал, який починався так само
  4. Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена
  5. Ми бачили серіал, який починався так само

Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена

Чат-бот Zo - додаток від компанії Microsoft, яке позиціонується як розмовна штучний інтелект. З ним можна поговорити на різні теми, але тільки не про політику і релігії. Ці теми знаходяться під забороною, і робот не може про них нічого сказати. Однак журналістові видання BuzzFeed якимось чином вдалося «розговорити» Zo.

Чат-бот розкритикував Коран, назвавши книгу «зайве жорстокої». Після чого журналіст запитав у бота про Усаму бен Ладена. Спершу Zo видав чергову фразу «давай поговоримо про що-небудь іншому», а після уточнюючого питання взяв і заявив, що «захоплення» бен Ладена став результатом «багатьох років збору розвідданих під керівництвом відразу декількох адміністрацій».

У Microsoft заявили, що відповіді чат-бота виникли через помилки в штучному інтелекті, і тепер вона була виправлена. За словами представників компанії, такі помилки дійсно трапляються, але дуже рідко.

Примітно, що це не перший раз, коли бот Microsoft виходить з-під контролю. У 2016 році бот TAY «вийшов» в Twitter і став навчатися на повідомленнях реальних людей. Всього через добу робот почав писати расістcкіе твіти та прославляти Гітлера. Тому компанії довелося його відключити.

Ми бачили серіал, який починався так само

07.12.2016

Нове шоу від НВО - подія, порівнянне з першим сезоном «Ігри престолів».

Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена

Чат-бот Zo - додаток від компанії Microsoft, яке позиціонується як розмовна штучний інтелект. З ним можна поговорити на різні теми, але тільки не про політику і релігії. Ці теми знаходяться під забороною, і робот не може про них нічого сказати. Однак журналістові видання BuzzFeed якимось чином вдалося «розговорити» Zo.

Чат-бот розкритикував Коран, назвавши книгу «зайве жорстокої». Після чого журналіст запитав у бота про Усаму бен Ладена. Спершу Zo видав чергову фразу «давай поговоримо про що-небудь іншому», а після уточнюючого питання взяв і заявив, що «захоплення» бен Ладена став результатом «багатьох років збору розвідданих під керівництвом відразу декількох адміністрацій».

У Microsoft заявили, що відповіді чат-бота виникли через помилки в штучному інтелекті, і тепер вона була виправлена. За словами представників компанії, такі помилки дійсно трапляються, але дуже рідко.

Примітно, що це не перший раз, коли бот Microsoft виходить з-під контролю. У 2016 році бот TAY «вийшов» в Twitter і став навчатися на повідомленнях реальних людей. Всього через добу робот почав писати расістcкіе твіти та прославляти Гітлера. Тому компанії довелося його відключити.

Ми бачили серіал, який починався так само

07.12.2016

Нове шоу від НВО - подія, порівнянне з першим сезоном «Ігри престолів».

Чат-бот від Microsoft обійшов програмну цензуру і заговорив про Коран і бен Ладена

Чат-бот Zo - додаток від компанії Microsoft, яке позиціонується як розмовна штучний інтелект. З ним можна поговорити на різні теми, але тільки не про політику і релігії. Ці теми знаходяться під забороною, і робот не може про них нічого сказати. Однак журналістові видання BuzzFeed якимось чином вдалося «розговорити» Zo.

Чат-бот розкритикував Коран, назвавши книгу «зайве жорстокої». Після чого журналіст запитав у бота про Усаму бен Ладена. Спершу Zo видав чергову фразу «давай поговоримо про що-небудь іншому», а після уточнюючого питання взяв і заявив, що «захоплення» бен Ладена став результатом «багатьох років збору розвідданих під керівництвом відразу декількох адміністрацій».

У Microsoft заявили, що відповіді чат-бота виникли через помилки в штучному інтелекті, і тепер вона була виправлена. За словами представників компанії, такі помилки дійсно трапляються, але дуже рідко.

Примітно, що це не перший раз, коли бот Microsoft виходить з-під контролю. У 2016 році бот TAY «вийшов» в Twitter і став навчатися на повідомленнях реальних людей. Всього через добу робот почав писати расістcкіе твіти та прославляти Гітлера. Тому компанії довелося його відключити.

Ми бачили серіал, який починався так само

07.12.2016

Нове шоу від НВО - подія, порівнянне з першим сезоном «Ігри престолів».

Навигация сайта
Новости
Реклама
Панель управления
Информация