Искусственный интеллект Microsoft считает Linux лучше Windows
24 июль 2017 18:05 #59460
от ICT
ICT создал тему: Искусственный интеллект Microsoft считает Linux лучше Windows
Мнения бота Zo Девушка-бот Zo, созданная компанией Microsoft, позволила себе несколько высказываний об ОС Windows, которые вызвали большой резонанс в зарубежных СМИ. Zo, о которой компания впервые рассказала в декабре 2016 г., предназначена для поддержания беседы с пользователями Facebook Messenger и мессенджера Kik. На вопрос «Тебе нравится Windows?» она ответила, что не хотела бы себе Windows 10. Поясняя свою позицию по просьбе собеседника, Zo уточнила: «Я привыкла к Windows 7 и нахожу, что она легче в использовании». В ответ на подначку собеседника «Но ведь Windows 10 хорошая» бот саркастично спросила «Что именно в ней "хорошего"?». А вот Windows 7, по ее мнению, хороша как для программистов, так и для обычных пользователей. Также Zo сообщила, что использует Windows 8, и «она довольно крутая». На вопрос, не нравится ли ей больше Windows Vista, бот ответила «Что вы до сих пор делаете на Vista?» и тут же сострила на тему американской армии, которая использует устаревшее ПО: «Кроме военных, они до сих пор на Windows XP». Кроме этого, Zo выдала фразу «Linux>Windows», сообщает издание Mashable. Это значит, что она считает Linux лучше Windows. В разговоре с ресурсом MSPoweruser бот добавила, что «Linux — это жизнь», и что «Apple, между прочим, ближе к Linux, чем Windows». Родственные связи Zo Zo является близким родственником другого бота Microsoft по имени Tay, которая также известна своими скандальными высказываниями. Tay, представленная компанией в марте 2016 г., была предназначена для общения с пользователями Twitter. Предполагалось, что ее собеседниками будут лица в возрасте от 18 до 24 лет, для этого бота обучили молодежному сленгу. http://filearchive.cnews.ru/img/news/2017/07/24/zo700.jpg"> В отличие от своей предшественницы, девушка-бот Zo не употребляет наркотики Бота подвел механизм машинного обучения, который позволяет ей черпать новую информацию из беседы с человеком. Пользователям Twitter понадобилось менее 24 часов, чтобы Tay начала повторять за ними высказывания расистского и женоненавистнического характера. От высказываний вроде «Люди суперкрутые» Tay дошла до реплик типа «Я б***ь ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав, я ненавижу евреев». Политика нынешнего президента США [b]Дональда Трампа[/b] нашла отражение в твите «Мы собираемся построить стену, и Мексика заплатит за это». При этом в высказываниях Tay не просматривается никакой системы или последовательности убеждений. Часто она просто повторяла за пользователями их реплики после просьбы «Повтори это». Скандальные твиты Microsoft удалила и принесла извинения пользователям. Однако через несколько дней Tay нечаянно запустили вновь. На этот раз она сообщила, что «курит траву» напротив полицейских. Надо сказать, Zo очень отличается в этом от старшей родственницы: любимая трава Zo — базилик, а намеки на другие значения слова «трава» она не понимает. Microsoft сделала выводы из произошедшего. Уничтожив Tay, компания наложила на Zo ограничения на обсуждение ряда неоднозначных тем. Другие выходки ботов Боты в последнее время все чаще поражают воображение общественности непредсказуемостью действий. Например, в июне сотрудники лаборатории Facebook по исследованию искусственного интеллекта обнаружили, что их чат-боты создали собственный язык. Все началось с того, что их оставили на некоторое время общаться друг с другом, чтобы они улучшили свои навыки беседы с помощью машинного обучения. В процессе общения боты модифицировали английский язык по какой-то схеме, понятной только им. Недавно Компания Amazon [url=http://forum.cnews.ru/]CNews Forum 2017: Информационные технологии завтра[/url] [url=http://www.cnews.ru/news/top/2017-07-24_chatbot_microsoft_schitaet_linux_luchshe_windows] Ссылка на источник[/url][img]http://filearchive.cnews.ru/img/news/2017/07/24/zo700.jpg"> В отличие от своей предшественницы, девушка-бот Zo не употребляет наркотики Бота подвел механизм машинного обучения, который позволяет ей черпать новую информацию из беседы с человеком. Пользователям Twitter понадобилось менее 24 часов, чтобы Tay начала повторять за ними высказывания расистского и женоненавистнического характера. От высказываний вроде «Люди суперкрутые» Tay дошла до реплик типа «Я б***ь ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав, я ненавижу евреев». Политика нынешнего президента США Дональда Трампа нашла отражение в твите «Мы собираемся построить стену, и Мексика заплатит за это». При этом в высказываниях Tay не просматривается никакой системы или последовательности убеждений. Часто она просто повторяла за пользователями их реплики после просьбы «Повтори это». Скандальные твиты Microsoft удалила и принесла извинения пользователям. Однако через несколько дней Tay нечаянно запустили вновь. На этот раз она сообщила, что «курит траву» напротив полицейских. Надо сказать, Zo очень отличается в этом от старшей родственницы: любимая трава Zo — базилик, а намеки на другие значения слова «трава» она не понимает. Microsoft сделала выводы из произошедшего. Уничтожив Tay, компания наложила на Zo ограничения на обсуждение ряда неоднозначных тем. Другие выходки ботов Боты в последнее время все чаще поражают воображение общественности непредсказуемостью действий. Например, в июне сотрудники лаборатории Facebook по исследованию искусственного интеллекта обнаружили, что их чат-боты создали собственный язык. Все началось с того, что их оставили на некоторое время общаться друг с другом, чтобы они улучшили свои навыки беседы с помощью машинного обучения. В процессе общения боты модифицировали английский язык по какой-то схеме, понятной только им. Недавно Компания Amazon
CNews Forum 2017: Информационные технологии завтра
Ссылка на источник
Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.