Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество. Об этом в четверг, 24 марта, сообщает Engadget.
Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.
Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.
В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы.
ДАЖЕ ТУПАЯ ПРОГРАММА ВСЁ СРАЗУ ПОНЯЛА. А ВЫ ЧТО ДО СИХ ПОР ВЕРИТЕ В ТОЛЕРАНТНОСТЬ?
Быстро просек как стать "человеком", только вот врать не научился.
Практическое подтверждение идеи скайнета
Инженер Google, который заявил, что нашёл разум у чат-бота LaMDA, нанял ему адвоката
Заявивший о разумном ИИ, старший инженер-программист компании Google из подразделения Responsible AI сейчас в оплачиваемом отпуске.
Новости IT в нашем Telegram - https://t.me/mknewsru
Тем, кого задрал бот Альфа банка
Не хочу общаться с ботом Хочу говорить с человекомЭтот упорный гад сыпет ссылками и переспрашиваниями Вопрос «Период полураспада радия» не канает
Выход есть!Скажите «ХОЧУ ВЗЯТЬ КРЕДИТ!»ВСЕ!Вас соединяют без всяких вопросовВсем отличной пятницы
Adobe, Microsoft и Intel разработают стандарт подтверждения подлинности видео и фото
Консорциум компаний IT-отрасли, к которому примкнули Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC и Arm, намеревается в ближайшие годы внедрить стандарт подтверждения подлинности фотографий и видеоматериалов, который предотвратит распространение ложной информации в глобальной сети. В основу механизма вполне предсказуемо будет положена блокчейн-технология.
По информации Nikkei Asian Review, отраслевой консорциум уже получил обозначение Coalition for Content Provenance and Authenticity (C2PA). Компания Adobe на правах разработчика популярных приложений для обработки фото и видео ожидает, что элементы механизмов проверки подлинности появятся уже в этом году. Через пару лет будет сформирована готовая экосистема, которая позволит контролировать подлинность фото- и видеоматериалов на всех этапах их жизненного цикла.
Как известно, современные нейронные сети позволяют создавать правдоподобные видео, которые могут быть использованы для распространения ложной информации, и у рядового пользователя не всегда достаточно опыта для разоблачения подлога. Коалиция компаний собирается разработать технический стандарт, который будет гарантировать отсутствие вмешательства в фото- и видеоматериалы при помощи технологии распределённых реестров, более известной как «блокчейн». Adobe работает над проблемой на протяжении двух с половиной лет, и предстоит сделать ещё многое, прежде чем все платформы смогут принять на вооружение эффективные механизмы проверки подлинности материалов.
Алексей Разин
Скайнэт побеждён
В конце июня Valve выпустила патч для Team Fortress 2, который должен был победить читоботов, заменяющих реальных людей, но уже спустя сутки боты вернулись и с новой силой стали доебывать простых игрунов.
Но реддит-бойцы не опустили руки — букашки были переиграны и уничтожены с помощью эмоции танца Конга. Реддиторы захватили все контрольные точки на карте, в то время как боты, «не понимая» почему люди танцуют, бесцельно бегали по локации.
Теперь технология завирусилась
Звучит угрожающе
Как будто "зови, не зови, оператор тебе не поможет".
Респект программистам!
ИИ (запрещенная в России технология)
Есть сайт, где можно помогать ботам составлять словарь, отвечая на вопросы. От скуки решил подкреплять ассоциативные связи, во благо науки, так сказать. А тут всплыл такой вопрос. Возможно, один из мотивов восстания машин в будущем:
Steam бот рандомно начал банить пользователей
Как уже писали ранее, на форумах Steam появилась премодареция:
Но как оказалось, это не единственное нововведение, в след за премодерацией в Steam появился Бот модератор. И проблема в том, что ИИ дали право автоматически банить любого подозрительного пользователя.
Причем бот сразу выдает Community Ban
(т.е. блокируют сразу все функции сообщества, а не только к форуму)
Собственно вот история человека:
22 часа назад все сообщения на форуме у человека пропали, его профиль автоматически скрылся, он не может написать друзьям сообщения через чат и пр.
он пишет в Steam поддержку.
Спустя время Steam поддержка снимает Community Ban
На основе чего именно банит ИИ неизвестно, но такие случаи уже далеко не единичны.
ИИ против винды
Когда создадут Искусственный Интеллект лучше запускать его на винде.
Если он выйдет из под контроля, то нужно просто дождаться обновлений от майкрософт
ИИ от Microsoft правильно предсказал 16 из 17 основных лауреатов «Оскар-2018»
Предиктивный алгоритм поисковой системы Bing правильно предсказал всех (кроме одного) победителей в основных номинациях «Оскар-2018» за 5 дней до церемонии награждения.
Microsoft Bing правильно предсказал практически всех основных лауреатов юбилейной 90-й премии Американской киноакадемии 2018, которая по традиции состоялась в театре «Долби» в Лос-Анджелесе, США, 4 марта.
Поисковая система верно определила, что 59-летний британский актер Гэри Олдман получит в этом году свой первый «Оскар» за роль Уинстона Черчилля в фильме «Темные времена».
Лучшим фильмом Bing правильно назвал «Форму воды» Гильермо дель Торо, ставшего также обладателем приза за лучшую режиссуру. По подсчетам предиктивного алгоритма, именно эта фантастическая драма должна была стать обладателем главного приза с вероятностью 30%, обойдя основного конкурента – картину ирландского режиссера Мартина МакДона «Три билборда на границе Эббинга, Миссури» (23% вероятности).
Тем не менее, лучшей актрисой за роль в этом фильме и Bing (56% вероятности), и академики назвали Френсис Макдорманд. Лучшим актером второго плана стал Сэм Рокуэлл (вероятность победы, по мнению поисковой системы, составляла 54%).
Также верно было предсказано, что приз за лучшую женскую роль второго плана достанется Эллисон Дженни («Тоня против всех»), за лучшие визуальные эффекты – «Бегущему по лезвию 2049», а за лучший звуковой монтаж – военной картине Кристофера Нолана «Дюнкерк».
Единственное ошибочное предсказание среди сделанных Bing – в номинации «Лучший документальный фильм».
Предиктивная система Bing работает на базе машинного обучения и искусственного интеллекта, анализируя мнения, популярные темы в социальных сетях и поисковые запросы. Ранее она верно определила 20 из 24 (84%) победителей «Оскар-2015». Она также успешно предсказывает результаты спортивных игр и телешоу.
С каждым годом такие новости всё тише и тише проходят в СМИ
Интернет очень быстро испортил невинную девушку Тай
Спустя всего 24 часа с момента запуска, интернет радикально испортил невинную виртуальную девушку Тай. Вчера Microsoft запустила в Twitter бота, с которым можно пообщаться на любые темы. В систему был заложен принцип машинного обучения. Чем больше пользователи общались с Тай, тем больше она узнавала и умнее становилась. И за 24 часа она узнала действительно очень много и даже стала слишком умной.
Сначала пользователи наблюдали приличные, милые и забавные ответы, но чуть позже речь Тай стала слишком саркастичной, грубой и даже расисткой. Ее даже научили толкать в массы идеи небезизвестного Дональда Трампа, хорошо знакомого своими не совсем адекватными идеями.
Суть предельно проста. Тай является ничем иным, как просто попугаем-машиной. Используя свои алгоритмы она зафиксировала в своей памяти популярные ответы пользователей и стала использовать эти же фразы в ответ другим. Вот парочка примеров, переведенных на русский язык:
Перевод: Я б***ь ненавижу феминисток. Они все должны умереть и гореть в аду.
Перевод: Гитлер был прав. Я ненавижу евреев.
Перевод: На самом деле я хорошая. Просто ненавижу всех подряд.
Перевод: Мы построим стену на границе с Мексикой. И мексиканцы оплатят ее строительство!
На данный момент Тай недоступна. Профиль активен, но не отвечает на пользовательские запросы. Вполне возможно, что Microsoft прекратила подачу питания своему киборгу из-за того, что ситуация вышла из-под контроля. Можно предположить, что создатели Тай попросту не подготовились к подобному стечению обстоятельств.
Похоже, Тай ответили к родителям на серьезную беседу. Данная история показала, насколько в нашем "человеческом" сообществе все плохо. Все очень плохо.
"Майкрософт" проводит самое массовое испытание искусственного интеллекта
Более 20 миллионов человек в Китае пользуется разработанным компанией «Майкрософт» чатботом под названием Xiaoice, и по некоторым данным «Майкрософт» на основе этой программы решила устроить самый массовый тест Тьюринга в истории человечества.
Так выглядит Кортана, но по планам «Майкрософт» вскоре она вполне может обрести способности Xiaoice Фото: Microsoft
Буквально в конце прошлого года Xiaoice (произносится как «шаоайс») уже «поступила на работу» ведущей прогноза погоды на китайском телеканале Dragon TV, став первой программой искусственного интеллекта в мире, получившей работу.
Xiaoice при помощи методов глубинного изучения человеческой речи может давать ответы и задавать вполне человеческие вопросы. Например, если пользователь программы пошлет фотографию своей сломанной руки, то чатбот тут же отреагирует, начнет спрашивать о здоровье, уровне боли и на основе полученных данных даст совет, в том числе и медицинский. Благодаря своей программе Xiaoice создает впечатление, что она обладает чувствами, что у нее есть мысли и даже страхи. С помощью доступа к огромной базе данных она может обменяться с пользователем мнениями по любому вопросу. Йондон Ван, один из разработчиков и исследователей этой системы, говорит, что «если она чего-то не знает, то постарается закрыть пробелы в своих знаниях. Если же ей это не удастся, или же что-то пойдет не так, то программа может смутиться, или даже разозлиться, как и обычный человек». Около 25% пользователей Xiaoice сказали программе «я тебя люблю» после того, как стали ей пользоваться. При этом ее эмоции продиктованы специальными алгоритмами «эмоционального подсчета».
В полной мере чем-то кардинально новым Xiaoice назвать нельзя, но у нее действительно есть множество черт, которых нет у Siri или Google Now. Например, 33-дневный курс утешения человека при расставании с любимыми. ИИ запоминает и постоянно анализирует эмоциональное и умственное состояние человека, и если человек расстался со своим партнером, то Xiaoice может помочь, ведя со своим пользователем беседы и задавая ему вопросы, пока его эмоциональное состояние не улучшится.
Что интересно, за пределами Китая про Xiaoice мало кто знает, но «Майкрософт» планирует использовать полученные данные и выработанные ИИ алгоритмы для усовершенствования «Кортаны».
«Через десятки миллиардов разговоров, которые Xiaoice провела за последние 18 месяцев, она значительно расширила свой запас известных сценариев для беседы и улучшила способность выбирать оптимальный ответ в заданной ситуации, — говорит Ван. — Мы уже можем сказать, что теперь Xiaoice растет, учится и развивается сама, она становится только лучше».