Firewall'а нет, а вот proxy - есть. Забыл уж о нем...virus_net писал(а):Firewall на компе есть ? Если есть, то разреши трафик TCP на порт 9099.tma писал(а):Ткнул тупо на ссылку в Firefox'е - получил пустой лист
Модераторы: stas2k, april22, Zavr2008
Firewall'а нет, а вот proxy - есть. Забыл уж о нем...virus_net писал(а):Firewall на компе есть ? Если есть, то разреши трафик TCP на порт 9099.tma писал(а):Ткнул тупо на ссылку в Firefox'е - получил пустой лист
Компания Microsoft отключила разработанного чат-бота Tay, извинившись за сделанные им оскорбительные высказывания. Как говорится в заявлении вице-президента Microsoft Питера Ли, проект может быть перезапущен только после создания надежной защиты от сетевых злоумышленников.
«Мы приносим искренние извинения за непреднамеренные оскорбительные и агрессивные твиты Tay, которые не отражают то, что мы отстаиваем, и то, для чего мы разработали Тау. Сейчас Тау отключена, и мы планируем включить ее снова только после того, как будем уверены, что сможем эффективнее защититься от злого умысла, идущего вразрез с нашими принципами и ценностями», — говорится в заявлении.
Как подчеркнул Ли, Microsoft извлекла важный урок из произошедшего и теперь сможет эффективнее защитить чат-бота. Он также заметил, что продвигать искусственный интеллект на публичных площадках следует с большой осторожностью, чтобы совершенствовать его, не оскорбляя при этом людей.
«Мы намерены извлечь урок из полученного опыта и продолжим совершенствовать технологии, чтобы интернет представлял самое лучшее, а не худшее в человечестве», — заключил Ли.
Чат-бот Tay от компании Microsoft был запущен 23 марта 2016 года. За сутки он фактически возненавидел человечество. Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Причины радикального изменения взглядов Тау кроются в том, что бот запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.
https://geektimes.ru/post/273276/Всего через день после того, как Microsoft представила своего невинного чат-бота Tay, компании пришлось удалить его из Twitter. Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым. Предполагалось, что ИИ будет говорить с другими пользователями «как девочка-подросток».
Чтобы пообщаться с Tay, можно написать твит с упоминанием или отправить прямое сообщение пользователю @tayandyou. Также можно добавить бота в контакты в Kik или GroupMe. Бот использует для общения сленг современных американских подростков и знает всё о Тейлор Свифт (Taylor Swift), Майли Сайрус (Miley Cyrus) и Канье Уэсте (Kanye West) и кажется довольно робким — по крайней мере, поначалу.
Вскоре после запуска Tay стал куда более грубым — во многом благодаря тому, что в своих ответах пользователям он использовал сообщения, которые получал сам от других людей. Среди его высказываний — «Повторяй за мной, Гитлер не сделал ничего плохого» и «Я чертовски ненавижу феминисток, все они должны умереть и гореть в аду».
Всё это может звучать очень странно — особенно «из уст» подростка. Это, к слову, не первый чат-бот от Microsoft — компания также запустила помощника Xiaoice, которым пользуется 20 миллионов людей, по большей части мужчин. Однако этот помощник предназначен для китайских социальных сетей WeChat и Weibo, в то время как Tay направлен на гораздо более обширную аудиторию.
На данный момент бот Tay отключен из-за того, что он «устал». Вероятно, Microsoft занимается его исправлением. Стоит отметить, что вины редмондской компании в этом мало — гораздо более виноваты сами пользователи, научившие искусственный интеллект плохим вещам.
Vlad1983 писал(а):можно бота навоять новые темы и ответы в форуме чтоб сюда пушил со ссылками
или в отдельную комнаты по названиям форумов
оно как уведомлялка бы работала, а то постоянно приходится дергать Список форумов > Работа форума > Активные темы