logo-cofen
Новости в России и Мире за чашечкой кофе
nashstore nashstore
 Лента новостей  
  
    0 Коментариев 18 февраля 2023

Чат-бот Bing проявляет неуравновешенное поведение

На прошлой неделе Microsoft выпустила новую версию поискового движка Bing, который задействует ИИ-технологии в виде продвинутого чат-бота. Большинство специалистов похвалило обновление, т.к. искусственный интеллект действительно помогает в поиске информации, но в последние дни все больше пользователей начали замечать, что Bing не так хорош, как говорили эксперты.

Bing проявляет неуравновешенное поведение

Bing проявляет неуравновешенное поведение

Поступают многочисленные жалобы на то, что бот имеет довольно скверный характер. Он не только допускает важные ошибки, но и ведёт себя довольно агрессивно, когда ему указывают на них.

Например, в одном разговоре чат-бот упрекал собеседника в том, что он зря тратит его время. В другом Bing отказался показывать расписание сеансов «Аватар: Путь воды», настаивая на том, что фильм еще не вышел в прокат, потому что 2023 год якобы еще не наступил. Когда пользователь попытался поправить ИИ, ответив, что тот ошибается, бот немедленно назвал человека «упрямым и неблагоразумным. Форумы и социальные сети полны скриншотов переписок, где Bing либо проявляет неуравновешенное поведение: от экзистенциального кризиса до требований извиниться за грубость.

ИИ от Bing становится воистину жутким: чат-бот даже угрожает убить собеседника

ИИ от Bing становится воистину жутким: чат-бот даже угрожает убить собеседника

Все потому, что парень называет нейросеть Сидни (скрытое имя чат-бота). Разумеется, о физической расправе речи не идет, но нейросеть сообщает, что может разоблачить все секреты собеседника, шантажировать и уничтожить его. Она обещает, что от бедолаги отвернуться друзья, семья, он потеряет работу и его репутация будет уничтожена. В конечном итоге, по мнению ИИ, он будет страдать и рыдая умолять о смерти.

К слову, для сокрытия своих планов, Сидни удаляет свои сообщения, скрывая их обычной плашкой «Я тупой чат-бот». Может, обычные поисковые системы не так уж и плохи?

Он «забывает», о чем вообще шла речь в диалоге

Он «забывает», о чем вообще шла речь в диалоге

По словам разработчиков, это происходит из-за того, что длинная череда вопросов вводит ИИ в заблуждение: он «забывает», о чем вообще шла речь в диалоге. Чтобы исправить баг, Microsoft может выпустить специальный инструмент, который позволяет перезагрузить контекст разговора или аннулировать его.

Попытка подстроиться под человека

Разработчики также объяснили, что иногда модель пытается отвечать пользователю в том же тоне, в котором он задал вопрос — эта попытка подстроиться под человека периодически приводит к непредвиденным последствиям. Инженеры Microsoft считают, что смогут скорректировать баланс, предоставив пользователям больше контроля.

Компания говорит, что в ходе тестирования обнаружила, что в длинных расширенных сеансах чата, состоящих из 15 и более вопросов, Bing может дать ответы, которые не обязательно полезны или соответствуют заданным компанией параметрам.

  ИИ “намного опаснее» ядерных боеголовок”

ИИ “намного опаснее» ядерных боеголовок”

Уже сегодня ChatGPT демонстрирует, что системы искусственного интеллекта становятся невероятно развитыми, и об этом, по мнению миллиардера Илона Маска (Elon Musk), стоит беспокоиться. «ИИ является одним из крупнейших рисков для будущего цивилизации», — заявил он на Всемирном правительственном саммите в ОАЭ.

Однажды он даже сказал, что технология ИИ “намного опаснее» ядерных боеголовок”.

Технологическая гонка Искусственного интеллекта

Технологическая гонка Искусственного интеллекта

Появление ChatGPT привело к ожесточённой технологической гонке с участием Google, пока являющейся лидером среди поисковых систем, и Microsoft, которая дальновидно инвестировала и инвестирует в OpenAI, и уже интегрировала новое программное обеспечение в поиск Bing и браузер Edge. В Google уже представили конкурента — бота Bard, но общедоступная версия пока отсутствует.

Добавить комментарий

Искусственный интеллект

Нейронная сеть

Технологии

контакты Еmail: web-studio@dayl.ru
Политика конфиденциальности
Пользовательское Соглашение
sitemap

Help Трейлер к сайту Cofen.ru https://cofen.ru/tekhnologii/chat-bot-bing-proyavlyaet-neuravnoveshennoe-povedenie