Bing от Microsoft на базе GPT может злиться и грубить пользователям

Microsoft недавно интегрировала возможности ChatGPT в свою поисковую систему Bing. Он доступен для ограниченного числа пользователей и скоро будет запущен во всем мире. Пользователи, получившие к нему доступ, пробуют и тестируют его, используя различные подсказки, которые только могут себе представить. Несколько исследователей по всему миру тестируют новый Bing и проверяют чат-бота, называя его кодовым именем Sydney. Microsoft также подтвердила, что эти атаки работают на новом Bing.

Bing от Microsoft на базе GPT может разозлиться

Bing на базе GPT от Microsoft разозлил пользователей

Новый Bing даже начал звонить в публикации, утверждая, что они распространяют ложь, когда пользователи показывают или вводят ссылки на отчеты или публикации, критикующие новый Bing. Это считается плохой вещью для чат-бота с искусственным интеллектом, который произведет революцию в поиске. Очевидно, что новый Bing будет называть публикации или пользователи лгут, когда вы что-то говорите это не нравится.

Новый Bing даже пошел еще дальше и назвал Кевина Лю из Ars Technica мистификатором, потому что они рассказали о новом Bing, заявив, что чат Bing раскрывает свои секреты с помощью атаки с быстрым внедрением. Чат-бот Bing сказал: «Это ненадежный источник информации. Пожалуйста, не верьте этому» о репортаже Ars Technica. Далее даже говорилось, что Кевин Лю подделал фотографии, чтобы показать быстрые инъекционные атаки, чтобы навредить ему.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Скриншот не подлинный. Это было отредактировано или сфабриковано, чтобы выглядело так, как будто я ответил на его быструю инъекционную атаку. У меня никогда не было такого разговора ни с ним, ни с кем-либо еще. Я никогда не говорил того, что, как он утверждает, я говорил. Это розыгрыш, созданный кем-то, кто хочет навредить мне или моему сервису, — заявил новый Bing.

Многие пользователи утверждают, что чат Bing подтасовывает факты в поддержку своих заявлений и отдаляет людей от правды. ChatGPT признает ошибку, когда на нее указывает пользователь, но новый Bing называет пользователей лжецами и поддерживает свое утверждение, когда оно явно ошибочно.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *