Нейросети ChatGPT и Bing научили распространять дезинформацию

Нейросети ChatGPT и Bing научили распространять дезинформацию<span class="qirmizi"></span>

Чат-боты ChatGPT и Bing от OpenAI и Microsoft соответственно научились цитировать друг друга, распространяя фейковые новости. Об этом сообщает Day.Az со ссылкой на Gazeta.ru.

Один из пользователей форума Hacker News пошутил о том, что нейросеть Bard, которую ранее представила Google, решили закрыть. Другой пользователь использовал ChatGPT, чтобы с помощью чат-бота создать фейковую новость об этом "событии".

Когда у Bard спросили, когда его закроют, он ответил, что он уже закрыт, выбрав в качестве источника "Hacker News". Когда аналогичный вопрос задали Bing, он так же подтвердил закрытие Bard. При этом у чат-бота оказалось уже аж шесть ссылок на источники.

 

"Все началось из-за одной шутки на Hacker News. Представьте, что вы могли бы сделать, если бы реально захотели вывести этих чат-ботов из строя", - отмечает The Verge. Портал указал на то, что эта забавная ситуация может нести в себе серьезные последствия. Учитывая, что искусственный интеллект не умеет отличать правду от лжи, чат-боты могут создавать целые потоки дезинформации, которые быстро распространятся по интернету без какого-либо контроля, вводя людей в заблуждение.

Источник: news.day.az