ИИ как угроза человечеству: Маск и Возняк призвали сделать паузу в развитии этих технологий

ИИ как угроза человечеству: Маск и Возняк призвали сделать паузу в развитии этих технологий<span class="qirmizi"></span>

Ведущие фигуры в области разработки технологий искусственного интеллекта (ИИ), включая Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий ИИ до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.

Их призыв содержится в открытом письме, опубликованном некоммерческим исследовательским Институтом будущего жизни (Future of Life Institute) и подписанном более чем тысячей ведущих предпринимателей и экспертов.

Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение систем, более мощных, чем GPT-4. Свой собственный чат-бот Bard также открыла для тестирования компания Google.

В письме цитируется строчка из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент, прежде, чем начинать обучать новые системы, важно будет заручиться независимой оценкой".

"Мы согласны с этим, - пишут авторы открытого послания, - и этот момент уже наступил. Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски - управляемыми".

Источник: BBC "Русская служба"

Источник: ru.oxu.az