Необъяснимый, непредсказуемый, неконтролируемый: ученые бьют тревогу об отсутствии контроля над искусственным интеллектом

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
54.881
Репутация
62.390
Реакции
277.076
RUB
0
Эксперты призывают к осторожности в разработке ИИ из-за рисков для существования человечества.

image



В свете недавних исследований, эксперт по безопасности искусственного интеллекта (ИИ), доктор Роман В. Ямпольский, поднимает тревожный вопрос о контролируемости ИИ, указывая на отсутствие доказательств того, что ИИ можно безопасно управлять. В преддверии выпуска своей новой книги " ИИ: необъяснимый, непредсказуемый, неконтролируемый ", Ямпольский обращает внимание на потенциальные риски, которые ИИ представляет для существования человечества, и призывает к развитию ИИ с акцентом на безопасность и минимизацию рисков.

Ямпольский подчеркивает, что проблема контроля над ИИ может стать одной из самых значимых проблем для человечества, однако она до сих пор остается плохо понятой и исследованной. С его точки зрения, развитие ИИ суперинтеллекта является практически неизбежным событием, что требует значительных усилий в области безопасности ИИ.

Основным препятствием на пути создания "безопасного" ИИ является его способность к обучению и принятию решений в новых ситуациях, что делает невозможным предсказание всех потенциальных проблем безопасности. К тому же, ИИ не всегда может объяснить принятое решение таким образом, чтобы человек мог его понять, оставляя нас с "черным ящиком" и увеличивая риск будущих инцидентов.

С увеличением автономности ИИ наш контроль над ним уменьшается, что, по мнению Ямпольского, ведет к снижению безопасности. Он утверждает, что человечество стоит перед выбором: стать подопечными, но не контролирующими, или отказаться от "помощника-хранителя", но остаться свободными и с контролем.

Ямпольский также затрагивает проблему выравнивания ценностей ИИ с человеческими, подчеркивая сложность задачи и потенциальные риски, связанные с принятием решений ИИ, которые могут быть основаны на предвзятости в пользу человека.

Для минимизации рисков, связанных с ИИ, Ямпольский предлагает разработку модифицируемых систем с возможностью "отмены" действий, ограничение их возможностей, обеспечение прозрачности и понятности на человеческом языке. Он призывает к более глубокому изучению вопросов безопасности ИИ и увеличению финансирования исследований в этой области, подчеркивая, что хотя мы не сможем достичь 100% безопасности ИИ, наши усилия могут сделать его значительно безопаснее.

Экспертные мнения, подобные высказываниям Ямпольский, акцентируют внимание на критической важности развития ИИ в ответственной и осознанной манере, призывая к международному сотрудничеству и стратегическому подходу к минимизации потенциальных рисков.









 
Эти сукины дети доведут нас до апокалипсиса (( То коллайдер, то ИИ. Точно угробят. Помню вроде в Half-Life(могу ошибаться) с них и начался пипец.
 
Читая статью, в голове крутится лишь одно слово "Skynet" ))
 
Вот он уже до чего дошел
 

Вложения

  • 1IMG_0849.MP4
    8.6 MB
  • Теги
    ии
  • Сверху Снизу