Ваш ChatGPT — философский инвалид. Он не способен на прыжок за пределы системы

Специальный корреспондент
Собака

Собака

Пресс-служба
Ветеран пробива
Private Club
Регистрация
13/10/15
Сообщения
58.923
Репутация
64.270
Реакции
288.320
USD
0
Информационная теория объясняет, почему ИИ никогда не станет по-настоящему разумным.

image



Новый философско-математический труд , что создание настоящего искусственного разума невозможно не только на практике, но и в теории. Автор статьи, немецкий исследователь Макс Шлерет, представил второе доказательство невозможности так называемого AGI — искусственного интеллекта общего уровня — теперь уже с точки зрения информационной теории.

Первая работа Шлерета опиралась на теоремы Тьюринга, Гёделя и Райса и утверждала, что алгоритмы в принципе не могут решать задачи с бесконечным пространством вариантов. Новая статья выходит за рамки логики и показывает другой парадокс: в определённых условиях добавление новых данных не снижает, а наоборот увеличивает неопределённость. Чем больше информации поступает, тем труднее принять решение. Автор называет это эффектом «IOpenER» — информация открывает, энтропия растёт.

В качестве иллюстрации он приводит ситуации, в которых даже самые продвинутые языковые модели теряются. Например, простой бытовой вопрос вроде «Я поправилась?» вызывает у ИИ не решение, а бесконечную череду анализов, потому что количество контекстов и возможных интерпретаций практически бесконечно. Машина не ошибается, она просто не может выбрать единственный ответ в условиях социальной неопределённости. Сходным образом, если ИИ пытается объяснить эксперимент Майкельсона-Морли с позиций ньютоновской физики, он не способен изобрести концепцию относительности, потому что это требует выхода за рамки его символического словаря.





 
  • Теги
    ии
  • Назад
    Сверху Снизу