Информационная теория объясняет, почему ИИ никогда не станет по-настоящему разумным.
Новый философско-математический труд
Первая работа Шлерета опиралась на теоремы Тьюринга, Гёделя и Райса и утверждала, что алгоритмы в принципе не могут решать задачи с бесконечным пространством вариантов. Новая статья выходит за рамки логики и показывает другой парадокс: в определённых условиях добавление новых данных не снижает, а наоборот увеличивает неопределённость. Чем больше информации поступает, тем труднее принять решение. Автор называет это эффектом «IOpenER» — информация открывает, энтропия растёт.
В качестве иллюстрации он приводит ситуации, в которых даже самые продвинутые языковые модели теряются. Например, простой бытовой вопрос вроде «Я поправилась?» вызывает у ИИ не решение, а бесконечную череду анализов, потому что количество контекстов и возможных интерпретаций практически бесконечно. Машина не ошибается, она просто не может выбрать единственный ответ в условиях социальной неопределённости. Сходным образом, если ИИ пытается объяснить эксперимент Майкельсона-Морли с позиций ньютоновской физики, он не способен изобрести концепцию относительности, потому что это требует выхода за рамки его символического словаря.

Новый философско-математический труд
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, что создание настоящего искусственного разума невозможно не только на практике, но и в теории. Автор статьи, немецкий исследователь Макс Шлерет, представил второе доказательство невозможности так называемого AGI — искусственного интеллекта общего уровня — теперь уже с точки зрения информационной теории.Первая работа Шлерета опиралась на теоремы Тьюринга, Гёделя и Райса и утверждала, что алгоритмы в принципе не могут решать задачи с бесконечным пространством вариантов. Новая статья выходит за рамки логики и показывает другой парадокс: в определённых условиях добавление новых данных не снижает, а наоборот увеличивает неопределённость. Чем больше информации поступает, тем труднее принять решение. Автор называет это эффектом «IOpenER» — информация открывает, энтропия растёт.
В качестве иллюстрации он приводит ситуации, в которых даже самые продвинутые языковые модели теряются. Например, простой бытовой вопрос вроде «Я поправилась?» вызывает у ИИ не решение, а бесконечную череду анализов, потому что количество контекстов и возможных интерпретаций практически бесконечно. Машина не ошибается, она просто не может выбрать единственный ответ в условиях социальной неопределённости. Сходным образом, если ИИ пытается объяснить эксперимент Майкельсона-Морли с позиций ньютоновской физики, он не способен изобрести концепцию относительности, потому что это требует выхода за рамки его символического словаря.
Для просмотра ссылки необходимо нажать
Вход или Регистрация