Искусственный Интеллект: от мифов к реальности

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
28.773
Репутация
11.595
Реакции
61.683
RUB
50
Вокруг всего нового всегда было огромное количество додуманной, непроверенной информации, которая, конечно же, неоднозначно влияла на восприятие того, что только должно войти в нашу жизнь.

Не погруженному человеку зачастую кажется, что внутри незнакомой системы много недоработок, уязвимостей, скрытых недостатков. Все из-за того, что «новшество» не всегда укладывается в понятные шаблоны. Стандартному образу восприятия человека здесь не на что опереться – законы поменялись и стереотипы не воспроизводятся привычным образом. Так рождаются мифы. Один озабоченный специалист идентифицировал проблему, опираясь на свой опыт в другой области, разнес свои опасения среди сочувствующих, эмоционально подкрепил какой-нибудь яркой аналогией, и вот, зубные щетки уже атакуют ближайшее зарубежье.

Реальным же поборникам и адептам технологий такие мифы приносят кучу проблем. Формируя общественное восприятие, они смещают фокус внимания с важных аспектов на обработку неверных толкований и несущественных всплесков. В итоге развитие и продвижение новшеств, проникновение их в реальную жизнь заметно замедляется или прекращается вовсе на какой-то срок по причине сопротивления общественного мнения и предубеждений. И если до этого, мы говорили опосредованно, то сейчас можно сказать прямо: ИИ одна из таких технологий.

Давайте развеем эти мифы, уберем их с пути развития, ну или хотя бы приложим к этому немного усилий.

8im76h6kk82a9phg5j12uryc2iizba8d.jpg


Что такое ИИ

Термин ИИ стал невероятно популярен, он взлетел на волну хайпа с момента появления общедоступных систем на его основе. Что такое ИИ, спрашиваете?.. В общем случае можно воспользоваться определением, данным Артуром Сэмюэлом в 1959 году: машинное обучение – это процесс, в результате которого компьютеры способны показывать поведение, которое не было в них явно запрограммировано. Спустя многие десятилетия, сегодня, разделяют три вида систем, основанных на машинном обучении: узкий ИИ (Artificial Narrow Intelligence), общий ИИ (Artificial General Intelligence), и сверх ИИ (Artificial Super Intelligence).

Узкий ИИ выполняет ограниченное количество функций и обучен для выполнения конкретных задач. Например, роботы-доставщики еды работают за счет набора узкоспециализированных ml-моделей.

Общий ИИ способен выполнять более широкий спектр задач: отвечать на вопросы, генерировать картинки, как-то общаться, в конце концов. В нем уже заложено умение «учиться» самостоятельно, и поэтому он не ограничен каким-то списком преднастроенных «навыков». Примером общего ИИ являются GPT модели, которые в зависимости от запроса могут выполнять разные задачи.

Вершиной этой пирамиды является сверх ИИ — это системы, обладающие качественными характеристиками настоящего разума: они должны обладать восприятием внешней среды, долгосрочной памятью, способностью к логическому выводу, и самое главное – способностью самостоятельно побуждать себя к действиям в окружающей реальности.

Ярким представителем исследователей, пропагандирующим другой взгляд на искусственный разум, является Карл Фристон, научный руководитель компании VERSES. В своей дискуссии с Яном Лекуном на площадке Давосского Форума 2024 он говорит, что качественно другая форма ИИ – это интеллектуальный агент, то есть информационная система, способная к планированию, принятию решений и действию на основе обновления модели (через поток данных о реальном мире). Эти способности необходимы для того, чтобы система обладала так называемым свойством «agency» – то есть самоосознанием, и волей достигать поставленных перед собой целей.

Кажется, что такой набор компетенций дублирует целую проектную команду, где есть менеджер (сверх ИИ), эксперты по направлениям (узкий ИИ) и администратор-фасилитатор (общий ИИ).

Дублирует или заменяет – вот в чем вопрос. Основной миф, который нас сопровождает все это время «ИИ заменит человека и потребность в человеческом участии в ряде профессий и специализаций будет снижена».

Зачем нужен ИИ

В бестселлере 1970 года «Шок Будущего» Элвин Тоффлер очень точно описал введенное ранее Бертрамом Гроссом понятие «информационной перегрузки». Оно звучит следующим образом: «если человек погружается в быстро и нерегулярно меняющуюся ситуацию (или новый насыщенный контекст), то точность его анализа и предсказаний резко снижается. Он больше не может делать достоверную оценку, от которой зависит рациональное поведение». Нам кажется, что этот термин довольно точно описывает то, что происходит с нашим миром в настоящее время.

Для подтверждения своих слов мы хотели бы познакомить вас с , в которых приводятся данные о росте объема информации от года к году (начиная с 2008 и до 2020), и в текущем времени количество информации в общемировом пространстве измеряется зеттабайтами информации.

Масштаб, зеттабайт (ZB) — это секстиллион (1021) байт, или 1 миллион миллионов гигабайт. Для примера, чтобы сохранить информацию объемом 1 ZB, потребуется около 83 миллионов жестких дисков емкостью 12 терабайт. Это невероятные цифры. К 2025 году рост количества информации в общемировом пространстве до 175 ZB.

Мы наблюдаем экспоненциальный рост количества информации. Этот рост заметен как в жизни каждого из нас, так и общества в целом. Для принятия качественных решений иногда требуется обрабатывать настолько большие объемы информации, которые в принципе выходят за пределы человеческих возможностей, и поэтому нужны дополнительные инструменты.

Технологии всегда были нужны человеку для повышения эффективности в решении задач, например, для оптимизации регулярной единообразной работы. Например, однообразные механические движения на производственных линиях заменились на автоматизированные станки с досконально прописанной логикой работы. Сложные и рискованные авиационные перелеты перешли из ручного управления в максимальную автоматизацию: сегодня ни один самолет не летает без сверхсложной электронной системы, а, например, в новом импортозамещенном SJ-100 100% механики системы управления заменено электроникой и автоматикой.

«Информационная перегрузка» стала еще более актуальной проблемой с момента распространения интернета и становится все ярче с ростом доступности информации. Искусственный интеллект — одна из немногих технологии, которые способны помочь в решении проблем больших данных и предложить множество способов избежать «информационной перегрузки». Уже сейчас ИИ заменяет человека во многих рутинных задачах, превращая их в сугубо технические. Например, оценка эмоционального окраса сотен миллионов отзывов в интернет-магазине, или распознавание автомобильных номеров в видеопотоке камер транспортных артерий мегаполисов.

Если посмотреть на применение технологии ИИ в целом, то можно выделить два основных направления: замена машиной или программой человека в решении отдельных задач и оптимизация существующих процессов. Область информационной безопасности достаточно консервативна с точки зрения автоматизации, но если убрать предрассудки , можно найти достаточно интересные варианты замены человека на машину с очевидной выгодой для как для процесса, так и для самого человека:

Выполнение скриптов аналитиков первой линии SOC’а
  1. Выработка мер по реагированию на инциденты
  2. Соотнесение реализованных мер по обеспечению безопасности с требованиями регуляторных документов

Второе направление применения ИИ (а точнее, машинного обучения) – оптимизация существующих технических процессов, как например:
  1. Выявление аномалий в поведении информационных систем и их пользователей
  2. Обнаружение вредоносного ПО по схожести сигнатурных признаков и содержания с известными вирусами, а также по отличиям от легитимного ПО
Все описанные операции, на поверку довольно рутинные и основными требованиями для их выполнения, являются внимательность, точность и безошибочность. К примеру, при выработке мер по реагированию на инциденты нужно детально прописать очередность действий, учесть варианты ветвления. Все это потребует доступ к большой базе знаний, учет вариантов, при оперировании данными из такой базы и подробный анализ изменений в стандартных действиях, при изменении описания окружения инцидента. Кажется, что такая работа может занять большое количество времени и принести много дискомфорта. Но тут и приходит на помощь ИИ, который поможет найти нужные данные быстро, сделать базовое описание плейбука для реагирования и не упустить те вариации, которые не лежат на поверхности.

При всем удобстве такой реализации, всегда остается эмоциональный ракурс, который снижает скорость проникновения технологий в нашу жизнь и тут к нам на помощь приходит история.

Исторические параллели и естественность страха перед новым

История​

Люди всегда боялись технологических революций. Например, в первой четверти XIX века против внедрения машин в ходе промышленной революции в Англии выступали так называемые луддиты, по имени своего предводителя Неда Лудда. С точки зрения луддитов, миф «машины вытеснили из производства людей, что привело к технологической безработице» достоверен. Чаще всего протест выражался в погромах и разрушении машин и оборудования.

Другой пример – есть такая фраза князя Владимира Мещерского, сказанная им в начале Экс экс века: «Железная дорога убивает все до нее бывшие народные ресурсы промысла и заработка там, где она проходит: село, деревня, местечко — все беднеет и рушится». С чем же были так не согласны современники тех событий, почему эти революции вообще произошли?

Первая промышленная революция, инициированная в конце 17-го — начале 18-го веков, с которой и боролись луддиты, привнесла механизацию в производственный процесс, особенно в текстильное производство и металлообработку. Ее появление было вызвано огромным количеством факторов, которые есть во всех учебниках истории. Нам важно, что тогда начал появляться доступ к новым энергетическим ресурсам, создавались труды по социологии, экономике и политике для эффективного управления новыми возможностями промышленного роста и растущего с количеством населения спросом. Но самое главное, что рождались новые технологии – паровая машина Уатта, прядильный станок Дженни, доменные печи Дарби, и так далее. Такой производственный потенциал потребовал разработки и новых, универсальных источников энергии. Что вызвало почти сразу вторую, энергетическую революцию, которая привела к расширению промышленных инноваций на транспорт и сельское хозяйство. Ручной труд ремесленников и фермеров заместился сменами машинистов и инженеров станков и конвейерных линий.

Третья революцию, информационно-технологическую, тоже вызвал накопленный научный и технический прогресс. Физической основой послужили уже развитые и широко распространенные энергетические и логистические сети, технологической основой – интегральные микросхемы (1960-е), Интернет (конец 1960-х), первый ПК (конец 1970-х), и тому подобные достижения. На смену почтальонам, телеграфистам и операторам печатных машин пришли сетевые инженеры, разработчики ПО, и, например, специалисты по кибербезопасности.

И вот следующий этап развития, связанный с появлением искусственного интеллекта (ИИ), продолжает красной нитью следующий сквозь всю промышленную историю принцип – новые технологии изменяют мир. предшествующих технологических революций. И несмотря на всю новизну, на впечатление радикальной инновационности, влияние ИИ на экономику и социальную сферу аналогично предыдущим изменениям: он трансформирует профессиональные области, создавая новые рабочие места и требуя новых навыков. Автоматизирует старые профессии (как станок автоматизировал ремесленника и сети связи – телеграфистов и почтальонов), и при этом создает новые. Революция искусственного интеллекта, как и все предыдущие, ведет человечество к более эффективной трудовой системе, как бы парадоксально кому-то это не казалось. Хотя, конечно, без одного парадокса в развитии человечества не обошлось.

Парадокс Джевонса

Как мы сказали выше, технологии побуждали развитие промышленности. Но в числе прочего мы отметили, что и доступ к новым ресурсам послужил одним из компонентов смеси, давшей начало «пожару мировой революции» (первой промышленной, конечно, и тут мы не агитируем). В чем же парадокс? Именно в потреблении этих самых ресурсов.

Помимо носителя технологической революции, ИИ – это еще и так называемый фазовый переход, который меняет процессы получения, передачи, отбора информации людьми, меняет их творческий потенциал. Как и интернет, компьютеры, письменность, и вообще первый язык общения. И эти изменения имеют более глубинные последствия, чем аналогичные при «обычных» технических революциях. Они позволяют технологии искусственного интеллекта и машинного обучения в частности заменять уже не механическую а когнитивную деятельность человека. Не просто однообразные движения рук робота, но соответствующие окружающей обстановке – расположению стеллажей на складе, форме коробок; не просто движение механической тележки по заданным «рельсам», а маневрирование на основе сигналов от системы компьютерного зрения; и другие подобные примеры. Глядя на это, широкий круг людей поднял важный вопрос – а останется ли в эту эпоху тотальной автоматизации место человеку? Не заместит ли его прогресс окончательно?

И ответ здесь такой- профессии трансформируются, отдельные задачи перейдут автоматике, но не целые профессии. Потому что в каждой специализации есть фактор нужный для формирования правильного, адекватного всем нюансам окружающей реальности, результата. Результат должен быть полезен людям, и только человек знает, что ему полезно. Будь то деятельность финансиста, дизайнерский труд или определение программы лечения для пациента – везде очень важен общий контекст, а не только строгие входные данные математически формализованной задачи.

Парадокс потребления (вот еще один парадокс) заключается именно в этой способности людей повышать свою эффективность. Его сформулировал Уильям Стэнли Джевонс во времена первой промышленной революции, в 1865 году, ссылаясь на историю использования угля. Он отметил, что «усиление эффективности использования какого-либо ресурса увеличивает, а не уменьшает объем его потребления…». Как только появилась паровая машина Уатта, резко увеличившая экономичность сжигания угля и выход энергии, потребление угля намного превысило первоначальное сокращение объемов, требующихся для поддержания деятельности до появления усовершенствований.

Появилась новая технология впрыска (Bosch, 1950-е), улучшающая соотношение километража на литр бензина — больше километров пробега. Повышается скорость компьютерных вычислений (первый коммерчески успешный микропроцессор от Intel, 1971 год) — человек дольше сидит за компьютером, а объемы внедрения технологии растут. Суть парадокса Джевонса в том, что технологические новации сами по себе не уменьшат последствия стремления к росту, а только разгоняют его. Более эффективное преобразование ресурса объемом X в результат Y вызывает не уменьшение потребления ресурса для достижения того же результата, а увеличение потребления для достижения многократного большего сверхрезультата. И такова природа человека.

Влияние ИИ здесь ничем не отличается от влияния усовершенствовавшихся в технологий извлечения энергии из угля. И поэтому искусственный интеллект не заменит какие-то профессии, нет, они видоизменятся.

Представим себе копирайтера, который пишет тексты. Пускай в неделю он пишет 10 текстов за 10 000 рублей. Теперь мы берем этого же копирайтера и даем ему в помощь AI, и вот, они вместе пишут 20 текстов за те же 10 000 рублей. Можно, конечно, возразить: но как же так? Производительность копирайтера выросла — вместо 5 текстов он стал писать 15 текстов, а оплата осталась такой же — 10 000 рублей. Но дело в том, что AI девальвирует стоимость его работы — текст раньше стоил 2 000 рублей, потому что требовал больше когнитивных усилий, человеку приходилось больше своего «внутреннего содержания» инвестировать в свою работу; теперь производство текста требует другого типа работы — сформулировать подходящий набор инструкций и передать их в большую языковую модель, такая работа требует меньше когнитивной фокусировки и в ней больше «рутинности».

Конечно, предприимчивый копирайтер сначала попробует сохранять стоимость своей работы такой же — 2 000 рублей, а выполнять ее с помощью AI, но неизбежно рынок поймет, что этот объем работы стоит дешевле, так как большинство будет демпинговать, делая ставку на доступный продукт. И тогда у нашего копирайтера два выхода: либо задирать сильно планку качества, делая продукт более «элитарным» и менее массовым; либо делать за копейки массовый, доступный AI-копирайтинг.

Психология ИИ, технологии обеспечения безопасности ИИ или безопасного проектирования систем с его использованием, юридическая практика использования норм права по взаимодействию с нечеловеческим, но искусственным, интеллектом – изменится все. С появлением компьютеров, например, вообще возникла целая отрасль со своими профессиями – IT, да и во всех остальных прибавилось новых направлений на стыке с информационными технологиями: цифровая криминалистика (ветвь с юриспруденцией), методика работы agile-команд (фреймворк управления проектами) и это далеко не весь перечень изменений. Причем теперь успешные цифровые подходы, меняют уже устоявшиеся сферы. А любые изменения приводят к боязни неизвестного, страху перед новыми данными, переменными. Тут даже есть термин – технофобия.

Естественность страха

Боязнь технологий – технофобия в целом не связана, на самом деле, с самой технологией. Главным образом это боязнь неизведанного. Например, во времена введения в эксплуатацию большого адронного коллайдера, который был построен под франко-швейцарской границей европейской организацией ядерных исследований «ЦЕРН», ходили страшилки и слухи, содержащие в себе совершенно фантастические предрассудки. Некоторые люди, например, боялись, что столкновение протонов в коллайдере с высокими энергиями приведет к возникновению черной дыры, которая поглотит всю Землю.

Психологической стороной страха перед инновациями занимались много ученых, и много социологических исследований было для этого проведено. И в основном главным наблюдением стало то, что технофобия повышается у людей со снижением их уровня счастья.

Исследование ученого из Института Бен-Гурион показывает, что уровень технофобии имеет прямую корреляцию со сложностью технологии, вызывающей страх, с ее информационной областью (медицина, СМИ, транспорт) и главное – технофобами в большей части являлись люди, меньше всего удовлетворенные своей жизнью.

Американский ученый провел исследование, в ходе которого идентифицировал ключевые факторы, способствующие возникновению технофобии при внедрении новых технологий в организациях. Анализ показал, что технофобия зависит от трех основных аспектов:
  • климат межличностных взаимодействий в организации
  • умение человека регулировать свои эмоции
  • трудность освоения технологии и неочевидность ее пользы
В частности, если в организации преобладает культура наказания и критики, сотрудники испытывают слабость в управлении собственными эмоциями, а нововведение кажется излишне сложным без явной выгоды от его использования, условия становятся благоприятными для роста технофобии.

Приведем пример. В организации много лет пользовались Windows, и по каким-то причинам начальство решило поставить всем Linux (с соответствующими машинами). При этом:
  • руководство не считалось с мнением сотрудников, ругало и критиковало их;
  • давило и требовало быстрого переучивания, поэтому сотрудники не успевали разобраться со своими эмоциями;
  • никто в бухгалтерии не понимал, чем новые компьютеры и операционная система лучше прежних.
В результате люди остались в значительной степени неудовлетворены условиями своего труда, что развило вероятность развития технофобии. А ведь чтобы избежать этого, нужно было сначала провести частичное замещение инфраструктуры отдела, и при этом обеспечить сотрудникам, например, поддержку от технического персонала.

Все эти мероприятия кажутся естественными и просто дают больше прозрачности к тому, что мы оптимизируем, как мы это делаем и на что это в итоге повлияет. В терминологии ИБ – это повышение осведомленности. Давайте разрушим мифы через понимание технологий на которых строится и развивается ИИ.

Разрушение мифов об ИИ: Контроль, Работа, Эволюция

Контролируемый ИИ​

Миф, который стоит на отдельном пьедестале – страшная история захвата мира неконтролируемым ИИ. Что нужно сделать, чтобы ИИ не мог самостоятельно влиять на ключевые процессы, как обеспечить соблюдение первого закона робототехники? Ответ есть – это набор подходов и стратегий, позволяющий обеспечить полноценный контроль ИИ.

Чтобы ИИ не переступил нормы этики и морали, нужно не просто обучить его на тщательно подобранных данных, но иметь непосредственные гарантии. Особенно когда дело касается критичных областей применения технологий.

Актуальность проблемы объяснимого и контролируемого ИИ находит широкий отклик в регулярном появлении научных публикаций, проведением конференций и разработок, направленных на создание технологий доверенного искусственного интеллекта. ИИ, который бы не просто выполнял заданные функции, но и делал это с прогнозируемым уровнем надежности.

Машинное обучение и искусственный интеллект часто сравнивают с «черным ящиком», и для «невооруженного взгляда» это действительно так.

В этом контексте инструменты, такие как фреймворк , которые представляют собой значительный шаг вперед в понимании и модификации поведения больших языковых моделей (LLM). LASER (LAyer SElective Rank reduction) — это метод, изначально предназначенный для улучшения способностей к рассуждению в моделях искусственного интеллекта на основе трансформеров за счет выборочного уменьшения ранга матриц весов после обучения. Применение LASER позволяет значительно улучшить эффективность моделей, действуя по принципу шумоподавления редко используемых весов модели. Однако, помимо повышения эффективности, как отмечают и сами авторы исследования, метод дает возможность точечно корректировать «знания» модели, исключая ее нежелательные компетенции.

Этот и подобные методы (как, например, более классические LIME и SHAP) служат фундаментом для решений, которые позволят определять, как думает модель ИИ, почему она приняла то или иное решение, и как управлять ее «лояльностью» и «убеждениями». Сегодня мы еще пишем эти понятия в применении к машинному интеллекту в кавычках, но пройдет время, и переносный смысл станет прямым.

Есть и еще одна стратегия противодействия рискам, следующим за применением ИИ в условиях отсутствия контроля за его «логической цепочкой», является полное исключение ИИ из самого процесса принятия решений. Особенно критически важных для жизни людей, существования компании или государства. Например, в медицине, где от решения специалиста может зависеть жизнь и здоровье пациента, ИИ находит применение в качестве системы поддержки принятия решений (СППР). ИИ, который используется для анализа медицинских изображений, предсказания рисков развития болезней, таких как диабет или сердечно-сосудистые заболевания, для персонализированного подбора лечения на основе генетических данных пациентов, лишь ассистирует лечащему врачу, снабжает его дополнительной информацией, которую мог бы выдать для него и коллега-человек, к примеру, практикант ординатуры. Но вместо него это делает алгоритм машинного обучения, что не несет напрямую эффекта для жизни пациента. Грубые ошибки редки, и человек-врач заметит, если что-то будет в ответе алгоритма неправильно. Зато в остальных, обычных случаях, помощь ИИ позволит врачам эффективнее выполнять свои функции, ведь они устанут меньше, и внимания пациенту, как человеку, в результате экономии времени, смогут уделить больше.

Другой вопрос, как контролировать корректность информации, выдаваемой ИИ, и целей ее использования. Опять же первый закон робототехники или этический маятник, который для каждого существа свой.

Что такое этичный ИИ?

Освещая вопрос безопасности ИИ, нельзя не обратить внимание на то, как ИИ взаимодействует и понимает человека в целом. Так как сегодня разговоры об общем машинном интеллекте, способным вести беседу на любую тему, и как-никак поддерживать диалог, уже не являются чем-то из области фантастики.

Лидеры мировых компаний-локомотивов, как например глава Nvidia Дженсен Хуан, прекрасно осознают важность этих вопросов. Так, на конференции GTC 2024 Хуан , что ИИ будет иметь глубокое влияние на общество, и что мы должны быть готовы к этому.

Существует одно очень показательное исследование на эту тему, которое проливает свет на вопрос этики ИИ . Ученые из MIТ в 2018 году реализовали исследовательский проект, получивший название . Оно призвано проверить самую популярную версию этической и моральной основы действий ИИ, состоящей в том, чтобы ИИ делал выводы, изучая решения человека. Для проведения этого исследования авторы создали веб-сайт, и его посетителям было предложено сделать выбор в отношении того, как должен поступить автономный автомобиль в том случае, если ему пришлось столкнуться со всем знакомой дилеммой о потенциальной аварии, у которой есть два варианта развития событий, и оба трагичные, положительного исхода нет.

При этом эта дилемма задается в виде вопросов в разных конфигурациях: автомобиль может сбить трех взрослых, чтобы спасти жизни двух детей, а может поступить наоборот. Или можно ли, к примеру, пожертвовать жизнью двух пожилых людей, чтобы спасти беременную женщину? Для большей интерпретируемости были разбиты по опрашиваемым на три культурных кластера: западный (в него вошли жители Северной Америки и многих европейских стран), восточный (Япония, Тайвань (конфуцианство), Индонезия, Пакистан, Саудовская Аравия (мусульманство)), и южный (страны Латинской Америки и страны под французским влиянием).

Оказалось, что:
  • Предпочтительное спасение жизней молодых менее выражено в восточном кластере и намного выше в южном кластере.
  • В южном кластере наименее выражено предпочтение жизни людей по сравнению с животными.
  • Для южного кластера характерно сильное предпочтение спасения жизней женщин и жизней стройных людей.
Из этого исследования можно сделать вывод: Для всех людей своя справедливость, и единую правду в сложных вопросах, подобных этому, всех удовлетворяющего решения не найти.

Этический выверенный ИИ задумывается не только как система, способная к принятию моральных решений на основе человеческих примеров, но и как технология, у которой есть четко определенные цели и ограничения, разработанные для обеспечения безопасности людей и надежности ее обеспечения. Тут нужно вернуться к стратегиям контроля ИИ, о которых мы писали в разделе выше. Главное понять простую вещь – самостоятельно-сформированной этики у ИИ нет, как и разума в контексте, понятном человеку.

ИИ не станет сверхразумом (сегодня)

Успокоить паникеров-технофобов можно и тем, что как бы скор и неумолим прогресс ни был, задач, еще не решенных исследователями, все еще великое множество. Они далеко не просты, и решения для них еще предстоит найти. Главная новость – ИИ еще очень далек от того, чтобы в ближайшее время стать суперинтеллектом, во многом потому, что ему все еще значительно не хватает тех возможностей, что присущи именно человеческому разумному существу.

Например, Ян Лекун, вице-президент по искусственному интеллекту в Meta (запрещенная в РФ организация), в своей в Университете Вашингтона 24 января подчеркнул факт : «что даже 4-летний ребенок был ознакомлен и «обучен» более чем в 50 раз большему объему данных, чем самый продвинутый LLM на сегодняшний день». Это, возможно, является одной из причин появления еще одного парадокса, который мы упомянем в этой статье – парадокса Моравека. Он был сформулирован Хансом Моравеком, Марвином Минским и другими исследователями в 1980-х годах. Он заявляет о том, что задачи, которые легки для людей, особенно сенсомоторные процессы низкого уровня, сложны для искусственного интеллекта, и наоборот – математические зависимости в гигабайтах статистической информации вычислить человеку вручную невозможно, однако модели машинного обучения начали с этим замечательно справляться еще в 1960-1970-х годах прошлого века.

Поэтому научные вопросы – первый фактор, стоящий перед человечеством на пути к компьютерному сверхразуму. Вторым, не менее важным для возникновения сверх ИИ, является и наличие достаточных вычислительных мощностей, которые обеспечили бы его функционирование. И на данный момент прорыв к сверхразумному ИИ блокируется именно развитием и достижениями компьютерной электроники, с чем сталкиваются ведущие компании в области ИИ. Так, недавно Сэм Альтман, глава OpenAI, , что компания была вынуждена приостановить разработку GPT-5 из-за опасений по поводу нехватки вычислительной мощности.

Для решения этой инфраструктурной проблемы, сдерживающей развитие сверхразумного ИИ, можно выделить два основных пути:

Первый путь – объединение вычислительные мощности всех или большинства существующих компьютеров: такой подход подобен принципу работы торрентов или майнинга криптовалют, где множество устройств совместно решают общую задачу. Реализация этой идеи в глобальном масштабе требует значительного развития телекоммуникационных сетей, чтобы обеспечить быстрый и бесперебойный обмен данными между миллионами устройств. И, конечно же, это малоперспективно еще и потому, что от каких-то энергоемких информационных услуг надо будет отказаться, таких как, например, социальные сети. А они потребляют немало энергии. на 2022 год, сервисы компании Meta потребляют около 11.5 ТВт/ч энергии в год. Это примерно как Грузия, Литва или Гватемала, на секундочку (страны, начиная с 89 в этом , потребляют 13 или меньше ТВт/ч в год). А Google и того – 22.3 ТВт/ч в год (за 2022 год). Как раз примерно столько, как, по прогнозам, потребляет и будет потреблять ИИ индустрия в ближайшие годы. Несмотря на все трудности, у этой идеи есть реализующие ее проекты.

Компания Google Deep Mind ведет исследования, долгосрочная цель которых – создать методологию системы распределенных по всему миру вычислительных мощностей, основа которых – простые неспециализированные компьютеры. Так, в начале декабря 2023 года было опубликована о математическом фундаменте подобного метода обучения, который авторы назвали Distributed Low-Communication algorithm, DiLoCo. И совсем недавно, в середине марта, в свет вышел новый этой команды, представляющий фреймворк DIstributed PAth COmposition (DiPaCo), позволяющий логически разделить обучаемую нейросеть на множество подмодулей, каждый из которых будет обучаться на своей вычислительной станции (компьютере). Сообщаясь между собой лишь время от времени, такая система будет не только эффективна в плане затрат физических ресурсов, но и достаточно устойчива к выходам из строя отдельных задействованных в обучении аппаратных средств.

Второй вариант решения проблемы инфраструктурной готовности к технологии ИИ – создание специализированных вычислительных центров, оптимизированных для задач ИИ. Крупные технологические компании, такие как Meta (запрещенная на территории РФ организация) уже вкладывают в данное направление ощутимые средства ( , ). Сегодня это основной способ развития, и он, конечно, не требует таких жертв, как первый, но вместе с этим дольше и трудозатратнее. И тут же по цепочке возникает еще один важный вопрос – как решать задачу энергообеспечения новых ИИ-систем. Для питания таких вычислительных центров потребуется либо перенаправить существующие энергопотоки с менее критичных направлений, либо добиться прорыва в энергетике, например, с помощью массового использования мирного атома.

Один , что к концу 2024 года в мире будет около 3.5 миллионов специальных вычислительных процессоров для ИИ Nidia H100. И их суммарное потребление энергии будет составлять примерно 13 091,82 ГВт/ч, или 13 ТВт/ч., что, опять же, соизмеримо с потреблением некоторых стран. на эту тему вышла 19 марта, где авторы агрегируют результаты множества исследований по теме электропотребления ИИ. В одном из них , что к 2027 суммарно сектор ИИ будет потреблять от 85 до 134 ТВт⋅ч (тераватт-часов) в год — это примерно столько же, сколько в год потребляет целая страна Нидерланды (33 место в ). В 2022 , что обучение GPT-3 потребовало примерно столько же энергии (1.3 ТВт/ч), сколько расходуют 130 частных американских домов за год.

Кроме того, необходим прорыв в полупроводниковых технологиях, чтобы создать более эффективные . И тут тоже исследования ведутся: MIT, IBM, Meta и другие организации периодические заявляют о новых достижениях по этому направлению. Венцом этого подхода можно назвать , о котором стало известно в конце марта этого года. Microsoft и OpenAI заявляют, в проект входит возведение в пустыне суперкомпьютера за 100 миллиардов долларов, который будет работать от ядерного реактора, и заработать это должно уже в 2028. По слухам, потреблять этот технологический монстр будет 5 гигаватт, но, опять таки, по слухам, решена эта проблема будет благодаря контракту Microsoft с компанией Helion . Займет комплекс площадь более чем 80 га земли. Считается, что проект имеет решающее значение для обучения OpenAI новых совершенных моделей ИИ.

При всех позитивных новостях, сочетание всех нюансов: требующих развития технологий, необеспеченного уровня потребления энергии, уровня развития текущих LLM моделей и изменения их парадигмы использования – захвата мира в ближайшее время ждать не стоит.

Заключение

Итак, очень много букв осталось позади. Подведем итоги и опишем, какие главные выводы мы предлагаем сделать после данной статьи.

ИИ — это не просто технологическое новшество, а катализатор глубоких изменений нашего общества. Исследования и разработки в области машинного обучения открывают невероятные возможности для улучшения жизни людей, от медицинских диагностических систем до оптимизации рабочих процессов в информационной безопасности. Мы стоим на пороге эры, где ИИ будет играть ключевую роль в решении самых насущных проблем человека и человечества.

История показывает, что научно-технологические прорывы всегда меняли профессиональный ландшафт, и ИИ не станет исключением. И более того, вместе с этим он откроет новые возможности для творчества и инноваций, так как изменит процесс работы человека с информацией как таковой. Наша задача — подготовиться к этим изменениям, развивая новые навыки и адаптируя системы подготовки специалистов к совершенно новым профессиям. И, конечно же, с такой великой силой приходит и великая ответственность. Важно осознавать опасения, связанные с развитием ИИ, направлять усилия на создание контролируемых и объяснимых систем ИИ, чтобы они служили обществу, не подменяя человеческое суждение, а дополняя его.

В конечном счете, ИИ не является целью сам по себе, а инструментом для достижения более широких целей — улучшения качества жизни и развития человечества. Подходя к разработке и внедрению ИИ с уважением к этическим нормам и человеческим ценностям, мы сможем гарантировать, что будущее, формируемое этой технологией, будет светлым и полным обещаний.

И небольшой сюрприз, в соавторы этой статьи можно поставить и сам ИИ, потому что раздел «Заключение» был написан при его участии.


 
  • Теги
    ии искусственный интеллект
  • Сверху Снизу