В области глубокого обучения и искусственного интеллекта заметны новые тенденции: федеративное обучение, GAN, XAI, обучение с подкреплением и трансферное обучение.
Глубокое обучение и искусственный интеллект (ИИ) — это быстро развивающиеся области, в которых постоянно появляются новые технологии. Пять наиболее многообещающих новых тенденций в этой области включают федеративное обучение, GAN, XAI, обучение с подкреплением и трансферное обучение.
Эти технологии могут произвести революцию в различных приложениях машинного обучения, от распознавания изображений до игр, и способны предложить новые захватывающие возможности как исследователям, так и разработчикам.
Например, Google использовал федеративное обучение, чтобы повысить точность своей предиктивной текстовой клавиатуры без ущерба для конфиденциальности пользователей. Модели машинного обучения обычно разрабатываются с задействованием централизованных источников данных, что требует совместного использования клиентских данных с центральным сервером. Пользователи могут чувствовать себя неловко из-за того, что их данные собираются и хранятся на одном сервере, хуже того – эта стратегия может привести к проблемам с конфиденциальностью.
Федеративное обучение решает этот вопрос, предотвращая отправку данных на центральный сервер путем обучения моделей на данных, которые остаются на устройствах пользователей. Кроме того, поскольку обучающие данные оставаются на устройствах пользователей, нет необходимости отправлять огромные объемы данных на централизованный сервер, что уменьшает потребности системы в вычислениях и хранении.
Рассмотрим сценарий, в котором финансовая организация использует алгоритмы машинного обучения для прогнозирования вероятности того, что заявитель не выполнит свои обязательства по кредиту. В случае обычных алгоритмов «черного ящика» банк не знал бы о процессе принятия решений алгоритмом и, возможно, не смог бы объяснить его заявителю на получение кредита.
Однако с помощью XAI алгоритм мог объяснить свой выбор, позволяя банку подтвердить, что он был основан на разумных соображениях, а не на неточной или дискриминационной информации. Алгоритм может указать, например, что он рассчитывает оценку риска на основе кредитного рейтинга заявителя, его дохода и истории занятости. Такой уровень прозрачности и объяснимости может помочь повысить доверие к системам ИИ, улучшить подотчетность и, в конечном итоге, привести к более эффективному принятию решений.
Однако обучение ИИ с использованием методов XAI - далеко не единственный способ, которыми искусственный интеллект может революционизировать финансовые услуги.
Тип машинного обучения, называемый обучением с подкреплением, включает в себя обучение агентов с помощью критики и стимулов. Многие приложения, включая робототехнику, игры и даже банковское дело, использовали эту стратегию. Например, AlphaGo от DeepMind применяла этот подход, чтобы постоянно улучшать свой игровой процесс и, в конечном итоге, побеждать лучших игроков в го, демонстрируя эффективность обучения с подкреплением в сложных задачах принятия решений.
Например, исследователи использовали трансферное обучение, чтобы адаптировать модели распознавания изображений, разработанные для определенного типа изображений (например, лиц), к изображениям другого типа, например, к животным.
Этот подход позволяет повторно использовать изученные функции предварительно обученной модели в новой задаче, что может значительно повысить производительность модели и уменьшить объем данных, необходимых для обучения.
Глубокое обучение и искусственный интеллект (ИИ) — это быстро развивающиеся области, в которых постоянно появляются новые технологии. Пять наиболее многообещающих новых тенденций в этой области включают федеративное обучение, GAN, XAI, обучение с подкреплением и трансферное обучение.
Эти технологии могут произвести революцию в различных приложениях машинного обучения, от распознавания изображений до игр, и способны предложить новые захватывающие возможности как исследователям, так и разработчикам.
Федеративное обучение
Федеративное обучение (англ. Federative Learning) – подход, который позволяет анализировать данные непосредственно в их источниках и объединять результаты таким образом, чтобы результаты анализа были не хуже, чем в традиционных подходах. Этот подход к машинному обучению позволяет нескольким устройствам совместно работать над одной моделью, не передавая свои данные центральному серверу, что особенно полезно в ситуациях, когда конфиденциальность данных является проблемой.Например, Google использовал федеративное обучение, чтобы повысить точность своей предиктивной текстовой клавиатуры без ущерба для конфиденциальности пользователей. Модели машинного обучения обычно разрабатываются с задействованием централизованных источников данных, что требует совместного использования клиентских данных с центральным сервером. Пользователи могут чувствовать себя неловко из-за того, что их данные собираются и хранятся на одном сервере, хуже того – эта стратегия может привести к проблемам с конфиденциальностью.
Федеративное обучение решает этот вопрос, предотвращая отправку данных на центральный сервер путем обучения моделей на данных, которые остаются на устройствах пользователей. Кроме того, поскольку обучающие данные оставаются на устройствах пользователей, нет необходимости отправлять огромные объемы данных на централизованный сервер, что уменьшает потребности системы в вычислениях и хранении.
Генеративно-состязательные сети (GAN)
Генеративно-состязательные сети (англ. Generative adversarial network, сокращённо GAN) — алгоритм машинного обучения без учителя, построенный на комбинации из двух нейронных сетей, одна из которых генерирует образцы, а другая старается отличить правильные образцы от неправильных. Нейронные сети этого типа можно использовать для создания новых реалистичных данных на основе существующих данных. Например, GAN использовались для создания реалистичных изображений людей, животных и даже ландшафтов. GAN работают, сталкивая две нейронные сети друг с другом, при этом одна сеть генерирует поддельные данные, а другая сеть пытается определить, являются ли данные реальными или поддельными.Объяснимый ИИ (XAI)
Объяснимый ИИ (англ. Explainable AI, XAI), также известный как Интерпретируемый ИИ, представляет собой такой подход к искусственный интеллекту, который направлен на повышение прозрачности и понимания моделей машинного обучения. XAI имеет решающее значение, поскольку он может гарантировать, что системы ИИ будут принимать беспристрастные и справедливые решения. Вот пример того, как можно использовать XAI:Рассмотрим сценарий, в котором финансовая организация использует алгоритмы машинного обучения для прогнозирования вероятности того, что заявитель не выполнит свои обязательства по кредиту. В случае обычных алгоритмов «черного ящика» банк не знал бы о процессе принятия решений алгоритмом и, возможно, не смог бы объяснить его заявителю на получение кредита.
Однако с помощью XAI алгоритм мог объяснить свой выбор, позволяя банку подтвердить, что он был основан на разумных соображениях, а не на неточной или дискриминационной информации. Алгоритм может указать, например, что он рассчитывает оценку риска на основе кредитного рейтинга заявителя, его дохода и истории занятости. Такой уровень прозрачности и объяснимости может помочь повысить доверие к системам ИИ, улучшить подотчетность и, в конечном итоге, привести к более эффективному принятию решений.
Однако обучение ИИ с использованием методов XAI - далеко не единственный способ, которыми искусственный интеллект может революционизировать финансовые услуги.
Обучение с подкреплением
Обучение с подкреплением (англ. reinforcement learning) — один из способов машинного обучения, в ходе которого испытуемая система (агент) обучается, взаимодействуя с некоторой средой. С точки зрения кибернетики, является одним из видов кибернетического эксперимента.Тип машинного обучения, называемый обучением с подкреплением, включает в себя обучение агентов с помощью критики и стимулов. Многие приложения, включая робототехнику, игры и даже банковское дело, использовали эту стратегию. Например, AlphaGo от DeepMind применяла этот подход, чтобы постоянно улучшать свой игровой процесс и, в конечном итоге, побеждать лучших игроков в го, демонстрируя эффективность обучения с подкреплением в сложных задачах принятия решений.
Трансферное обучение
Tрансферное обучение (англ. transfer Learning) — это подраздел машинного обучения, целью которого является применение знаний, полученных из одной задачи, к другой целевой задаче. Стратегия машинного обучения, называемая трансферным обучением, включает в себя применение ранее обученных моделей для решения совершенно новых задач. Когда для решения новой проблемы доступно мало данных, этот метод особенно полезен.Например, исследователи использовали трансферное обучение, чтобы адаптировать модели распознавания изображений, разработанные для определенного типа изображений (например, лиц), к изображениям другого типа, например, к животным.
Этот подход позволяет повторно использовать изученные функции предварительно обученной модели в новой задаче, что может значительно повысить производительность модели и уменьшить объем данных, необходимых для обучения.
Для просмотра ссылки необходимо нажать
Вход или Регистрация