fenix_support
Интересующийся
Исследователи в ведущих мировых лабораториях искусственного интеллекта оттачивают технологии, которые имитируют, как пишут люди. Новая технология может помочь кампаниям по дезинформации остаться незамеченными, генерируя огромное количество фальшивых сообщений.
В последние месяцы две лаборатории ─ OpenAI в Сан-Франциско и Институт искусственного интеллекта Аллена в Сиэтле ─ создали мощные примеры этой технологии.
Алек Рэдфорд, исследователь из OpenAI, предупреждает от опасности эффективного распространения дезинформации: «Вместо того чтобы нанимать людей для написания и распространения пропаганды, эти организации могут опираться на машины для создания правдоподобного и разнообразного контента в огромных масштабах».
Поддельные посты в Facebook, увиденные миллионами, могут быть адаптированы к политическим убеждениям с помощью простого изменения.
«Уровень информационного загрязнения, который может случиться с такими системами через несколько лет, может стать просто удивительным», ─ сказал Рэдфорд.
Этот тип технологии изучает причуды языка, анализируя огромное количество текста, написанного людьми, в том числе тысячи самостоятельно опубликованных книг, статей в Википедии и другого интернет-контента. После «обучения» всех этих данных он может просмотреть небольшую строку текста и угадать, что будет дальше.
«Существует реальная угроза от непроверенных систем генерации текста, особенно с учетом того, что технология продолжает развиваться», - сказал Делип Рао, вице-президент по исследованиям в AI Foundation из Сан-Франциско, который специализируется на выявлении ложной информации в Интернете.
Технические гиганты, такие как Facebook, борются с дезинформацией, но искусственный интеллект становится все более мощным. Эксперты опасаются, что ложные новости, создаваемые ИИ, могут сделать проблему более масштабной и сложной для решения.