Президент Signal: ИИ по своей сути является «технологией наблюдения»

Marat_1162

Стаж на ФС с 2014 г
Private Club
Старожил
Migalki Club
Меценат💰️
Регистрация
25/3/16
Сообщения
4.642
Репутация
9.166
Реакции
22.700
RUB
0
Депозит
3 500 рублей
Сделок через гаранта
4
По словам Мередит Уиттакер (Meredith Whittaker), искусственный интеллект тесно переплетен с сектором больших данных и таргетинга.

AI_2.jpg


Многие компании, инвестирующие в создание систем монетизации пользовательских данных, проявляют большой интерес к технологиям искусственного интеллекта. Президент Signal Foundation (компании-разработчика мессенджера Signal) Мередит Уиттакер утверждает, что эта склонность обусловлена тем, что «ИИ — это технология наблюдения».

Выступая на TechCrunch Disrupt 2023, Уиттакер подчеркнула, что ИИ тесно переплетается с сектором больших данных и таргетинга, в котором доминируют такие гиганты, как Google и Meta, а также влиятельные корпоративные и оборонные компании.

Она отметила, что ИИ усиливает бизнес-модель слежки, что является продолжением тенденции, наблюдаемой с конца 90-х годов прошлого века, когда появилась «следящая» реклама. По её словам, ИИ служит для укрепления и расширения этой модели. Она метафорически описала эту взаимосвязь как полное совпадение на .

Далее Уиттакер подчеркнула, что использование искусственного интеллекта само по себе ориентировано на наблюдение. Например, прохождение мимо камеры распознавания лиц, оснащённой псевдонаучным анализом эмоций, приводит к получению данных, точных или нет, об эмоциональном состоянии или характере человека. В конечном счёте, эти системы являются инструментами слежки, предлагаемыми таким субъектам, как работодатели, правительства и пограничные службы, которые контролируют доступ людей к ресурсам и возможностям.

Парадоксально, но, отметила Уиттакер, именно те люди, чьи данные лежат в основе этих систем, зачастую отвечают за их организацию и составление аннотаций. Этот шаг является решающим в процессе создания наборов данных для ИИ.

Уиттакер подчеркнула, что разработка таких систем невозможна без труда людей, которые определяют достоверность данных. Для этого часто приходится решать такие задачи, как обучение с обратной связью от человека. Хотя этот процесс в целом требует больших затрат, индивидуальные работники зачастую получают мизерную зарплату. «В сущности, когда занавес открывается, мнимый интеллект, стоящий за этими системами, значительно снижается».
Однако не все системы искусственного интеллекта и машинного обучения характеризуются одинаковым уровнем эксплуатации. Отвечая на вопрос о том, использует ли компания Signal какие-либо инструменты или процедуры ИИ в своих приложениях или разработках, Уиттакер признала наличие «небольшой модели на устройстве», которую они не разрабатывали самостоятельно, а приобрели с полки. Эта модель используется в функции размытия лица Signal в наборе инструментов для редактирования мультимедиа.

Она отметила, что, хотя эта функция не является исключительно эффективной, она позволяет обнаруживать лица на фотографиях, сделанных в толпе, и размывать их, что исключает возможность случайного раскрытия биометрической информации в социальных сетях, в частности, таким компаниям, как .

В заключение Уиттакер подчеркнула, что, хотя такое использование ИИ заслуживает одобрения, оно не отменяет негативных аспектов, о которых она говорила ранее. Она обратила внимание, что экономические мотивы, определяющие дорогостоящую разработку и внедрение технологии распознавания лиц, никогда не ограничат её применение этой единственной целью.


На основе материала CySecurity News
 
  • Теги
    безопаность ии искусственный интеллеект
  • Сверху Снизу