Президент Signal: ИИ по своей сути является «технологией наблюдения»

Marat_1162

Стаж на ФС с 2014 г
Private Club
Старожил
Migalki Club
Меценат💎
Регистрация
25/3/16
Сообщения
4.666
Репутация
9.366
Реакции
22.875
USDT
0
Депозит
3 500 рублей
Сделок через гаранта
4
По словам Мередит Уиттакер (Meredith Whittaker), искусственный интеллект тесно переплетен с сектором больших данных и таргетинга.

AI_2.jpg


Многие компании, инвестирующие в создание систем монетизации пользовательских данных, проявляют большой интерес к технологиям искусственного интеллекта. Президент Signal Foundation (компании-разработчика мессенджера Signal) Мередит Уиттакер утверждает, что эта склонность обусловлена тем, что «ИИ — это технология наблюдения».

Выступая на TechCrunch Disrupt 2023, Уиттакер подчеркнула, что ИИ тесно переплетается с сектором больших данных и таргетинга, в котором доминируют такие гиганты, как Google и Meta, а также влиятельные корпоративные и оборонные компании.

Она отметила, что ИИ усиливает бизнес-модель слежки, что является продолжением тенденции, наблюдаемой с конца 90-х годов прошлого века, когда появилась «следящая» реклама. По её словам, ИИ служит для укрепления и расширения этой модели. Она метафорически описала эту взаимосвязь как полное совпадение на диаграмме Венна.

Далее Уиттакер подчеркнула, что использование искусственного интеллекта само по себе ориентировано на наблюдение. Например, прохождение мимо камеры распознавания лиц, оснащённой псевдонаучным анализом эмоций, приводит к получению данных, точных или нет, об эмоциональном состоянии или характере человека. В конечном счёте, эти системы являются инструментами слежки, предлагаемыми таким субъектам, как работодатели, правительства и пограничные службы, которые контролируют доступ людей к ресурсам и возможностям.

Парадоксально, но, отметила Уиттакер, именно те люди, чьи данные лежат в основе этих систем, зачастую отвечают за их организацию и составление аннотаций. Этот шаг является решающим в процессе создания наборов данных для ИИ.

Уиттакер подчеркнула, что разработка таких систем невозможна без труда людей, которые определяют достоверность данных. Для этого часто приходится решать такие задачи, как обучение с обратной связью от человека. Хотя этот процесс в целом требует больших затрат, индивидуальные работники зачастую получают мизерную зарплату. «В сущности, когда занавес открывается, мнимый интеллект, стоящий за этими системами, значительно снижается».
Однако не все системы искусственного интеллекта и машинного обучения характеризуются одинаковым уровнем эксплуатации. Отвечая на вопрос о том, использует ли компания Signal какие-либо инструменты или процедуры ИИ в своих приложениях или разработках, Уиттакер признала наличие «небольшой модели на устройстве», которую они не разрабатывали самостоятельно, а приобрели с полки. Эта модель используется в функции размытия лица Signal в наборе инструментов для редактирования мультимедиа.

Она отметила, что, хотя эта функция не является исключительно эффективной, она позволяет обнаруживать лица на фотографиях, сделанных в толпе, и размывать их, что исключает возможность случайного раскрытия биометрической информации в социальных сетях, в частности, таким компаниям, как Clearview.

В заключение Уиттакер подчеркнула, что, хотя такое использование ИИ заслуживает одобрения, оно не отменяет негативных аспектов, о которых она говорила ранее. Она обратила внимание, что экономические мотивы, определяющие дорогостоящую разработку и внедрение технологии распознавания лиц, никогда не ограничат её применение этой единственной целью.


На основе материала CySecurity News
 
  • Теги
    безопаность ии искусственный интеллеект
  • Назад
    Сверху Снизу