Борьба за алгоритмическую справедливость: борьба за разоблачение ИИ

Борьба за алгоритмическую справедливость: борьба за разоблачение ИИ

9 июня 2025 г.

Привет, друзья,

Это снова Набиха. Данные подпитывают ИИ. Мы знаем это - и именно поэтому бои вокруг авторских прав и искусственного искусстваособенноочаровательныйпрямо сейчас. Но стоит подумать о том, как наши недавние взгляды на управление данными и управлением данными мешают по -настоящему понять влияние ИИ на человечество - и как может выглядеть альтернативное видение.

Часто наши данные извлекаются невидимо, собираются на заднем плане, пока я хожу на дневное чтение, нажимаю на вещи, совершаю покупки и бегаю на встречи. И поэтому мы часто говорим о данных через призмуиндивидуальныйвыбор и индивидуальное согласие. Хочу ли я раскрыться? Я нажимаю «Принять все куки»? Мне все равно?

ИИ поднимает ставки, потому что теперь эти данные используются не только для принятия решений о вас, но и для глубоко мощных выводов о людях исообществаПолем Эти данные являются обучающими моделями, которые могут быть развернуты, мобилизованы с помощью автоматизированных систем, которые влияют на наши фундаментальные права и наш доступ к тому, независимо от того,Вы получаете ипотеку, собеседование или дажеСколько тебе платятПолем Мышление индивидуально является лишь частью уравнения сейчас; Вам действительно нужно думать с точки зрения коллективного вреда. Хочу ли я отказаться от этих данных и использовать их для принятия решений о таких людях, как я - женщина, мать, человек с особыми политическими убеждениями?

Доктор Джой Буоламвини - это тот, кто много лет думал о коллективном вреде и искусственном интеллекте, и поэтому я так ценю ее работу в качестве попутчика, когда речь идет о алгоритмической ответственности и справедливости. Ее новая книга «Разрешение ИИ: моя миссия по защите того, что является человеком в мире машин»,-это обязательное исследование того, как широкие полосы человечества уязвимы в мире, который быстро принимает инструменты искусственного интеллекта. Мы, как и Buolamwini, являются оптимистами: мы можем требовать лучшего пути, чем тот, на котором мы находимся, но это требует, чтобы мы думали коллективно, участвовали и внедряли инновации, чем мы в прошлом.

Продолжайте читать, чтобы узнать больше о «Окреселированных», распознавании лица в аэропорту, и о том, живем ли мы в возрасте последних хозяев ».

(Это интервью было отредактировано для краткости и ясности.)

Набиха Сайед:За последние две недели я совершил восемь рейсов, и каждый и каждый попросил меня отсканировать лицо, когда я сажусь. Отказаться от того, что было хаотично. Как мы попали сюда и что происходит?

Доктор Джой Буоламвини:Мы по -прежнему видим более широкое принятие технологии распознавания лиц государственными учреждениями, несмотря на достаточные доказательства рисков дискриминации и конфиденциальности, часто в рамках логики эффективности и обслуживания клиентов. Одна из причин, по которой я продолжаю сопротивляться технологиям биометрического наблюдения, заключается в том, как легко обращаться с данными можно включить в оружие полицейской деятельности, оружие войны. Несколько месяцев назад я наткнулся на видео четвероногих робота с пистолетом, установленным на спине.

Эти системы могут быть оснащены распознаванием лица и другими биометрическими технологиями, поднимая серьезные вопросы. Что происходит, когда гражданские лица смущены комбатантами? Какие гражданские лица с большей вероятностью будут помечены подозрительными? Какой новый класс военных преступлений вводится с цифровой дегуманизацией? Будет ли жестокость полиции повышена жестокостью робота? История рифмуется.

Это не потеряно для меня, как собаки использовались для жестокого обращения с порабощенными людьми. Четырехеденные, которые я вижу, вспоминают полицейских собак, используемых на протестующих, борющихся за их достоинство. Даже если не было никаких расовых, гендерных или возрастных предвзятости, эти системы по строительству чрезвычайно опасны. Известная склонность к неправильной идентификации распознавания лиц со стороны правоохранительных органов только повышает риски.

Когда я вижу развертывание распознавания лиц в аэропортах и ​​увеличение интеграции в государственные услуги, сигнализирует колокольчики, потому что, как исследователь, я думаю о траектории этой движущейся шайбы. Да, это совершенно разные случаи использования, но чем больше людей подвергаются признанию лиц, тем больше правительственных чиновников пытаются сойти повествование о том, что люди привыкли (и, таким образом, принимают) эти системы.

Нормализация систем биометрической идентичности марширует нам ближе к государственному наблюдению, которое будет мечтой авторитарных режимов. Если вы летите этим летом, я настоятельно рекомендую людям отказаться от сканирования лиц не только потому, что он дискриминационен и инвазивен, но и потому, что оно посылает сообщение о том, что мы ценим наши биометрические права и наши биометрические данные.

Сайед:Единственным потенциалом моих приключений в аэропорту является то, что я получаю «обучающий момент» о технологии распознавания лиц. Протесты являются аналогичной возможностью. Но это подчеркивает, сколько осведомленности о технологии наблюдения развивалось с момента вашего знакового исследования,Гендерные оттенкиПолем На каком земле мы получили, и какая следующая граница?

Buolamwini:Как я пишу в своей книге «Разрешение ИИ: моя миссия по защите того, что является человеком в мире машин», так как было выпущено исследование гендерных оттенков, которое я опубликовал с доктором Тимнитом Гебрю, и впоследствииДейственный аудитБумага в соавторстве с Деб Раджи, мы наблюдали изменения в отраслевой практике. Все американские компании, которые мы проверяли, отступили от продажи признания лиц правоохранительным органам в различных способностях.

Мы видели законодательные изменения с более чем полдюжины городов, принимающих ограничения на использование полиции признания лиц. Такой прогресс заслуживает похвалы, потому что без этих гарантий у нас будут такие кошмары, которые мы продолжаем видеть, разыгрываемыеДетройтское полицейское управлениеПолем Кошмары дискриминации и эксплуатации ИИ - это живая реальность тех, кого я называю усучненными - таких людей, как Порча Вудрафф.

Ай-двигательное распознавание лица. Неверная идентификация привела к ее ложному аресту. Она была на восемь месяцев беременности, сидящей в камере, имевшейся и имела схватки. Она не одинока в столкновении с алгоритмами дискриминации. За три года до ареста Порчи Роберт Уильямс был ложно арестован перед двумя его маленькими дочерьми со стороны того же отделения полиции Детройта.

Несмотря на достаточные доказательства расовой предвзятости в технологиях распознавания лиц, мы все еще живем в мире, где разрешена предотвратимая дискриминация искусственного интеллекта. Мы должны остановить это безответственное использование ИИ и убедиться, что никто не страдает от кошмаров, испытываемых Порча, Робертом и их семьями.

Осудимые включают еще больше людей, ложно арестованных из -за ИИ: Майкла Оливера, Ниджера Парков, Рэндала Рейда и других, чьи имена никогда не могут попасть в заголовки газет, но чьи жизни имеют значение все одинаково. Имейте в виду, что никто не застрахован от вреда ИИ. Мы все можем быть одержимы. Познание лиц на основе ИИ вступает в большее количество областей нашей жизни от занятости до здравоохранения и даже транспорта.

Администрация транспортной безопасности планирует сделать сканирование лица по умолчанию, чтобы проверить ваш идентификатор для поездки в более чем 400 аэропортов в Соединенных Штатах, потенциально оставив вас в риске неудачи распознавания лица и укладывая инфраструктуру для алгоритмов наблюдения.

Что изменилось с момента выхода гендерных оттенков, так это то, что генеративные системы ИИ позволяют дальнейшую эксплуатацию наших биометрических данных, которые выходят за рамки обнаружения, классификации и распознавания лиц. Генеративные системы ИИ, которые позволяют биометрическим клонам, могут легко использовать наше сходство благодаря созданию синтетических сред, которые распространяют глубокие подделки.

Нам нужны биометрические права, которые защищают наши лица и голоса от алгоритмов эксплуатации. Я стою с художниками и писателями, которые протестуют против алгоритмической эксплуатации их творческой работы. Компании получили миллиарды долларов инвестиций, используя защищенную авторским правом работу без разрешения или компенсации. Это несправедливо. Отсутствующий включает в себя, в которых находятся находящиеся под угрозой исчезновения профессии.

Ваша профессия может быть следующей. Когда я думаю о следующей границе, я думаю об эксплуатации нашей биометрии, и я также думаю о разрыве ученичества. Что происходит, когда задания начального уровня автоматизируется? Даже знаменитость не может защитить вас от укрепления, как обнаружил Том Хэнкс, когда его цифровой близнец, созданный с генеративным ИИ, использовался для продвижения услуги, которую он не поддерживал.

Позвольте мне взять касательную на секунду, которая воссоединяется. Ранее в этом году я был представлен в Rolling Stone вместе с другими крутыми женщинами, которые в течение многих лет узнали об опасностях ИИ. Во время фотосессии на мне было желтое платье, которое послужило вдохновением для того, чтобы купить желтую электрогитару. Когда я снова начал играть на гитаре, я понял, что у меня все еще есть мозоли. Я мог бы поблагодарить себя за молодым, за то, что он вставил на работу годами ранее.

Как люди будут строить профессиональные мозоли, если ранняя работа, которая может рассматриваться как обыденные предметы перемещения в области ИИ? Рискуем ли мы жить в возрасте последних мастеров, возраста последних экспертов?

Сайед:Так много в промышленности, включая венчурные капиталисты и стартапы, призывают к справедливому ИИ или ответственному инновациям. Я знаю, что вы работали напрямую с технологическими компаниями, включаяНедавний разговор с бывшим генеральным директором Openai Сэм АльтманПолем Что могут сделать сегодня компании, чтобы смягчить вред?

Buolamwini:Как я поделился с Сэмом, компании, утверждающие, что несут ответственность, должны бороться с творческими правами. Будучи новым членом Гильдии авторов и Национальной ассоциации голосовых актеров, только что записали мою первую аудиокнигу, я еще больше настроен на творческие права. Мы можем рассмотреть алгоритмы эксплуатации, установив творческие права, которые поддерживают четырех C: согласие, компенсация, контроль и кредитование. Художники должны быть заплачены справедливо за их ценный контент и контролировать, используется ли их работа с самого начала, а не как запоздалая мысль.

Слишком часто процессы сбора и классификации данных, стоящие за системами искусственного интеллекта, неэтичны. VCS и стартапы должны принять политики «Знать свои данные», которые изучают происхождение данных, которые могут потенциально питать их системы ИИ. Как бы выглядело для создания этических конвейеров данных? Какие механизмы могут быть созданы для получения данных о справедливой торговле? Когда мы думаем оЭкологическая стоимостьО обучении систем ИИ, какие альтернативы поставили бы нас на путь к зеленому ИИ?

Если вы используете поставщика или здание поверх существующих моделей искусственного интеллекта, VCS и стартапы должны знать о коллапсе контекста, который возникает, когда система, разработанная для одного варианта использования, переносится на другой. В книге я пишу о канадском стартапе, который хотел использовать технологию распознавания голоса для обнаружения ранних признаков болезни Альцгеймера. Намерения были хорошими. Они обучали свою систему с канадцами, которые говорили по -английски как на первом языке. Когда они проверили систему на канадцах, которые говорили по-французски как свой родной язык, некоторые из этих первых французских ораторов были неправильно классифицированы как имеющие болезнь Альцгеймера.

В Алгоритмической Лиге справедливости мы начали создавать отчетную платформу, которая служит системой раннего предупреждения возникающих ИИ. Процесс подчеркнул важность убедимости в том, чтобы у людей были механизмы, чтобы выявить проблемы с системами ИИ после их развертывания. Наличие этих типов механизмов обратной связи может помочь компаниям постоянно контролировать свои системы ИИ на наличие известных и неизвестных вреда.

Сайед:И, конечно, мы не можем не допустить быстро меняющейся нормативной среды - между Великобританией.AI Safety Summit,Указатель СШАи дискуссия ЕС «Трилога» оАй регулирование, там много движущихся частей. Как вы думаете, где правительства делают это правильно, а что им не хватает?

Buolamwini:Я рекомендую Закон ЕС AI за то, что он издал явные Redlines, включая положение о том, что распознавание лиц не может использоваться в общественных местах. Я помню время, когда я упоминал о предвзятости ИИ или алгоритмической дискриминации, и глаза застегнули. Чтобы управление ИИ находилось на вершине федеральных и международных приоритетов, как мы видим сегодня, далеко от 2015 года, когда у меня был опыт кодирования в белой маске, чтобы обнаружить мое темное лицо кожи, что и начало работу, которая привела к созданию Алгоритмической Лиги справедливости. Обнадеживает видеть, как ЭО опирается на ценности плана для законопроекта о правах ИИ, включая защиту от алгоритмической дискриминации.

При этом, EO наиболее влияет на правительственные учреждения и области, где существуют федеральные доллары финансирования, которые создают стимулы для следования EO. В конечном итоге нам нужно законодательство, которое выходит за рамки добровольных обязательств компании. Чем я вижу в большинстве разговоров вокруг управления ИИ, так это необходимость возмещения. Попробуйте, как мы могли бы предотвратить AI Harms, что происходит, когда что -то пойдет не так, и как насчет тех, кто уже был превышен?

Сайед:Что-то, что удерживает меня ночью,-это «предвзятость автоматизации»-идея о том, что люди предпочитают предложения из автоматизированных систем принятия решений, игнорируя противоречивую информацию, сделанную без автоматизации, даже если это правильно. Подкатегория этого - это то, что я называю проблемой Гомера Симпсона: только потому, что у вас есть человек в цикле, не означает, что они обращают внимание или заботу. Я беспокоюсь о том, что притупление человеческого участия и человеческого надзора будут разрушительными для нашего достоинства. Что держиттыНочью?

Buolamwini:Да, люди в прошлой минуте в лучшем случае являются токенистическими. То, что удерживает меня ночью, - это думать о усугубленных и способах, которыми мы можем быть одержимы. Те, кто никогда не имеет реального шанса на работу или образовательные возможности, потому что системы ИИ несправедливо их выявляют. Те, кто не получаютжизненно важные органыили адекватное страхование из -за алгоритмической дискриминации в инструментах искусственного интеллекта здравоохранения и тех, кто сталкивается с медицинским апартеидом с турбонаддувом, с помощью ИИ.

Я беспокоюсь о том, как системы ИИ могут убить нас, медленно опираясь на понятие структурного насилия. Системы ИИ, которые отрицают арендаторов жилья или переводят их в свойствах, которые находятся в более загрязненных районах или встроены в продовольственные пустыни, держат меня ночью. Ваше качество жизни и шансов на жизнь уменьшились из -за ряда алгоритмических решений, которые усиливают структурное неравенство под видом машинного нейтралитета. Четырехеденные с оружием преследуют мой сон.

Сайед:Конечно, возможность этого момента заключается в том, что ничто не является неизбежным, если мы боремся за лучше. Как мы можем добраться до мира с алгоритмической справедливостью?

Buolamwini:Я искренне верю, что если у вас есть лицо, у вас есть место в разговоре об искусственном интеллекте и технологиях, которые формируют нашу жизнь. Мы добираемся до мира алгоритмической справедливости, где данные не дают вам дискриминации и где ваш оттенок не является сигналом, чтобы отклонить ваше человечество, рассказывая наши истории. Истории порч и Робертс.

Мы слышим так много историй от обычных людей черезreport.ajl.orgПолем Мы достигаем алгоритмической справедливости, осуществляя наше право на отказ, что может означать, что нет, чтобы столкнуться с сканированием в аэропортах. Мы продолжаем задавать вопросы, которые выходят за рамки шумиха или гибели, и спрашиваем, принимаются ли системы ИИ в наших школах, на рабочих местах и ​​больницах, действительно предоставляют то, что они обещают. Мы достигаем алгоритмической справедливости, стремясь к законам, которые защищают наше человечество, наши творческие права, наши биометрические права и наши гражданские права.


Я благодарен таким людям, как доктор Джой и бесчисленные другие, которые выполняли работу, чтобы убедиться, что наши алгоритмические системы служат всем нам, а не некоторым из нас.

Спасибо за чтение!

Набиха Сайед

Директор компании

Разметка


  • Набиха Сайед, Директор компании

Дизайн и графика

  • Джоэл Иствуд

Обручение

  • Синьян фу

Редактирование и производство копий

  • Моника Ризе

Редактирование

  • Майкл Рейли
  • Моника Ризе

Также опубликованоздесь

ФотоСебастьян СтэмнаНеспособный


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE