Развитие ИИ: баланс между удобством и этикой

Развитие ИИ: баланс между удобством и этикой

10 мая 2022 г.

Технологии улучшили нашу жизнь бесчисленным множеством способов. Сегодня у нас больше времени, чем когда-либо (даже если так не кажется!) на занятия, которые нам нравятся, благодаря автоматизации.


На протяжении всей истории технологии упрощали основную работу, освобождая все больше и больше времени для творчества, общения и отдыха.


В последние годы искусственный интеллект (ИИ) сыграл ключевую роль в развитии автоматизации.


По мере развития технологий они проникли почти во все отрасли, от маркетинга до здравоохранения. ИИ повысил эффективность и взял на себя многие рутинные задачи, которые люди предпочли бы не выполнять.


Но ИИ не совсем свободен от противоречий.


В последние годы возникли законные этические проблемы, и важно знать о них, чтобы мы могли работать над потенциальными решениями.


Как объясняет Чираг Шах, доцент кафедры информации Вашингтонского университета, эти вопросы могут быть очень сложными с этической точки зрения:


«В последние годы, по мере того как приложения ИИ распространяются в нашем мире, стали возникать вопросы о том, что этично, что законно и что социально приемлемо — больше, чем раньше.


Спрашивать расу или пол человека в анкете о приеме на работу может быть законно, но этично ли использовать эту информацию для их проверки?


Это не новый вопрос или проблема, но, учитывая, насколько мы начинаем полагаться на автоматизированные процессы (например, отбор кандидатов, предсказание преступных намерений, принятие решений о приеме в колледж), такие вопросы возвращают к вековым дискуссиям об этике.


Это развитие совпало с пандемией, но не только в эпоху пандемии. Конечно, некоторые проблемы обострились из-за пандемии.


Пример: неравенство. Я не уверен, могу ли я сказать, что мы движемся в более цифровой мир из-за пандемии в том, что касается ИИ. Переход уже был в работе, возможно, пандемия только усилила его».


Вот некоторые из многих этических факторов, которые нам необходимо учитывать по мере дальнейшего развития ИИ.


Предвзятость в искусственном интеллекте


Одна из самых больших проблем с искусственным интеллектом заключается в том, что он не может быть полностью объективным. ИИ разработан людьми, и в него встроены те же предубеждения, что и в нас.


Эти предубеждения могут быть непреднамеренными, но они уже привели к нескольким серьезным проблемам.


Одним из примеров этого было, когда программное обеспечение, предназначенное для прогнозирования преступного поведения, которое использовалось, чтобы помочь судам в процессе принятия решений, было обнаружено, что оно часто является неточным и предвзятым против чернокожих.


Программное обеспечение для распознавания лиц и финансовые алгоритмы имеют схожие предубеждения. Эти предубеждения изменили жизнь людей, в том числе они не могли получить кредит или даже не были освобождены из тюрьмы, когда имели на это право.


Подобные случаи показывают, насколько опасно доверять системам ИИ как неявно нейтральным. Признание того, что эти системы имеют предубеждения, является первым шагом к более справедливой технологии.


Киберпреступность и риск кражи данных


Мы живем в Интернете большую часть своей жизни и доверяем самым важным, конфиденциальным и личным данным различным частным организациям.


Хотя эти данные должны быть защищены и в основном хранятся для удобства, кража данных может происходить и происходит каждый день.


От [EHR (электронных медицинских карт)] (https://online.maryville.edu/blog/technology-in-nursing/) до информации о кредитных картах — нам остается только надеяться, что организации, хранящие нашу информацию, вложили средства в хорошую кибербезопасность. меры.


К сожалению, количество утечек данных, которые происходят каждый год, показывает, насколько не хватает мер кибербезопасности в целом.


Помимо кражи данных, киберпреступники могут использовать взломанный искусственный интеллект в своих целях и нанести существенный вред. Хакеры, которые могут получить контроль над автономными транспортными средствами, дронами или оружием, могут сеять хаос, даже не находясь рядом с машинами, которыми они управляют.


Физическая безопасность


Автономные автомобили с искусственным интеллектом выходят на дороги. Хотя в большинстве из них по-прежнему требуется, чтобы водитель находился за рулем, аварии происходили из-за небрежности «водителей».


Однако по мере развития автономных транспортных средств будет возникать больше проблем с физической безопасностью и аварий, связанных со сложными этическими вопросами.


Физическая безопасность из-за сбоев ИИ также может быть проблемой в инфраструктуре, поскольку умные города становятся все более распространенными. Хотя невозможно избежать всех несчастных случаев и технических сбоев, нам придется решить, насколько допустим риск.


Принятие решения об ответственности


В вопросах, связанных с искусственным интеллектом, может быть сложно решить, кто несет ответственность за решения и действия ИИ.


Очевидным выбором является программист, но это приводит к множеству других вопросов и опасений, связанных с самим ИИ и тем, какой силой он должен обладать в человеческом обществе.


В конце концов, когда искусственный интеллект и машинное обучение начинают развивать свои системы и становиться умнее, остается ли вина программиста? Должен ли кто-то наблюдать за работой системы, чтобы он мог следить за ее процессом и принятием решений?


Это вопросы, которые все еще висят в воздухе, поскольку мы видим все различные способы, которыми искусственный интеллект влияет на наш мир.


Что происходит, когда мы не нужны ИИ?


В конечном счете, некоторые из самых больших опасений связаны с этикой ИИ, когда он становится таким же умным или умнее человека.


До этого еще далеко, но у многих есть опасения, начиная от ликвидации рабочих мест и заканчивая этикой того, как мы, люди, должны относиться к ИИ, столь же умному, как и мы.


Спекуляции зайдут так далеко, поскольку мы еще не знаем, как будет выглядеть такой мир, но важно учитывать возможности.


Этика и ответственность при разработке ИИ


Доцент Шах ясно указывает на языковые различия, которые могут тонко снять с разработчиков ответственность после сбоя приложения ИИ: этичность против ответственности.


«Я хочу быть осторожным и не смешивать два термина, которые часто используются вместе: «ответственный» и «этичный» при обсуждении ИИ в наши дни.


Ответственный ИИ часто предпочтительнее для промышленности, потому что он позволяет им продолжать заниматься ИИ и просто задаваться вопросом, как они могли бы сделать это более ответственно.


Этический ИИ, с другой стороны, обращается к корню ИИ и спрашивает, должны ли мы вообще этим заниматься?»


Неудивительно, что многие разработчики предпочли бы избежать этой проблемы, если бы могли, поскольку это может поставить под угрозу их способность продолжать свою работу. Однако вероятность причинения вреда значительна, и разработчики должны держать этику во главе всей своей работы.


Соблюдение этического кодекса искусственного интеллекта


В любой профессии существуют определенные этические нормы, которым нужно следовать, чтобы оставаться на хорошем счету. Врачи и [медсестры имеют свои собственные этические кодексы] (https://online.maryville.edu/blog/nursing-ethics) в отношении ухода, который они оказывают пациентам, например.


Это важно, потому что их решения иногда могут иметь последствия для жизни или смерти. У финансовых консультантов есть этические кодексы, которым они также должны следовать, поскольку их работа напрямую влияет на средства к существованию их клиентов.


По мнению Шаха, разработчики ИИ должны задавать себе еще более сложные вопросы:


«Большое развитие ИИ было связано с технологией и ее возможностями. Когда мы рассматриваем этику в ИИ, первый вопрос, который нужно задать: должны ли мы вообще этим заниматься? Стоит ли использовать распознавание лиц в общественных местах?


Должны ли мы использовать автоматизированную систему, которая рекомендует, следует ли нам отпустить преступника под залог или посадить его в тюрьму?


Большая часть рассмотрения заключается в том, какие группы или отдельные лица пострадают из-за проблем предвзятости (в наших данных и алгоритмах) и отсутствия прозрачности в данной системе ИИ?


Часто системы ИИ оцениваются по таким показателям, как точность, эффективность и масштабируемость. Эти критерии игнорируют различные этические соображения, включая справедливость/равенство, справедливость и подотчетность».


Разработчики ИИ не так жестко регулируются, как медсестры или финансовые консультанты, и их работа до сих пор не подвергалась тщательному изучению.


Это означает, что они смогли создать свою технологию с минимальным контролем или последствиями, когда что-то пойдет не так.


Несмотря на это, количество дискуссий об этике искусственного интеллекта растет, и всем, кто интересуется этой областью, важно следить за этими дискуссиями и [придерживаться этического кодекса] (https://www.techtarget.com/whatis/definition/ AI-code-of-ethics#:\~:text=AI%20ethics%20is%20a%20system, разработайте%20AI%20codes%20of%20ethics.).


Создание технологий, которые могут иметь негативное влияние, и сознательное внедрение их в мир для использования людьми чрезвычайно проблематично. Те, кто игнорирует этические стандарты при разработке ИИ, должны нести ответственность за причиняемый ими вред.


Проблемы будущего искусственного интеллекта


Что все это означает для будущего ИИ? По словам Шаха, нам нужно продолжать эти разговоры по мере того, как технологии развиваются вместе с обществом.


«Первая большая проблема — это наше собственное понимание того, что этично. Эти дискуссии ведутся по крайней мере со времен Сократа. Они изменчивы (постоянно меняются со временем), очень контекстуальны (зависят от культуры, социальных норм), и их очень трудно сопоставить с концептуальным пониманием и реализацией системы.


Например, одним из столпов этики в ИИ является справедливость. Существуют десятки определений и понятий того, что такое «справедливость». Независимо от того, какое определение вы выберете, будет много других определений, которые будут отличаться или даже противоречить этому.


Наши системы искусственного интеллекта не способны работать в условиях моральных неоднозначностей и этических дилемм. Например, если беспилотный автомобиль должен принять решение о спасении взрослого или ребенка-пешехода в случае неминуемой аварии, какие параметры он должен использовать?


Этичнее ли наказать одного невиновного, чем отпустить на свободу четырех опасных преступников? Мы, общество, сталкиваемся с трудностями при решении таких вопросов. Затем еще сложнее закодировать их в систему ИИ».


Сложность с искусственным интеллектом заключается в том, что при попытке имитировать человеческий интеллект его [просят принять этические решения] (https://philpapers.org/archive/ETZIEI.pdf). Эти решения не процедурные и не всегда имеют простые ответы.


Многим людям не нравится мысль о том, что машины принимают наши этические решения, даже несмотря на то, что технология ИИ облегчает их жизнь.


По мере развития искусственного интеллекта можно ожидать усиления регулирующего надзора. Разработка политики идет медленно, а технологии развиваются быстро.


Мы уже привыкли к присутствию ИИ в нашей жизни, и это присутствие будет только расти. Тем не менее, мы не можем игнорировать этические проблемы и должны решать их, чтобы гарантировать, что ИИ служит нам, а не создает больше проблем, чем решает.



Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE