Саммит ООН «ИИ во благо» исследует, как генеративный ИИ создает риски и способствует установлению связей
8 июля 2023 г.6 и 7 июля в Организации Объединенных Наций прошел шестой ежегодный глобальный саммит «ИИ во благо». Во время панели «Следующая волна ИИ во благо — к 2030 году» эксперты по генеративному ИИ указали на риски, которые генеративный ИИ представляет сегодня, как обучить следующее поколение тому, что он может сделать, и как глобальное сообщество должно объединиться для решения проблемы. регуляторные и социальные проблемы.
Перейти к:
- Риски генеративного ИИ включают дезинформацию и неравный доступ к данным.
Подготовка следующего поколения к миру генеративного ИИ
Безопасная разработка генеративного ИИ начинается с сообщества
Как ИИ пересекается с глобальными проблемами распределения ресурсов
Область ИИ должна ослабить противоречие между инновациями и регулированием
Риски генеративного ИИ включают дезинформацию и неравный доступ к данным.
«Самый большой краткосрочный риск [генеративного ИИ] — это преднамеренно созданная дезинформация с использованием больших языковых инструментов для подрыва демократии и рынков», — сказал Гэри Маркус, предприниматель, бывший профессор психологии и неврологии в Нью-Йоркском университете и главный исполнительный директор. недавно созданный Центр развития надежного ИИ.
Маркус также видит некоторые положительные стороны генеративного ИИ. Он предположил, что автоматическое кодирование может снизить нагрузку на перегруженных работой программистов.
Венделл Уоллах, содиректор проекта «Искусственный интеллект и равенство» Совета Карнеги по этике и международным делам, отметил обострение неравенства между богатыми странами Северного полушария и бедными странами Южного полушария (так называемые Глобальный Север и Глобальный Юг). с помощью генеративного ИИ. Например, в январе 2023 года Всемирный экономический форум опубликовал сообщение в блоге, в котором отмечается, что генеративный ИИ в основном создается и используется на Глобальном Севере.
Генеративный ИИ использует обучающие данные на разных языках. Однако языки с наибольшим количеством носителей, естественно, будут генерировать больше всего данных. Поэтому люди, говорящие на языках, на которых создается много данных, с большей вероятностью смогут найти полезные приложения для генеративного ИИ, сказал Маркус.
«У вас есть расширение неравенства, потому что люди, которые работают на языках, которые хорошо обеспечены ресурсами и имеют много денег, могут делать то, что люди, использующие другие языки, не могут», — сказал он.
SEE: Генеративный ИИ также заставляет художников беспокоиться о материалах, защищенных авторским правом. (ТехРеспублика)
Подготовка следующего поколения к миру генеративного ИИ
Каришма Мутукумар, выпускница когнитивистики Калифорнийского университета в Ирвине и специалист по использованию ИИ для улучшения здравоохранения, отметила, что она слышит от детей, которые узнают о генеративном ИИ от своих сверстников или дома, а не в школе.
Она предложила учебную программу, с помощью которой можно было бы обучать использованию искусственного интеллекта.
«Потребуется диалог между поколениями и объединение величайших умов, чтобы найти действительно работающую учебную программу», — сказал Мутукумар.
Безопасная разработка генеративного ИИ начинается с сообщества
Многие участники дискуссии говорили о важности сообщества и обеспечении того, чтобы все заинтересованные стороны имели право голоса в разговоре о генеративном ИИ. Это означает «ученых, социологов, специалистов по этике, людей из гражданского общества», а также правительства и корпорации, сказал Маркус.
«Глобальные платформы, такие как МСЭ [Международный союз электросвязи, агентство ООН] и подобные конференции, начинают заставлять нас чувствовать себя более связанными и помогают ИИ помогать людям чувствовать себя более связанными», — сказал Мутукумар.
«Я надеюсь, что частью того, что выходит из этой встречи, которую мы проводили в течение последних нескольких лет, является признание того, что это находится на столе, и это признание переходит к нашим лидерам, чтобы они начали понимать, что это не один из тех вопросы, которые мы должны игнорировать», — сказал Уоллах.
Что касается этических проблем использования генеративного ИИ для решения глобальных проблем, Мутукумар предположил, что этот вопрос открывает другие вопросы. «Что такое добро и как мы можем его определить? Цели ООН в области устойчивого развития — отличная основа и отличная отправная точка для определения этих устойчивых целей и того, чего мы можем достичь».
Как ИИ пересекается с глобальными проблемами распределения ресурсов
Уоллах отметил, что огромные суммы денег, вливаемые в компании, занимающиеся генеративным ИИ, не обязательно решают проблемы, которые, по мнению саммита «ИИ во благо», должен решить ИИ.
«Одна из проблем со структурой стоимости, присущей цифровой экономике, заключается в том, что обычно в каждой области есть победитель», — сказал он. «И прирост капитала достается тем из нас, у кого есть акции этих победителей. Это очень проблематично с точки зрения распределения ресурсов для достижения целей устойчивого развития».
Он предлагает, чтобы компании, разрабатывающие генеративный ИИ и другие технологические решения глобальных проблем, также несли «некоторую ответственность за устранение недостатков и компромиссов решения, которое [они] выбирают».
Область ИИ должна ослабить противоречие между инновациями и регулированием
Обсуждалась и Организация Объединенных Наций. Уоллах отметил, что, хотя усилия ООН по объединению заинтересованных сторон для обсуждения глобальных проблем заслуживают похвалы, организация имеет «смешанную репутацию» и не может решить «какофонию между странами».
Однако он надеется, что разговор о генеративном ИИ и этике с более широкой аудиторией будет полезен.
То, что этические соображения означают в ИИ, также может различаться в зависимости от обстоятельств. «Например, концепция справедливости в ИИ сильно различается в зависимости от его применения», — сказала Хания Махмудян, глобальный специалист по этике ИИ в компании DataRobot, занимающейся разработкой программного обеспечения для ИИ и машинного обучения, и член Национального консультативного комитета США по ИИ, в интервью по электронной почте TechRepublic. . «Применительно к системе найма справедливость может означать равное представительство, тогда как в контексте распознавания лиц справедливость может означать постоянную точность».
Маркус считает государственное регулирование важной частью обеспечения будущего, в котором генеративный ИИ будет работать во благо.
«Сейчас существует противоречие между тем, что называется поощрением инноваций и регулированием», — сказал он. «Я думаю, что это ложное напряжение. На самом деле мы можем стимулировать инновации с помощью регулирования, которое говорит Силиконовой долине, что вам нужно сделать ваш ИИ надежным и заслуживающим доверия».
Он сравнил бум генеративного ИИ с бумом социальных сетей, когда компании росли быстрее, чем их регулирование.
«Если мы правильно разыграем наши карты, мы воспользуемся этим моментом — в отдельных странах, таких как США, откуда я родом, и на глобальном уровне — когда люди поймут, что нужно что-то делать. Если мы этого не сделаем, у нас будет год заламывания рук», — сказал Маркус.
Оригинал