Что случилось с правилами ИИ?

Что случилось с правилами ИИ?

21 января 2024 г.

В прошлом месяце я был приглашенным докладчиком на Неделе национальной дипломатии в Ягеллонском университете.

Оказывается, дипломатическое сообщество действительно занимается вопросами регулирования, развития и этики ИИ.

Мы обсудили такие темы, как публичная дипломатия, кибербезопасность и искусственный интеллект в развитии бизнеса. Было здорово поделиться своими мыслями о технологиях с энтузиастами международной политики.

Мы также постарались охватить как возможности, так и проблемы, которые решения ИИ могут создать в будущем. Я подготовил небольшой обзор основных вопросов, которые мы обсудили. Я узнал много нового о дипломатическом мире, погрузитесь в него вместе со мной.

Что такое ИИ? Откуда такой ажиотаж?

Почему сейчас так много говорят об ИИ? Важнейший момент произошел осенью 2022 года, когда вышел ChatGPT. Люди стали больше замечать ИИ, но эта технология существует уже несколько лет. Не хватало подходящей облачной инфраструктуры и серверов, а также хорошего коммерческого продукта для продажи.

Искусственный интеллект (ИИ) обычно делят на два типа: узкий ИИ и общий ИИ. Узкий ИИ, преобладающий на сегодняшнем рынке, превосходно справляется с конкретными задачами, такими как языковой перевод или распознавание изображений, но ему не хватает способности выходить за рамки запрограммированного объема. С другой стороны, общий искусственный интеллект (или общий искусственный интеллект, AGI), теоретическая концепция, которую еще предстоит реализовать, стремится имитировать человеческий интеллект, демонстрируя адаптивность и обучение в широком спектре областей. Развитие AGI имеет значительные социальные, этические и нормативные последствия, вызывая глобальные дискуссии о том, как управлять его потенциальным воздействием, включая вопросы конфиденциальности, безопасности и этических соображений. Тем не менее, пока кто-нибудь действительно не разработает систему AGI, эта тема будет чисто академической.

В настоящее время в области искусственного интеллекта используются два известных типа нейронных сетей — преобразователи и диффузоры. Трансформеры превосходно обрабатывают и понимают текст, значительно улучшая работу компьютеров с письменной информацией. Тем временем диффузоры творчески генерируют новый контент, например изображения или музыку, постепенно совершенствуя первоначальные концепции. Важно отметить, что сами по себе эти технологии вряд ли приведут к созданию ОИИ. Для достижения AGI, скорее всего, потребуются улучшения, выходящие за рамки нынешних архитектур.

В каких сферах жизни ИИ совершает революцию?

Я думаю, что технологии, связанные с искусственным интеллектом, уже совершают прорыв в нашей отрасли, подобно тому, как электричество изменило все аспекты нашей жизни. ИИ может внести существенные изменения в нашу личную жизнь, бизнес, здравоохранение и даже военные операции.

Однако масштабы и темпы развития ИИ вызывают обеспокоенность по поводу его потенциального вреда, если его не регулировать должным образом. ИИ уже совершает революцию в кропотливых и повторяющихся задачах, выполняя их лучше, чем люди. Я думаю, что это не угроза, а полезность для повышения эффективности и производительности.

Грядут серьезные перемены в нашей цивилизации, и мы не можем точно предсказать степень их влияния на нашу жизнь. Поскольку искусственный интеллект продолжает развиваться, мы вступаем в эпоху трансформации, и мне любопытно посмотреть, что это принесет.

Некоторые говорят, что текущий текстовый результат AI в лучшем случае посредственный. Я думаю, что это ничем не примечательное умение, примененное в больших масштабах и по прихоти, может изменить мир.

Rмодели регулирования и сверхспособности искусственного интеллекта

Несмотря на то, что инструменты искусственного интеллекта уже оказывают положительное влияние на жизнь людей, они используются не по назначению, а также для распространения другой дезинформации и спама. Были также проблемы конфиденциальности. Это побудило некоторых регулирующих органов принять меры и начать предлагать целевые законы. Более того, предыдущие законы о защите данных по-прежнему применяются и влияют на модели ИИ.

Если бы мы хотели разделить то, как продвигается развитие ИИ и какое отношение к регулированию ИИ представлено, мы могли бы упомянуть 3 модели: американскую, китайскую и европейскую.

Американский

В настоящее время США являются лидером на рынке искусственного интеллекта. Американская точка зрения сосредоточена на процветании технологической индустрии посредством политики свободного рынка для стартапов и бизнеса. Также существует предпочтение минимальному влиянию правительства.

Однако с появлением Chat GPT отношение изменилось. Сейчас США стараются избежать слишком большой консолидации власти в нескольких крупных компаниях, занимающихся искусственным интеллектом.

Несмотря на эти опасения, по-прежнему сохраняется технооптимистический настрой, предполагающий, что компании будут саморегулироваться (что может быть несколько надуманным). Только что был опубликован новый Билль о правах ИИ, включающий руководство по использованию ИИ, что рассматривается как первый шаг к созданию надлежащей системы регулирования ИИ.

Китайский

План Китая следующего поколения направлен на то, чтобы позиционировать страну как мирового лидера в области искусственного интеллекта, обогнав США. Основная цель – развитие. Сначала правил не существовало, что давало компаниям свободу реализовывать свои инициативы при предоставлении финансирования и доступа.

Проблемы начались с быстрым развитием генеративного искусственного интеллекта. Правительство испугалось, что ИИ может генерировать контент, выходящий за рамки цензуры.

В настоящее время проводятся эксперименты по регулированию, призванные поддержать развитие бизнеса и одновременно гарантировать, что достижения будут соответствовать видению коммунистической партии.

ЕС

В ЕС мы сейчас завершаем работу над Законом об искусственном интеллекте, включая антропоцентрическое видение искусственного интеллекта с акцентом на гражданское право и этику. Ключевая дилемма заключается в том, как найти баланс. Как поддерживать инновации в стартапах, обеспечивая технологическую независимость, а также обеспечивать безопасность граждан и их прав.

Помимо упомянутых моделей, конечно, есть и другие страны/организации, которые пытаются создавать независимые законы внутри себя.

Возьмем Израиль: генеральный директор Министерства обороны объявил о планах сделать Израиль сверхдержавой в области искусственного интеллекта с упором на военное применение. Они выделили рекордно высокий бюджет на разработку ИИ, уделив особое внимание законам и исследованиям, касающимся нужд обороны.

Или недавно Франция, Германия и Италия договорились о единой нормативной базе ИИ, касающейся компаний в Европе. Они не хотят, чтобы санкции против бизнеса были немедленными, а сосредоточились на стимулах, а затем, при необходимости, на штрафах за серьезные нарушения.

Не так давно мы также видели, что Италия блокирует ChatGPT из-за отсутствия надлежащих процессов обработки персональных данных и отсутствия возрастных ограничений.

Обсуждается и реализуется множество решений. Некоторые пытаются регулировать то, чего еще не существует (AGI). Некоторые предлагают ввести ограничения, которые, по-видимому, принесут пользу более крупным игрокам за счет повышения стоимости эксплуатации систем искусственного интеллекта.

Я слежу за этим пространством с умеренным интересом, так как оно потенциально может на меня повлиять. Тем не менее, даже если регулирование нанесет вред инновациям, все равно интереснее тратить время на реальные технологии, а не на сопутствующие инициативы.

С какими нормативными проблемами я столкнулся при запуске собственного стартапа в области искусственного интеллекта?

Разработка модели машинного обучения зависит от обучающих данных. Когда компании ведут деловые переговоры, много времени уделяется обсуждению того, как обеспечить безопасность данных и передать их на законных основаниях.

Судя по тому, что я видел, Китай жестко относится к безопасности данных. Все должно быть одобрено властями, и правила строгие. Из-за этого многие компании не хотят вести там бизнес (в том числе и по политическим причинам).

ЕС стремится хранить данные своих пользователей в пределах своих границ. В правилах говорится, что только компании ЕС и граждане ЕС могут обрабатывать его. Если рассматривать это в перспективе, то это очень похоже на то, что применяет Китай.

В банках и финансовых учреждениях действуют самые строгие правила. Во многих беседах о продажах, которые я вел в рамках своих проектов искусственного интеллекта, дела заходили в тупик, когда компании заявляли, что не могут сделать данные анонимными или у них нет достаточно хороших политик для безопасного обмена пользовательскими данными.

Но эта ситуация также создает нишу для продуктов, работающих локально. У нас может быть продукт искусственного интеллекта, который может работать в центре обработки данных клиента, и это открывает множество возможностей. Именно этот путь я выбрал для Sentimatic.

Польша в разработке искусственного интеллекта

Я излагаю свою местную точку зрения и различные мнения, которые услышал во время дискуссии.

Когда дело доходит до законов ЕС, Польша играет роль в процессе создания, но просто потому, что мы являемся государством-членом, поэтому мы как бы «вынуждены» делать это. Например, недавнее участие ЕС в Законе об искусственном интеллекте немного разочаровало — в нем приняли участие всего 12 человек из нашей страны, половина из частных компаний, а остальные напрямую связаны с Министерством цифровизации.

Польские граждане и компании не проявляют особого интереса к регулированию ИИ. Наше нынешнее отношение таково, что мы скорее получаем, чем активно вносим свой вклад. Кроме того, в Польше недостаточно сильных стартапов в области искусственного интеллекта. Мы рискуем отстать от других европейских стран.

С другой стороны, есть несколько стартапов в области искусственного интеллекта, таких как Eleven Labs, которые преуспевают. Мы проводим много исследований в области ИИ, но превратить их во что-то коммерческое — непростая задача. В таких местах, как PARP (правительственное агентство), есть деньги на проекты искусственного интеллекта, но требуемая документация огромна, поэтому вам придется подумать, готовы ли вы взять на себя большой бюрократический риск.

Я думаю, что хотя до сих пор мы (как и польские инженеры) в основном работали с компаниями Западной Европы и США, мы многому научились. Проявив немного оптимизма, мы можем использовать этот опыт и деньги, чтобы понять, как построить нашу сцену искусственного интеллекта. Поэтому, конечно, мне любопытно, что будет дальше. И рад внести свой вклад.

Что следует сделать, чтобы получить максимальную отдачу от разработки ИИ?

С быстрым развитием искусственного интеллекта легко упустить различные будущие возможности. Вот о чем, на мой взгляд, полезно подумать, чтобы получить максимальную пользу от этого технологического прорыва в контексте этой дискуссии:

Обеспечение финансирования:

  • Изучите частные и государственные инициативы для финансирования ваших проектов в области искусственного интеллекта.
  • Помните о последствиях получения финансирования. Как специалист, вы также можете запустить небольшой продукт.

Будьте осторожны:

  • Будьте в курсе новых решений искусственного интеллекта, но не поддавайтесь шумихе.
  • Следите за правительственными постановлениями, которые могут повлиять на ваши права и бизнес.

Ищем возможности работы:

  • Ищите новые роли в индустрии искусственного интеллекта и найдите свою нишу.
  • Используйте инструменты ИИ для оптимизации задач, поскольку компании все еще пытаются интегрировать ИИ.

Мысли о конфиденциальности:

  • Защитите свои данные, применив настройки конфиденциальности в приложениях чата с искусственным интеллектом. Платите за то, чтобы ваши данные не использовались для обучения.

Баланс персонализации и автоматизации:

  • Используйте ИИ для создания контента, но не напрямую. Быть вдохновленным. Получите критику. Всегда повышайте ценность.
  • Всегда проверяйте качество и актуальность контента, созданного ИИ.
  • Относитесь к инструментам искусственного интеллекта с осторожностью: они совершают ошибки с поразительной уверенностью.

Выводы

Развитие ИИ неизбежно. Лучше подготовиться к этому, чем избегать темы или угрожать обществу возможной опасностью новых технологий. Эта технологическая революция может отличаться от других, но разжигатели страха были среди нас с самого начала человечества. Конечно, необходимы правила, и нам нужно защитить общество от коллапса, вызванного искусственным интеллектом, но решения должны основываться на фактических данных, а не на страхе.

С моей личной точки зрения, я надеюсь, что Польша станет более активной в принятии законов об искусственном интеллекте, и я внимательно слежу за появлением любых новых правил, которые могут повлиять на меня лично и профессионально.

Я думаю, лучшее, что мы можем сделать сейчас, — это заняться самообразованием и попытаться извлечь из всего этого максимум пользы. Глупо упускать из виду некоторые возможности и не использовать весь потенциал (генеративный) ИИ.

Твои мысли? Больше беспокоитесь или взволнованы? Регулирование: чушь или необходимость?

Подпишитесь на мой профиль, указав свой адрес электронной почты слева, и будьте в курсе моих статей!

Не забудьте подписаться на меня в Твиттере @horosin_ и подписаться на информационный бюллетень, где вы найдете больше советов и идей!

Если у вас нет Twitter, вы также можете подписаться на меня в LinkedIn.


Также опубликовано здесь.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE