Политика искусственного интеллекта: от приостановки к регулированию, все дело в завоевании сердец и умов людей
4 мая 2023 г.«Письмо» было только началом. Добро пожаловать на политическое шоу ИИ. Возьмите попкорн или, что еще лучше, выходите на ринг.
<цитата>«На днях я получил письмо от ~~правительства~~ Future of Life Institute
Я открыл и прочитал, там написано, что они лохи
Они хотели, чтобы я был их армией или кем-то еще
Представь, что мне наплевать, я сказал никогда
Вот земля, которой наплевать
О таком брате, как я и я, потому что они никогда не были
Я не был с этим, но как раз в ту же минуту это пришло мне в голову
У лохов была ~~авторитет~~ сила”
Black Steel In The Hour Of Chaos Lyrics by Public Enemy
Связь между Public Enemy и состоянием ИИ сегодня может быть неочевидна. Но если вы замените «правительство» на «Институт будущего жизни» и «авторитет» на «власть», эти тексты песен могут стать неплохой метафорой того, что происходит с ИИ сегодня.
«Письмо», как его стали называть в Твиттере, представляет собой Открытое письмо, составленное Future of Life. Life Institute (FLI) и подписано постоянно растущим числом людей. Он призывает приостановить обучение моделей ИИ крупнее GPT-4, чтобы «разработать и внедрить набор общих протоколов безопасности для расширенного проектирования и разработки ИИ».
В письме FLI упоминается, что «исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными». Заявление, с которым мало кто не согласится, в том числе люди, которые выразили обоснованную озабоченность по поводу «Письма».
Я тоже подписал «Письмо». Когда я это сделал, у него было менее 1000 подписавшихся. Сегодня у него около 50 000 согласно в FAQ FLI. Я не подписал, потому что я полностью согласен с FLI или его оформлением – далеко не так. У меня также есть оговорки по поводу приведенного выше заявления, и я очень осознаю и критически отношусь к так называемой рекламе ИИ.
Я подписал «Письмо», ожидая, что оно привлечет внимание и вызовет очень нужный разговор, и это произошло. Насколько я помню, отрицательная реакция на ИИ вызвала столь горячие споры только в 2020 году. Это было время, когда этика-исследование-бумага-форсированный-аут-тимнит-гебру/">Google уволила ряд исследователей, которые выразили обеспокоенность практикой создания все более крупных языковых моделей ИИ в статье, известной как «Стохастические попугаи». .
Конечно, 2,5 года — это целая жизнь в ИИ. Это было до ChatGPT, до Прорыв ИИ в мейнстрим. Но это не обязательно означает, что сегодня эти вопросы широко известны, даже если они горячо обсуждаются.
Институт будущего жизни и TESCREAL
В первой строке критики «Письма» упоминаются его происхождение и планы людей, составивших и подписавших его, и это правильно. Действительно, Институт будущего жизни — это эффективный альтруизм, долгосрочный организация.
В двух словах, это означает людей, которых больше беспокоит гипотетическое техноутопическое будущее, чем реальные проблемы, которые вызывает использование технологий сегодня. Несмотря на то, что часто задаваемые вопросы FLI также пытаются устранить нынешний вред, почему-то Питер Тиль и Илон Маск ссылаются на «концентрацию экономической мощи» как на проблему, что звучит не очень убедительно.
Философ и историк Эмиль П. Торрес, который ранее был инсайдером лонтермизма, придумал аббревиатуру TESCREAL для описания лонтермизма и свою семью идеологий. Утверждения о том, что нам нужно отправиться на Марс, чтобы спасти человечество от уничтожения Земли, или что нам нужен сверхсовременный ИИ для решения наших проблем, красноречиво говорят о мышлении TESCREAL.
Эти люди не заботятся о ваших интересах, и я, конечно, не видел себя подписывающим письмо, составленное FLI и подписанное совместно с Илоном Маском. Тем не менее, это также трудно не сделать. Количество финансирования, влияния и известности, которые получают Илон Маск, трудно игнорировать даже их критикам.
Финансирование и цели
Пример: DAIR, Исследовательский институт распределенного ИИ, созданный специалистом по этике ИИ Тимнитом Гебру. Гебру был одним из тех, кто был уволен из Google в 2020 году. DAIR была основана в 2021 году чтобы сделать работу, которую хочет делать Гебру.
DAIR «исходит из убеждения, что ИИ не является неизбежным, его вред можно предотвратить, и когда его производство и развертывание включают различные точки зрения и преднамеренные процессы, он может быть полезным». Звучит похвально.
DAIR наняла несколько исследователей для работы над своей миссией и привлекла 3,7 миллиона долларов США от Фонда Форда, Фонда Макартура, Центра Капора, Фонда Джорджа Сороса «Открытое общество» и Фонда Рокфеллера. Исследования должны как-то финансироваться. Но, возможно, стоит задуматься и об источнике этого финансирования.
Гебру знает о загадке и говорил о «миллиардерах из крупных технологических компаний, которые сейчас также занимаются крупной благотворительностью». Предположительно, основатели DAIR считают, что использование этих средств для целей, которые они считают похвальными, может быть более важным, чем происхождение средств. Но должен ли этот ход мыслей быть зарезервирован исключительно для DAIR?
DAIR опубликовал «Заявление перечисленных авторов Stochastic Parrots по поводу письма о паузе ИИ» . В этом в остальном весьма вдумчивом заявлении его авторы пишут, что они «встревожены количеством профессионалов в области вычислительной техники, подписавших это письмо, и тем положительным освещением, которое оно получило в СМИ».
Мотивы, вред и политика
Хотя я знаю и работал с некоторыми специалистами, подписавшими письмо FLI, я не могу говорить ни за кого, кроме себя. Но я думаю, что было бы справедливо дать им презумпцию невиновности.
Некоторые, такие как Гэри Маркус, заявили, что, хотя они не полностью поддерживают «Письмо», они подписали для достижения конкретной цели они считают очень важным. Знакомо?
Люди ставят под сомнение мотивы подписантов , утверждая, что некоторые могут просто захотеть остановить тех, кто в настоящее время возглавляет ИИ, чтобы наверстать упущенное. Показательный пример: Илон Маск создает новую компанию искусственного интеллекта под названием x.ai. И OpenAI теперь говорит, что, возможно, все более крупные модели ИИ - это не путь.
Но не все подписавшиеся руководствуются личным интересом. И вред от развертывания систем искусственного интеллекта сегодня вполне реален.
Эксплуатация рабочих и массовая кража данных; воспроизведение систем угнетения и опасность для нашей информационной экосистемы; концентрация власти. Вред, на который ссылается DAIR, вполне реален.
Власть имущие либо активно продвигают, либо бездумно задействуют их с помощью ИИ. Создание коалиций для поднятия проблем, привлечения внимания и подрыва Марш Big Tech — это прагматичный поступок.
Если это звучит как политика, то потому, что так оно и есть, как люди отметили. Это означает, что речь идет о «мнениях, страхах, ценностях, отношениях, убеждениях, перспективах, ресурсах, стимулах и откровенных странностях», а также о деньгах и власти.
Это то, о чем всегда было. Гебру не новичок в этой игре: он пытался изменить ситуацию изнутри Google, прежде чем приступить к игре влияния извне.
Влияние СМИ и исследования
Призыв FLI ввести мораторий на использование ИИ был не первым, но именно он получил поддержку. Быть прагматичным призывало к подписанию, даже критическому. Именно это Маркус и сделал, несмотря на то, что предложил мораторий перед FLI. Это письмо не привлекло подписантов типа Илона Маска или «положительного освещения в СМИ», которое DAIR увидело в письме FLI.
Это правда, что кое-что из этого было. Некоторые СМИ всегда стремятся разыграть карту сенсаций, другие открыто вдохновлены ТЕСКРЕАЛ. Но это не значит, что все освещение было положительным. В любом случае влияние СМИ является частью игры.
Но как насчет исследований? Лидеры DAIR и AI, такие как Маркус, Эндрю Нг и Янн ЛеКун, упоминают исследования. Нг и ЛеКун считают, что исследования являются частью решения, позволяющего привнести «новые идеи, которые сделают системы [ИИ] намного более управляемыми».
Это олицетворяет широко распространенное мнение, которое, по-видимому, сводится к проблемам в основном технического характера. Если вы придерживаетесь этого убеждения, то имеет смысл также полагать, что для преодоления проблем необходимы дополнительные исследования для поиска решений.
Однако, как показывает инцидент со стохастическими попугаями, дело никогда не в отсутствии решений. Это больше касается программ, политики, денег и власти.
Монополии и исправление ИИ
Маркус отмечает, что больше всего в ИИ его пугают люди. Он выступает за наведение мостов и не зацикливается на одном вопросе. В этом духе важно не просто сосредоточиться на создании лучшего ИИ посредством исследований. Крайне важно обеспечить, чтобы люди имели к нему доступ.
В конечном счете, иметь доступ к лучшему браузеру, чем Internet Explorer, было важнее, чем сам браузер. Если это было верно для войн браузеров 90-х, это также может рассказать нам кое-что об ИИ сегодня. В этом суть аргумента Мэтта Столлера.
Столлер, убежденный антимонополист, считает обращение Google и Microsoft к ИИ двумя сторонами одной медали. Столлер считает, что заявление Google о том, что искусственный интеллект представляет угрозу ее доминированию в поиске, является попыткой ввести в заблуждение антимонопольное расследование против Google.
Столлер утверждает, что «мы, как демократическое общество, должны сказать нашим законодателям, что мы не хотим, чтобы эти фантастические научные знания контролировались немногими». Он прав, призывая к бдительности в отношении больших технологий.
Некоторые исследователи ИИ и предприниматели работают над созданием наборы данных и модели которые открыты для всех. Это здорово, но нам нужно помнить о метафоре браузера. Наборы данных и модели позволяют разработчикам создавать вещи. Но если этим вещам не будет места на полках из-за того, что Big Tech их закроет, они не принесут большой пользы.
Быть экспертом в области ИИ помогает. Но знание того, о чем вы говорите, не обязательно означает, что вас услышат, как показывает случай с Мелани Митчелл и ее разговор с сенатором Крисом Мерфи.
Митчелл проделал большую работу по разоблачению шумихи вокруг ИИ. Создание союзов с людьми, которые могут что-то сделать с ИИ... не так много. Иногда нужно вмешаться, и чтобы этого добиться, нужны альянсы.
Скромное предложение
Эксперт в области искусственного интеллекта или нет, есть пара очень важных вещей, которые может сделать каждый из нас.
Во-первых, поймите природу монополистической власти, которую проявляют ChatGPT в мире. Чем больше мы используем эти системы Big Tech, тем больше мы способствуем их улучшению и тем больше мы подпитываем мощь Big Tech. На этот раз не попадаемся на эту удочку а>. Давайте использовать альтернативы, которых становится все больше.
Во-вторых, займитесь политикой ИИ. Отправьте письмо сенатору, соберите подписи, пройдите маршем по улицам или создайте Twitter Space, чтобы обсудить международное агентство по искусственному интеллекту – что бы ни работало. Но делайте что-нибудь или, по крайней мере, будьте в курсе того, что делают другие. Продолжать вести бизнес как обычно с головокружительной скоростью ИИ — это прямой путь к катастрофе.
Мы уже находимся в ситуации, когда масштаб власти в значительной степени сфальсифицирован в пользу больших технологий. Ничего не делать означает оставаться нейтральным в ситуации несправедливости, то есть выбирать сторону угнетателя. Мы уже находимся в ситуации, когда масштаб власти в значительной степени сфальсифицирован в пользу больших технологий.
:::информация Версия этой статьи появляется здесь.
:::
Оригинал