Искусственное обсуждение искусственного интеллекта

Искусственное обсуждение искусственного интеллекта

30 марта 2023 г.

Чтобы по-настоящему говорить об искусственном интеллекте, нам также придется использовать термин "машинное обучение". ИИ — это то, для чего люди используют машинное обучение. Машинное обучение — это основа ИИ, математика и алгоритмы, лежащие в его основе.

Они не совпадают, но их диаграмма Венна достаточно перекрывается, поэтому для наших целей это не имеет большого значения.

По сути, есть математика, описывающая кривые. Помните параболы? Вещи, похожие на подкову, с концами?

Вы можете смоделировать массу вещей в реальной жизни с помощью уравнений кривых, и, в частности, с абсурдным их количеством, наслоенным абсурдно сложными способами. Вычислительная мощность сейчас дешевая. Это плюс возможность Интернета создавать огромные объемы обучающих данных — отличное сочетание.

Люди, которые занимаются этим моделированием, обычно пытаются найти какое-то оптимальное значение сразу для многих кривых — конечной точки, вершины или основания параболы, конечного конца подковы.

Некоторые кривые обычно более важны для конечного результата, чем другие; вы хотите быть очень точным в оптимизации одних и можете быть более расплывчатыми в оптимизации других.

Вы можете заставить компьютер изучить правильные «веса», чтобы надевать разные. Вы можете сузить сами уравнения моделирования.

В конце концов, компьютер находит оптимальный набор значений таким образом, чтобы оптимизировать некоторый конечный результат. Это «магия» (жирные кавычки) машинного обучения.

Вы можете получить входные данные — словесную подсказку, набор данных о ваших предпочтениях — и сделать вывод, который в некотором измерении довольно реалистичен — рисунок, голос знаменитости, рекомендацию песни.

Вычислительная мощность может быть дешевой, но платить людям за выполнение всей этой математики или даже за программирование этой математики в компьютер становится дорого.

Умные люди придумали, как заставить машины выполнять большую часть этой работы за нас: есть способы заставить машины «путешествовать» по уравнениям кривых и следовать им «вниз».

Это настроило ваши результаты Google на пару десятилетий. С тех пор началась гонка вооружений видеокарт. Был AlphaGo, который обыграл лучшего в мире игрока в го в 2015 году.

Были собаки-роботы Boston Dynamics. Были такие приложения, как Shazam и Siri. Были программы для рисования, такие как DALL-E и Midjourney.

Все это круто, но деньги далеко не ушли от поисковой выдачи. Он быстро влился в смежную задачу: показывать людям вещи, которые им понравятся, в социальных сетях. Вещи, на которые вы будете смотреть, и реклама, на которую вы можете нажать.

Тем временем более широкая концепция ИИ была одним из основных элементов научной фантастики несколько дольше, и она взаимодействует с этим «выскакиванием», которое эта область испытала за последние пять-десять лет. Мы видим этот экспоненциальный рост и думаем о «Терминаторе».

Люди, продающие ИИ, рады позволить нам так думать, пропуская некоторые ключевые факты, чтобы мы поверили их заявлениям «да! сравните нас со Скайнетом из фильмов Терминатор! [Безумное изобретение № 4852], которое производит моя компания, появится максимум через 5-10 лет!»

Я понимаю, почему люди видят, по общему признанию, быстрый рост того, что он может делать, и думают, что мы действительно находимся на грани осознания этого.

Даже если эта пропасть больше в масштабе 200 лет, а не 2 или 20, это довольно значительная вещь по сравнению со временем, в течение которого мы, люди, живем.

Мы действительно могли бы в таком временном масштабе преодолеть точку, когда программы ИИ будут просто «автозаполнением-понятий-вместо-слов», как в ChatGPT или Аргумент Серла о китайской комнате.

Мы можем поместить нужные программы в правильное биологически вдохновленное оборудование и действительно имитировать человеческий разум, поднимая вопросы человечества. и разум, воспитанный Филипом К. Диком и другими.

Если и когда ИИ действительно сможет соперничать с нашим эмоциональным и перцептивным интеллектом, обладая непрерывным сознанием, подобным нашему, а не простыми навыками в определенных областях, нас ждет расплата.

Это будет не сегодня, не завтра, не на следующей неделе и даже не в следующем году.

Массивно параллельные (в данном случае, работающие одновременно) нейронные связи в нашем мозгу — это, так сказать, ров нашего замка. Это то, что делает «искусственный общий интеллект» годами или, что более вероятно, десятилетиями.

Глубокое обучение, ветвь машинного обучения, стоящая за многими его недавними достижениями, — это крутое название для статистики и исчисления, имитирующих отношения ввода-вывода, которые мы видим в реальном мире. Это не означает — по крайней мере пока — для компьютеров, что они «глубоко изучают» что-либо.

Каким бы впечатляющим это ни было, математические вычисления происходят в компьютере способом, принципиально отличающимся от того, как «математика происходит» в вашем мозгу.

Мозг потребляет поразительно мало электроэнергии. Центры обработки данных используют шокирующе большие объемы. Последние являются машинами грубой силы. Они обрабатывают меньше потоков и менее гибко, чем мы; каждая такая быстрая.

Он рассчитывает и сужает возможности так быстро, что даже лучшие игроки в шахматы и го не могут за ним угнаться.

Его ахиллесова пята заключается в том, что он требует довольно четко определенных задач, достаточно чистых входных и выходных данных. Настольная игра. Робот не падает. Он не может справиться с абсурдно разнообразным и быстро меняющимся набором «оптимизационных» задач одновременно, постоянно переключаясь между ними.

Какими бы ни были сильные и слабые стороны ИИ в отдельных областях, он не может связывать многие области, как это делаем мы, меняя фокус по мере необходимости, адаптируя и перенося поведение между областями. Он не может сделать это на уровне человеческого малыша.

Большой целью в исследованиях ИИ было «однократное» или «несколько выстрелов» обучение, что означает отсутствие необходимости в больших наборах данных и времени обучения, чтобы научиться что-то делать. Здесь был успех; он все еще сильно отстает от нашего мозга.

Автоматически мы хороши в обучении за несколько попыток во многих областях и с раннего возраста. Мы быстро изучаем правила и стратегии практически без обучающих данных. Вы можете показать ребенку, как пользоваться iPad, кататься на велосипеде, завязывать шнурки на ботинках или объяснить мораль истории (а не только краткое изложение сюжета).

Вы едва ли сможете научить компьютер хорошо выполнять одну из этих задач. Если бы он мог выполнять когнитивные рассуждения, передвигаться и взаимодействовать с людьми, не вызывая ужаса, мы бы уже использовали его для всего этого.

У предприятий аллергия на беспорядочный человеческий труд, и они всегда стремятся к более дешевым машинным версиям. Они бы устроили это. Нет.

Лаборатории вычислительной нейробиологии в университетах заинтересованы в моделировании внутреннего мышления и рассуждений нашего мозга о мире. Модели не смешивают фотографии двух людей, чтобы увидеть, как будут выглядеть их дети.

Скорее всего, в течение десятилетий только мы, люди, сможем ориентироваться в мире нечеткими, адаптивными, вырабатывающими стратегии способами «вместе на лету».

Эта общая способность познавать мир и ориентироваться в нем, исходя из эмоций и опыта, не является чем-то, что технологическая индустрия сочла полезным при создании ИИ.

До сих пор в машинном обучении применялась редкая имитация реального мозга. Копировать мозг было не нужно, а значит выгодно.

Вместо этого компании (и университеты, которые они финансируют) оптимизировали более поддающиеся измерению вещи: количество кликов в ленте социальных сетей или точность удара дрона.

Если он и пытался подражать нам, то это был нацеленный на прибыль удар по получению результатов некоторых вещей, которые может делать мозг. В компьютерном зрении используются некоторые впечатляющие и интересные формы распознавания образов.

Все это для того, чтобы показать, что ИИ не является ни «волшебством, которое заставляет компьютеры оживать», ни «волшебством, которое некоторые люди могут делать с компьютерами». Это грубая математика. Знания, смешанные с вычислительной мощностью. Использовать. Большинство моделей ИИ обрабатывают цифры для одной цели: зарабатывания денег.

Люди, владеющие этим золотым гусем, этим мощным инструментом, экономически заинтересованы в том, чтобы заявить, что ИИ не за горами и не сделает что-то космическое или апокалиптическое, чтобы скрыть более реальные, приземленные, менее привлекающие внимание вещи, которые он делает для их бизнеса.

У них есть личная заинтересованность в том, чтобы заявить, что в ближайшие 1, 5, 10 или 15 лет он будет способен на определенные большие дела. Это сроки, которые нравятся инвесторам. Полноценные беспилотные автомобили — это лишь один из первых провалов, которые мы увидим на этом фронте.

Высокие научно-фантастические предпосылки и обещания создают хорошие фильмы. Из машины, Она, Бегущий по лезвию. Это не значит, что они верны.

<цитата>

Когда мы принимаем ИИ. Если разработчики считают свои продукты (1) неизбежными и (2) политически и экономически преобразующими, становится легко упустить из виду тот очевидный факт, что формы А.И. (например, в качестве чат-ботов! В качестве «поисковых систем»!) и способы их использования (т. е. рабочие места, которые они дополнят или заменят! Задачи, которые он упростит или усложнит!) зависят от политических и экономических условия, в которых он возникает.

Я не исключаю возможности, что мы стоим на краю пропасти — что мир, «неузнаваемо преобразованный» большими языковыми моделями, появится всего через несколько месяцев, как, кажется, полагает Пол Кристиано. Но основное практическое правило этого информационного бюллетеня заключается в том, что все меняется медленно и глупо, а не быстро и драматично, и правильный ИИ критика должна учитывать эту вероятность. На данный момент я полон негодования, обнаружив, что снова оказался в центре дискурса о технологии, в котором условия и рамки для обсуждения были более или менее полностью установлены частными компаниями, которые хотят получить прибыль от ее разработки и внедрения. .

— Макс Рид, Что критика в Facebook может научить нас критике ИИ

Давайте на секунду подведем итоги. Как исторически сложилось для нас, когда мы принимаем «условия и рамки для обсуждения», которые технократическая элита навязывает для обсуждения технических вопросов, будь то криптовалюта или банковское дело?

Сколько банковских кризисов, обрушивших экономику, произошло между реформами Рузвельта после Великой депрессии и 80-ми годами? Сколько с тех пор произошло после того, как Рейган их откатил?

Макс Рид цитирует прекрасную статью Harper Джо Бернштейна о как Facebook уже сделал это за кулисами; она внушила целому классу людей шаткую и все более несостоятельную модель эффективности собственной рекламы.

Тот факт, что финансовая пирамида основана на реальном продукте, не означает, что это не финансовая пирамида.

Важным моментом здесь является то, что технологии не «лучше», чем финансы, когда дело доходит до введения общественности в заблуждение относительно своих предложений. Это, пожалуй, хуже. Вы видели, что случилось с дешевыми анализами крови, коворкингами и блокчейном. Прекрасные отрасли запятнаны глупостью.

Посмотрите, как они убили моего мальчика.

Они все портят внутри, но так, что это затрагивает всех нас, потому что наши друзья и соседи покупаются на их чушь и позволяют им устанавливать условия обсуждения. Затем мы платим за их золотые парашюты.

Миллионы людей теряют средства к существованию в результате экономических событий, которых можно было бы избежать с помощью нескольких правильных правил. Сказка стара как мир.

Нам надлежит попробовать что-то новое с ИИ. Стоит дать себе в будущем свободу принимать разумные решения, основанные на надежной информации. Стоит узнать правду об этом. Принимая чужие прихоти по этому поводу за чистую монету, вы заплатите более высокую цену в будущем.

Люди успешно используют машинное обучение и глубокое обучение для самых разных целей — заставляют компьютеры распознавать лица, воспроизводить голоса и показывать людям контент, который заставит их прокручивать страницу.

Это использование не станет лучше или полезнее для нашей жизни, а не сделает некоторых людей очень богатыми, если мы не сделаем это так.

А пока, конечно, они могут быть очень интересными.

ИИ может быть использован во благо, во зло, просто странно или вообще во что угодно, в зависимости от человеческих условий. В настоящее время это просто означает, что все зависит от того, куда ведет мотив получения прибыли.

Большая часть опыта в области ИИ была захвачена компаниями, пытающимися выжать из нас доллары. Просто не так много денег на публичные, прозрачные, управляемые людьми усилия, направленные на то, чтобы сделать жизнь фундаментально лучше (ранее прерогатива правительства) или даже на моделирование мозга.

Это хлеб, зрелища и военные нужды. Такие условия заставляют ИИ и любую другую технологию развиваться в нужном направлении.

ИИ уже есть. Этот факт - вода под мостом. Говорить об этом, как о волшебстве, выгодно только тем людям, которые больше всего выигрывают от бреда об этом.

Приукрашивание ИИ громкими разговорами, в данном случае разговорами о судном дне, спекулированием на неосведомленном интересе людей к нему — это шаблон, который мы видели раньше.

«Theranos/WeWork/NFT изменят все». Поправочка: они могли сильно измениться. Вместо этого они перепродали себя. Обещали слишком много, но не выполнили.

Эту истерию вокруг ИИ, преувеличивающую как его возможности, так и риски, чтобы некоторые люди стали богаче, трудно отделить от людей, которые просто естественно заинтересованы в нем. Интересная штука с широким спектром применения.

Люди все равно купятся на него, как они это сделали с криптографией и NFT, и, возможно, в большей степени. Тем больше причин узнать правду об этом.

Если вы ничего не вынесете из этого поста, возьмите вот что: то, как мы используем ИИ друг на друге, в настоящее время является гораздо более насущной проблемой, чем что-либо о том, что ИИ становится сознательным. Подумайте об этом: если оно стало сознательным и хотело нам навредить, почему? Почему он может захотеть это сделать?

Разве не кажется совершенно очевидным, что то, как мы привнесем его в мир, окажет некоторое влияние на его отношение к человеческому роду?

Есть ли смысл доверять это и связанные с этим нарративы исключительно генеральным директорам и владельцам капитала, связанным с технологиями, группе с ужасным послужным списком в этом и доказано, что у нее более высокий уровень психопатии, чем у населения в целом?

Хотим ли мы, чтобы они отвечали за его использование, исследования и разработку вплоть до момента, когда он станет разумным, будь то в 2030 или 2230 году?

Как отметил Рид, разжигателям страха ИИ удобно, чтобы люди не думали об этом.

Они находят гораздо более удобным, чтобы этот факт оставался скрытым, чтобы они могли говорить о том, что его продвижение неизбежно, не стоит подвергать сомнению, а Сингулярность уже не за горами.

Здесь нет ничего неизбежного, кроме того, что люди делают неизбежным. Гориллы над этим не работают.

Если и когда появится искусственный общий интеллект, это будет вопрос астробиологии, инопланетной формы жизни. До этого момента это философия, история, гуманитарные науки. Сделаем ли мы его похожим на себя, по нашему образу, может быть, даже лучше нас?

Сделаем ли мы хуже, отражение наших самых социопатических наклонностей? Сумасшествие в том, что люди решают. Мы строители. Мы контролируем, насколько он чужой или человекоподобный.

За исключением, конечно, "мы" нет. Некоторые люди больше, чем другие. Мы в порядке с этим? Мы согласны с тем, кто эти люди? Согласны ли мы с тем, куда они направляют эту технологию?

Увидев то, что класс капиталовладельцев склонен «сделать неизбежным» — его прогнозы в других отраслях, его недальновидность, игнорирование фактов и стадный менталитет, которые привели к краху так много миллиардных предприятий, — некоторый скептицизм относительно того, они говорят об искусственном интеллекте.


Также опубликовано здесь


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE