Проблема не в искусственном интеллекте, но, по мнению одного из крестных отцов искусственного интеллекта, регулирование может оказаться серьезной проблемой.

Проблема не в искусственном интеллекте, но, по мнению одного из крестных отцов искусственного интеллекта, регулирование может оказаться серьезной проблемой.

23 декабря 2023 г.

ИИ развивается быстрее, чем мы могли себе представить, и некоторые опасаются, что вскоре он может стать умнее нас и выйти из-под контроля. Однако оказывается, что крестные отцы ИИ расходятся во мнениях, по крайней мере, по одному из этих пунктов.

С одной стороны, у нас есть бывший учёный Google доктор Джеффри Хинтон предупреждает, что мы движемся слишком быстро и ИИ может разрушить все: от рабочих мест до истины. С другой стороны, мы находим Янна Лекуна из Meta.

Оба учёных когда-то вместе работали над достижениями глубокого обучения, которые изменили мир искусственного интеллекта и вызвали шквал достижений в алгоритмах искусственного интеллекта и больших языковых моделях, которые привели нас к этому тяжелому моменту.

Ранее в этом году Хинтон выступил с предупреждением в газете The New York Times. Лауреат премии Тьюринга ЛеКун в значительной степени противостоял Хинтону и защищал развитие искусственного интеллекта в обширное интервью со Стивом Леви из Wired.

«Люди пользуются страхом перед этой технологией, и мы рискуем отпугнуть людей от нее», — сказал Лекун Леви.

Аргумент ЛеКуна, который в своей форме TLDR сводится к следующему: «Не волнуйтесь, используйте ИИ», распадается на несколько ключевых компонентов, которые могут или не могут заставить вас думать по-другому.

Открытость — это хорошо

Мне особенно понравился аргумент ЛеКуна об открытом исходном коде. Он сказал Леви, что если вы согласитесь с тем, что ИИ может в конечном итоге оказаться между нами и большей частью нашего цифрового опыта, то нет смысла контролировать его несколькими компаниями, занимающимися искусственным интеллектом. «Вы не хотите, чтобы эта система искусственного интеллекта контролировалась небольшим количеством компаний на западном побережье США», — сказал Лекун.

Итак, это парень, который работает главным научным сотрудником Меты по искусственному интеллекту. Meta (ранее Facebook) — крупная компания Западного побережья (которая недавно запустила собственную LLM LLAMA 2). Я уверен, что ЛеКун не упустил иронии, но думаю, что он, возможно, нацелился на OpenAI. Ведущий мировой поставщик ИИ (создатель ChatGPT и DALL-E и основной участник Microsoft's CoPilot) начиналась как открытая некоммерческая компания. Сейчас он получает большое финансирование от Microsoft (также крупной компании Западного побережья), и ЛеКун утверждает, что OpenAI больше не делится своими исследованиями.

Регулирование, вероятно, не главное

ЛеКан высказывался по поводу регулирования ИИ, но, возможно, не так, как вы думаете. По сути, он выступает против этого. Когда Леви спросил обо всем ущербе, который может нанести нерегулируемый и всемогущий ИИ, ЛеКун настаивал на том, что ИИ не только создаются с ограждениями, но и если эти инструменты используются в промышленности, им придется следовать ранее существовавшим и жестким правилам (подумайте фармацевтическая промышленность).

«Вопрос, который обсуждают люди, заключается в том, имеет ли смысл регулировать исследования и разработки в области ИИ. И я не думаю, что это так», — сказал Лекун Wired.

AGI не рядом

В последние месяцы было много разговоров о потенциале общего искусственного интеллекта (AGI), который может быть очень похож, а может и не очень похож на ваш собственный интеллект. Некоторые, в том числе Сэм Альтман из OpenAI, поверьте, это уже не за горами. ЛеКун, однако, не входит в их число.

Он утверждал, что мы даже не можем дать определение ОИИ, потому что человеческий интеллект — это не одно и то же. В этом он прав. Мой интеллект никоим образом не мог бы сравниться с интеллектом Эйнштейна или ЛеКуна.

Вы хотите, чтобы ИИ был умнее вас

По мнению ЛеКуна, нет никаких сомнений в том, что ИИ в конечном итоге станут умнее людей, но он также отмечает, что у них не будет такой же мотивации, как у нас.

Он сравнивает этих ИИ-помощников со «сверхумными людьми» и добавляет, что работа с ними может быть похожа на работу с суперумными коллегами.

Даже несмотря на весь этот интеллект, Лекун настаивает на том, что у этих ИИ не будет человеческих мотиваций и стремлений. Глобальное господство не будет для них проблемой просто потому, что они умнее нас.

ЛеКун не сбрасывает со счетов идею программирования в побуждении (заменяющую цель), но видит в этом «целеуправляемый ИИ», и поскольку частью этой цели может быть непреодолимое ограждение, меры безопасности будут встроены.

Чувствую ли я себя лучше? Является ли меньшее регулирование, больше открытого исходного кода и более активное использование посредничества ИИ путем вперед к более безопасному будущему? Может быть. ЛеКун определенно так думает. Интересно, разговаривал ли он в последнее время с Хинтоном?

Вам также может понравиться


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE