OpenAI переключает внимание на сверхинтеллект в 2025 году
7 января 2025 г.OpenAI объявила, что ее основное внимание в следующем году будет сосредоточено на разработке «суперинтеллекта», согласно сообщению в блоге Сэма Альтмана. Это было описано как ИИ с возможностями, превосходящими человеческие.
Хотя текущий набор продуктов OpenAI обладает широким спектром возможностей, Альтман заявил, что суперинтеллект позволит пользователям выполнять «что угодно еще». Он выделяет ускорение научных открытий в качестве основного примера, что, по его мнению, приведет к улучшению общества.
«Сейчас это звучит как научная фантастика, и даже говорить об этом немного безумно. Это нормально — мы уже были там раньше и не против оказаться там снова», — написал он.
Изменение направления было вызвано уверенностью Альтмана в том, что его компания теперь знает, «как создать ИИОН в том виде, в котором мы его традиционно понимаем». ИИОН, или искусственный интеллект общего назначения, обычно определяется как система, которая соответствует человеческим возможностям, тогда как сверхинтеллект превосходит их.
СМ.: Sora от OpenAI: все, что вам нужно знать
Альтман уже много лет следит за сверхразумом, но существуют опасения
OpenAI уже несколько лет ссылается на сверхинтеллект, обсуждая риски систем ИИ и их соответствие человеческим ценностям. В июле 2023 года OpenAI объявила, что нанимает исследователей для работы над сдерживанием сверхинтеллектуального ИИ.
Сообщается, что команда выделит 20% от общей вычислительной мощности OpenAI на обучение того, что они называют исследователем автоматизированного выравнивания человеческого уровня, чтобы поддерживать будущие продукты ИИ в соответствии. Опасения по поводу сверхразумного ИИ возникают из-за того, что такая система может оказаться неуправляемой и может не разделять человеческие ценности.
«Нам нужны научные и технические прорывы, чтобы управлять и контролировать системы ИИ, которые намного умнее нас», — написали в то время в своем блоге руководитель отдела согласования OpenAI Ян Лейке и соучредитель и главный научный сотрудник Илья Суцкевер.
SEE: OpenAI и Anthropic подписывают соглашения с Институтом безопасности искусственного интеллекта США
Однако спустя четыре месяца после создания команды в другом сообщении компании говорилось, что они «все еще не знают, как надежно управлять и контролировать сверхчеловеческие системы искусственного интеллекта», и не имеют способа «предотвратить выход (сверхразумного искусственного интеллекта) из-под контроля».
В мае команда безопасности суперинтеллекта OpenAI была расформирована, и несколько старших сотрудников ушли из-за опасений, что «культура безопасности и процессы отошли на второй план по сравнению с блестящими продуктами», включая Яна Лейке и соруководителя команды Илью Суцкевера. По данным Wired, работа команды была поглощена другими исследовательскими усилиями OpenAI.
Несмотря на это, Альтман подчеркнул важность безопасности для OpenAI в своем сообщении в блоге. «Мы по-прежнему считаем, что лучший способ сделать систему ИИ безопасной — это итеративно и постепенно выпускать ее в мир, давая обществу время адаптироваться и развиваться вместе с технологией, извлекая уроки из опыта и продолжая делать технологию более безопасной», — написал он.
«Мы верим в важность того, чтобы быть мировыми лидерами в исследованиях в области безопасности и выравнивания, а также в необходимость направлять эти исследования с учетом отзывов от реальных приложений».
Путь к сверхразуму может быть открыт еще много лет назад
Существуют разногласия относительно того, сколько времени пройдет до достижения сверхразума. В сообщении в блоге от ноября 2023 года говорилось, что он может развиться в течение десятилетия. Но почти год спустя Альтман сказал, что это может произойти «через несколько тысяч дней».
Однако Брент Смолински, вице-президент IBM и глобальный руководитель отдела технологий и стратегии данных, в сообщении компании от сентября 2024 года заявил, что это «полное преувеличение». «Я не думаю, что мы даже находимся в нужном почтовом индексе, чтобы достичь сверхразума», — сказал он.
ИИ по-прежнему требует гораздо больше данных, чем человек, чтобы освоить новые возможности, его возможности ограничены, и он не обладает сознанием или самосознанием, что Смолински рассматривает как ключевой показатель сверхинтеллекта.
Он также утверждает, что квантовые вычисления могут быть единственным способом, которым мы можем разблокировать ИИ, превосходящий человеческий интеллект. В начале десятилетия IBM предсказала, что квантовые вычисления начнут решать реальные бизнес-задачи до 2030 года.
SEE: Прорыв в области квантовых облачных вычислений гарантирует их безопасность и конфиденциальность
Альтман прогнозирует, что агенты ИИ присоединятся к рабочей силе в 2025 году
Агенты ИИ — это полуавтономные генеративные ИИ, которые могут объединяться или взаимодействовать с приложениями для выполнения инструкций или принятия решений в неструктурированной среде. Например, Salesforce использует агентов ИИ для звонков лидам по продажам.
В конце года TechRepublic предсказал, что использование агентов ИИ резко возрастет в 2025 году. Альтман вторит этому в своем сообщении в блоге, говоря: «Мы можем увидеть, как первые агенты ИИ «войдут в состав рабочей силы» и существенно изменят результаты деятельности компаний».
СМОТРИТЕ: IBM: корпоративные ИТ-отделы сталкиваются с неизбежной революцией агентов ИИ
Согласно исследовательской работе Gartner, первыми доминантами отрасли станут разработчики программного обеспечения. «Существующие помощники по кодированию с использованием ИИ достигают зрелости, а агенты с использованием ИИ обеспечивают следующий набор дополнительных преимуществ», — пишут авторы.
Согласно отчету Gartner, к 2028 году 33% корпоративных программных приложений будут включать агентский ИИ, что выше, чем менее 1% в 2024 году. К этому году пятая часть взаимодействий в интернет-магазинах и не менее 15% повседневных рабочих решений будут осуществляться агентами.
«Мы начинаем выходить за рамки этого, стремясь к сверхинтеллекту в истинном смысле этого слова», — писал Альтман. «Мы совершенно уверены, что в ближайшие несколько лет все увидят то, что видим мы, и что необходимость действовать с большой осторожностью, при этом максимально увеличивая общую выгоду и расширение прав и возможностей, очень важна».
Оригинал