У OpenAI есть новая шкала для измерения того, насколько умными становятся их модели ИИ, что не так удобно, как хотелось бы.

У OpenAI есть новая шкала для измерения того, насколько умными становятся их модели ИИ, что не так удобно, как хотелось бы.

13 июля 2024 г.

OpenAI разработал внутреннюю шкалу для отображения прогресса своих большие языковые модели переходят к общему искусственному интеллекту (AGI), согласно отчету Bloomberg

AGI обычно означает ИИ с интеллектом, подобным человеческому, и считается основной целью разработчиков ИИ. В более ранних источниках OpenAI определял AGI как «высокоавтономную систему, превосходящую людей в большинстве экономически ценных задач». Это точка, намного превосходящая нынешние возможности ИИ. Эта новая шкала призвана обеспечить структурированную основу для отслеживания достижений и установления контрольных показателей в этом направлении.

Шкала, представленная OpenAI, разбивает прогресс на пять уровней или этапов на пути к AGI. ChatGPT и его конкурирующие чат-боты относятся к уровню 1. OpenAI утверждает, что находится на грани достижения уровня 2, который будет представлять собой систему искусственного интеллекта, способную сопоставлять человека с докторской степенью, когда дело доходит до решения основных проблем. Это может быть отсылкой к GPT-5, который генеральный директор OpenAI Сэм Альтман Повышение уровня

Идея уровня имеет смысл для OpenAI или любого разработчика. Фактически, комплексная структура не только помогает OpenAI внутри компании, но также может установить универсальный стандарт, который можно будет применять для оценки других моделей ИИ.

Тем не менее, достижение AGI произойдет не сразу. Предыдущие комментарии Альтмана и других сотрудников OpenAI предполагают всего лишь пять лет, но сроки значительно различаются среди экспертов. Объем необходимой вычислительной мощности, а также финансовые и технологические проблемы значительны.

Это помимо вопросов этики и безопасности, возникших в связи с AGI. Существует вполне реальная обеспокоенность по поводу того, что ИИ на этом уровне будет означать для общества. И недавние шаги OpenAI, возможно, никого не обнадеживают. В мае компания распустила свою команду по безопасности после ухода ее руководителя и соучредителя OpenAI Ильи Суцкевера. Исследователь высокого уровня Ян Лейке также ушел, сославшись на опасения, что культура безопасности OpenAI игнорируется. Тем не менее, предлагая структурированную структуру, OpenAI стремится установить конкретные ориентиры для своих моделей и моделей своих конкурентов и, возможно, помочь всем нам подготовиться к тому, что будет дальше.

Вам также может понравиться...


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE