Скоро стартует большое мероприятие по запуску OpenAI – так что же мы можем ожидать увидеть? Если этот слух верен, то появится мощная модель искусственного интеллекта следующего поколения.

Скоро стартует большое мероприятие по запуску OpenAI – так что же мы можем ожидать увидеть? Если этот слух верен, то появится мощная модель искусственного интеллекта следующего поколения.

13 мая 2024 г.

Слухи о том, что OpenAI работает над чем-то важным, множатся в последнее время. последние несколько недель, и генеральный директор Сэм Альтман сам имеет перенесено в X (ранее Twitter), чтобы подтвердить, что это не будет GPT-5 (следующая итерация революционной серии больших языковых моделей) или поисковая система, способная конкурировать с Google. Новый отчет, последний в этой саге, предполагает, что OpenAI, возможно, собирается представить более совершенную модель искусственного интеллекта со встроенной обработкой звука и изображения.

OpenAI находится в авангарде гонки ИИ, стремясь первой реализовать программный инструмент, который максимально приближен к общению с людьми, способный разговаривать с нами, используя звук, а также текст, а также способен распознавать изображения и предметы.

Отчет с подробным описанием этой предполагаемой новой модели представлен из The Information, в котором беседовали с двумя анонимными источниками, которым, по-видимому, были показаны некоторые из этих новых возможностей. Они утверждают, что новая модель имеет лучшее логическое обоснование, чем те, которые в настоящее время доступны общественности, и способна преобразовывать текст в речь. Ничто из этого не является чем-то новым для OpenAI как такового, но новым является то, что все эти функциональные возможности объединены в, по слухам, мультимодальную модель.

Мультимодальная модель — это модель, которая может понимать и генерировать информацию в нескольких модальностях, таких как текст, изображения, аудио и видео. GPT-4 также является мультимодальной моделью, которая может обрабатывать и создавать текст и изображения, и эта новая модель теоретически добавит аудио в список своих возможностей, а также лучшее понимание изображений и более быстрое время обработки.

Генеральный директор OpenAI Сэм Альтман посещает Форум революции искусственного интеллекта в Нью-Йорке, США — 13 января 2023 г.» src=

(Изображение предоставлено: Shutterstock/photosince)

Большая картина, которую имеет в виду OpenAI

В информации описывается видение Альтмана продуктов OpenAI в будущем, включающее разработку высокочувствительного ИИ, который будет работать как вымышленный ИИ в фильме «Она». Альтман представляет себе цифровых помощников искусственного интеллекта с визуальными и звуковыми способностями, способными достигать того, что пока невозможно, и с такой быстротой реагирования, которая позволила бы таким помощникам, например, выступать в качестве наставников для студентов. Или идеальный помощник в навигации и путешествиях, который может мгновенно предоставить людям самую актуальную и полезную информацию об их окружении или текущей ситуации.

Эту технологию также можно использовать для улучшения существующих голосовых помощников, таких как Apple. Siri, а также создать более совершенных агентов по обслуживанию клиентов на базе искусственного интеллекта, способных, например, определять, когда человек, с которым они разговаривают, саркастичен.

По словам тех, кто имеет опыт работы с новой моделью, OpenAI сделает ее доступной для платных подписчиков, хотя точно неизвестно, когда. Судя по всему, OpenAI планирует включить новые функции в бесплатную версию своего чат-бота ChatGPT, в конце концов.

Сообщается, что OpenAI также работает над тем, чтобы сделать новую модель более дешевой в эксплуатации, чем ее самая продвинутая модель, доступная сейчас, GPT-4 Turbo. Говорят, что новая модель превосходит GPT-4 Turbo, когда дело доходит до ответов на многие типы запросов, но, по-видимому, она все еще склонна к галлюцинациям - распространенной проблеме таких моделей.

Компания владеет сегодняшнее мероприятие в 10:00 по тихоокеанскому времени / 13:00 по восточному времени / 18:00 по британскому стандартному времени (или в 3:00 по австралийскому стандартному времени во вторник, 14 мая в Австралии), на котором OpenAI сможет просмотреть эту усовершенствованную модель. Если это произойдет, это окажет серьезное давление на одного из крупнейших конкурентов OpenAI, Google.

Google проведет свою собственную ежегодную конференцию разработчиков I/O 2024 14 мая, и подобное крупное объявление может сильно повлиять на все, что Google может раскрыть, особенно когда речь идет об усилиях Google в области искусственного интеллекта, Gemini.

ВАМ ТАКЖЕ МОЖЕТ ПОНРАВИТЬСЯ


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE