Эмпирические результаты: анализ GPT-2 запоминания трансформатора и потери

Эмпирические результаты: анализ GPT-2 запоминания трансформатора и потери

22 июня 2025 г.

Аннотация и 1 введение

2 Связанная работа

3 модели и 3.1 ассоциативные воспоминания

3.2 трансформаторные блоки

4 Новая энергетическая функция

4.1 Слоистая структура

5 Потеря по перекрестной энтропии

6 Эмпирические результаты и 6.1 Эмпирическая оценка радиуса

6.2 Обучение GPT-2

6.3 Тренировка ванильных трансформаторов

7 Заключение и подтверждение

Приложение A. отложенные таблицы

Приложение B. Некоторые свойства энергетических функций

Приложение C. отложенные доказательства из раздела 5

Приложение D. Трансформатор Подробности: Использование GPT-2 в качестве примера

Ссылки

6 эмпирических результатов

Мы исследуем гипотезу относительно радиуса R в разделе 5 с использованием предварительно обученной модели средней GPT-2. Кроме того, мы тренируем различные небольшие модели GPT-2 и ванильные трансформаторные модели для анализа их потерь перекрестной энтропии.

6.1 Эмпирическая оценка радиуса

Figure 3: Cross-entropy loss of GPT-2 small model trained on (left) 100%, (middle) 1%, and (right) 0.1% of OpenWebText-9B dataset with a typical training time.

Авторы:

(1) Xueyan Niu, Theory Laboratory, Central Research Institute, 2012 Laboratories, Huawei Technologies Co., Ltd.;

(2) Бо Бай Байбо (8@huawei.com);

(3) Lei Deng (deng.lei2@huawei.com);

(4) Вэй Хан (harvey.hanwei@huawei.com).


Эта статья естьДоступно на ArxivПод CC BY-NC-ND 4.0 Лицензия.

1. Доступно на https://github.com/openai/gpt-2


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE