Использование LLMS для классификации вниз по течению: приглашение, вербализируйте, тренируется

Использование LLMS для классификации вниз по течению: приглашение, вербализируйте, тренируется

11 июня 2025 г.

Авторы:

(1) Горан Мурич, Inferlink Corporation, Лос -Анджелес, (Калифорния gmuric@inferlink.com);

(2) Бен Зал, Inferlink Corporation, Лос -Анджелес, Калифорния (bdelay@inferlink.com);

(3) Стивен Минтон, корпорация Inferlink, Лос -Анджелес, Калифорния (sminton@inferlink.com).

Аннотация и 1 введение

1.1 Мотивация

2 Связанная работа и 2,1 методы подсказки

2.2 Внутреннее обучение

2.3 модели интерпретируемость

3 Метод

3.1 Создание вопросов

3.2 Подсказка LLM

3.3. Сорбализация ответов и 3.4 Обучение классификатора

4 данные и 4.1 клинические испытания

4.2 Корпус независимости Каталонии и 4.3 Корпус обнаружения климата

4.4 Данные по медицинскому здоровью и 4.5 Данные Европейского суда по правам человека (ECTHR)

4.6 Набор данных Necure-Tos

5 экспериментов

6 результатов

7 Обсуждение

7.1 Последствия для интерпретации модели

7.2 Ограничения и будущая работа

Воспроизводимость

Подтверждение и ссылки

Вопросы, используемые в методе ICE-T

3.2 Подсказка LLM

LLMs представлены в два раза. Во -первых, им предложено получить набор вторичных вопросов Q, как описано в разделе 3.1. Во -вторых, для каждого документа мы представляем LLM с документом и соответствующими вторичными вопросами.

Затем, для каждого вопроса Qi вывод AI LLM собирается, создавая набор выходов для каждого документа. Текстовым выходам затем присваивается числовое значение и преобразуется в вектор функций VI, посредством процесса вербализации, объясненного в разделе 3.3.

Figure 1: Illustration of training and inference process in ICE-T. In the training phase, the process begins by generating questions to prompt an LLM, which then provides yes/no answers. These answers are verbalized and converted into numerical feature vectors. A classifier is trained using these vectors along with their respective labels. During inference, the LLM is prompted with the same questions, and the answers are similarly processed to predict outcomes using the trained classifier.

3.3. Вырбализация ответов

Вывод LLM в ответ на каждую подсказку ограничен одним из трех возможных значений: да, нет или неизвестно, в зависимости от ответа на вопрос, заданный в приглашении. Этим ответам впоследствии присваиваются численные значения для анализа, при этом «да» переводится на 1, «нет» на 0 и «неизвестно» на 0,5.

3.4 Обучение классификатора

Для обучения классификатора мы используем набор V из низкоразмерных численных векторов, где | v = n+1 и соответствующие метки x, где каждый вектор VI имеет соответствующую бинарную метку XI. Векторы V получают из учебных текстовых данных после побуждения LLM для генерации N + 1 выходов, которым затем присваивается числовое значение. Затем классификатор обучается с использованием 5-кратного процесса перекрестной проверки и поиска сетки для лучших параметров. Выбор конкретного алгоритма классификации будет зависеть от размера учебных данных, распределения значений и желаемой производительности на определенной метрике классификации.

Эта статья естьДоступно на Arxivв соответствии с CC по 4.0 Deed (Attribution 4.0 International) лицензия.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE