Блог


llm-finetuning



Как я сокращаю задержку рабочего процесса агента в 3-5 раз без увеличения затрат на модель

19 августа 2025 г.

Главный бюллетень Hackernoon: как идеология формирует память - и угрожает выравниванию ИИ (17.06.2025)

18 июня 2025 г.

Lionw превосходит Adamw в Lora и полную настройку задач

18 июня 2025 г.

Metamathqa: набор данных по математике с AI-Augmented с образцами 395 тыс.

18 июня 2025 г.

Теоретическая эффективность памяти повышается с LORA для однократных и мульти-GPU настройки

18 июня 2025 г.

Лора учится меньше и забывает меньше - это ошибка или функция?

17 июня 2025 г.

Экспериментальная настройка и наборы данных для дальнейшего предварительного подготовки (CPT) и создания инструкций (IFT)

17 июня 2025 г.

Лора не достигает полного создания в программировании и математических задачах

17 июня 2025 г.

Со временем Лора держится лучше

17 июня 2025 г.

Помогает ли Lora Fine-Muning Models меньше забывать?

17 июня 2025 г.