Файл конфигурации AutoTrain
Конфигурации AutoTrain - это способ локального использования и обучения моделей с помощью AutoTrain.
После установки AutoTrain Advanced вы можете использовать следующую команду для обучения моделей с использованием конфигурационных файлов AutoTrain:
$ export HF_USERNAME=your_hugging_face_username $ export HF_TOKEN=your_hugging_face_write_token $ autotrain --config path/to/config.yaml
Примеры конфигураций для всех задач можно найти в каталоге configs расширенного репозитория AutoTrain на GitHub.
Вот пример конфигурационного файла AutoTrain:
task: llm base_model: meta-llama/Meta-Llama-3-8B-Instruct project_name: autotrain-llama3-8b-orpo log: tensorboard backend: local data: path: argilla/distilabel-capybara-dpo-7k-binarized train_split: train valid_split: null chat_template: chatml column_mapping: text_column: chosen rejected_text_column: rejected params: trainer: orpo block_size: 1024 model_max_length: 2048 max_prompt_length: 512 epochs: 3 batch_size: 2 lr: 3e-5 peft: true quantization: int4 target_modules: all-linear padding: right optimizer: adamw_torch scheduler: linear gradient_accumulation: 4 mixed_precision: bf16 hub: username: ${HF_USERNAME} token: ${HF_TOKEN} push_to_hub: true
В этой конфигурации мы завершаем настройку модели meta-llama/Meta-Llama-3-8B-Instruct на бинаризованном наборе данных argilla/distilabel-capybara-dpo-7k с использованием orpo trainer для 3 эпох с размером пакета 2 и скоростью обучения 3e-5. Более подробную информацию о доступных параметрах можно найти в Форматы данных и параметры.
В случае, если вы не хотите передавать модель в hub, вы можете установить для параметра push_to_hub значение false в файле конфигурации. Если нет, то для передачи модели в hub имя пользователя и токен не требуются. Примечание: они все еще могут понадобиться, если вы пытаетесь получить доступ к закрытым моделям или наборам данных.