Конфигурации AutoTrain - это способ локального использования и обучения моделей с помощью AutoTrain.

После установки AutoTrain Advanced вы можете использовать следующую команду для обучения моделей с использованием конфигурационных файлов AutoTrain:

$ export HF_USERNAME=your_hugging_face_username
$ export HF_TOKEN=your_hugging_face_write_token

$ autotrain --config path/to/config.yaml

Примеры конфигураций для всех задач можно найти в каталоге configs расширенного репозитория AutoTrain на GitHub.

Вот пример конфигурационного файла AutoTrain:

task: llm
base_model: meta-llama/Meta-Llama-3-8B-Instruct
project_name: autotrain-llama3-8b-orpo
log: tensorboard
backend: local

data:
  path: argilla/distilabel-capybara-dpo-7k-binarized
  train_split: train
  valid_split: null
  chat_template: chatml
  column_mapping:
    text_column: chosen
    rejected_text_column: rejected

params:
  trainer: orpo
  block_size: 1024
  model_max_length: 2048
  max_prompt_length: 512
  epochs: 3
  batch_size: 2
  lr: 3e-5
  peft: true
  quantization: int4
  target_modules: all-linear
  padding: right
  optimizer: adamw_torch
  scheduler: linear
  gradient_accumulation: 4
  mixed_precision: bf16

hub:
  username: ${HF_USERNAME}
  token: ${HF_TOKEN}
  push_to_hub: true

В этой конфигурации мы завершаем настройку модели meta-llama/Meta-Llama-3-8B-Instruct на бинаризованном наборе данных argilla/distilabel-capybara-dpo-7k с использованием orpo trainer для 3 эпох с размером пакета 2 и скоростью обучения 3e-5. Более подробную информацию о доступных параметрах можно найти в Форматы данных и параметры.

В случае, если вы не хотите передавать модель в hub, вы можете установить для параметра push_to_hub значение false в файле конфигурации. Если нет, то для передачи модели в hub имя пользователя и токен не требуются. Примечание: они все еще могут понадобиться, если вы пытаетесь получить доступ к закрытым моделям или наборам данных.