Selaa lähdekoodia

enable grad on loss tensor

abhilash1910 1 vuosi sitten
vanhempi
commit
81fecf3d4b
1 muutettua tiedostoa jossa 1 lisäystä ja 0 poistoa
  1. 1 0
      src/llama_recipes/utils/train_utils.py

+ 1 - 0
src/llama_recipes/utils/train_utils.py

@@ -79,6 +79,7 @@ def train(model, train_dataloader,eval_dataloader, tokenizer, optimizer, lr_sche
                 loss = model(**batch).loss
                 loss = loss / gradient_accumulation_steps
                 total_loss += loss.detach().float()
+                loss = torch.autograd.Variable(loss, required_grad = True)
                 if train_config.use_fp16:
                     # if fp16 is enabled, use gradient scaler to handle gradient update
                     scaler.scale(loss).backward()