Kaynağa Gözat

Fix vocab size mismatch in inference due to added pad token

Matthias Reso 1 yıl önce
ebeveyn
işleme
8ac44ef3be
1 değiştirilmiş dosya ile 1 ekleme ve 7 silme
  1. 1 7
      examples/inference.py

+ 1 - 7
examples/inference.py

@@ -72,13 +72,7 @@ def main(
             print("Module 'optimum' not found. Please install 'optimum' it before proceeding.")
 
     tokenizer = LlamaTokenizer.from_pretrained(model_name)
-    tokenizer.add_special_tokens(
-        {
-         
-            "pad_token": "<PAD>",
-        }
-    )
-    model.resize_token_embeddings(model.config.vocab_size + 1) 
+    tokenizer.pad_token = tokenizer.eos_token
     
     safety_checker = get_safety_checker(enable_azure_content_safety,
                                         enable_sensitive_topics,