Historie revizí

Autor SHA1 Zpráva Datum
  Geeta Chauhan 322522e9a2 Fix the chat example for generate when load peft model (#158) před 1 rokem
  Hamid Shojanazeri 0e9d1dfa78 passing input_ids as peft doesn't pass position args to base_model před 1 rokem
  Hamid Shojanazeri a14363ca41 Update inference.md (#136) před 1 rokem
  Matthias Reso 1437b917d0 Fix lint error před 1 rokem
  Matthias Reso 34e45490ba Exchange micro_batching_size against gradient_accumulation_steps in docs před 1 rokem
  Matthias Reso 47ae6d0326 Remove print as it breaks progress bar and update progress bar description instead před 1 rokem
  Matthias Reso 9def4fbafd Remove micro_batch_training parameter and replace with gradient_accumulation_steps před 1 rokem
  Geeta Chauhan fbc513ec47 adding notes how to get the HF models (#151) před 1 rokem
  Hamid Shojanazeri bcfafd9a0b adding notes how to get the HF models před 1 rokem
  Geeta Chauhan cfba150311 adding llama code inference (#144) před 1 rokem
  Hamid Shojanazeri 6105a3f886 clarifying the infilling use-case před 1 rokem
  Hamid Shojanazeri 8b0008433c fix typos před 1 rokem
  Hamid Shojanazeri 564ef2f628 remove padding logic před 1 rokem
  Hamid Shojanazeri 277a292fbc adding autotokenizer před 1 rokem
  Hamid Shojanazeri 3f2fb9167e adding notes to model not supporting infilling před 1 rokem
  sekyonda 1e0e4fb8a9 Update inference.md před 1 rokem
  sekyondaMeta 37d7151494 Merge branch 'facebookresearch:main' into promptInfo před 1 rokem
  Hamid Shojanazeri c62428b99c setting defaults of temp and top_p před 1 rokem
  Hamid Shojanazeri c014ae7cb8 setting BT option to true před 1 rokem
  Hamid Shojanazeri 4fa44e16d9 add note for python llama not suited for llama infilling před 1 rokem
  Hamid Shojanazeri b18a186385 removing the option to take prompt from cli před 1 rokem
  Hamid Shojanazeri 75991d8795 fix the extra line added and remove take prompt from cli před 1 rokem
  Hamid Shojanazeri d28fc9898a addressing doc comments před 1 rokem
  Hamid Shojanazeri a234d1fe0c fix typos před 1 rokem
  Hamid Shojanazeri 2d9f4796e8 fixing the output format před 1 rokem
  Hamid Shojanazeri 1e8ea70b26 adding llama code inference před 1 rokem
  Geeta Chauhan 82e05c46e0 fix a bug in the config for use_fast_kernels (#121) před 1 rokem
  Hamid Shojanazeri 971c079aa6 bugfix: remove duplicate load_peft_model (#124) před 1 rokem
  sekyonda 58c6ae8f99 Update inference.md před 1 rokem
  hongbo.mo fcc817e923 bugfix: remove duplicate load_peft_model před 1 rokem