Historial de Commits

Autor SHA1 Mensaje Fecha
  Hamid Shojanazeri d717be8ad4 Merge pull request #3 from albertodepaola/l3p/finetuning_inference_chat_mods hace 1 año
  Matthias Reso ab254d121c 7b -> 8b hace 1 año
  Matthias Reso 43cb6a2db4 Remove check for nighlies for low_cpu_fsdp and bump torch version to 2.2 instead hace 1 año
  Matthias Reso cad284c66f Replace new model url hace 1 año
  Matthias Reso 8b0a233c1a Use new chat format in custom dataset hace 1 año
  Matthias Reso 83fae41195 Add test for chat completion formatting hace 1 año
  Matthias Reso 6d9d48d619 Use apply_chat_template instead of custom functions hace 1 año
  Matthias Reso 5efea160a2 Adapt test_finetuning to new model hace 1 año
  Matthias Reso 739483f262 Adjust test_grammar_datasets to stable sort hace 1 año
  Matthias Reso b96e435cda Adjust test_samsum_dataset to second model hace 1 año
  Matthias Reso fac41298b0 Adapt test_custom_dataset to new model hace 1 año
  Matthias Reso 960014a3bb Fix test_custom_dataset by introducing a stable sort algorithm hace 1 año
  Matthias Reso b5583b31d5 Adapt test_grammar_dataset to new model hace 1 año
  Matthias Reso 17a6d16289 Test batching for both llama versions hace 1 año
  Matthias Reso a414ca6a57 Update chat format for llama3 hace 1 año
  Matthias Reso 113ea18bf1 Replace LlamaTokenizer with AutoTokenizer hace 1 año
  Beto 5979dbe996 Merging local with remote hace 1 año
  Beto d4cbfa1cc1 Merging upstream llama-recipes to current repo hace 1 año
  Hamid Shojanazeri aaa9e2c863 Adding a feature that will stop the training/eval process after reaching some max_steps (#428) hace 1 año
  Kai Wu e6f69f84ad add max_steps_reached to reduce redundancy hace 1 año
  Kai Wu 362cda0fa6 fixing test_gradient_accumulation and test_save_to_json hace 1 año
  Kai Wu fa0a389f74 add max_step feature for training and eval hace 1 año
  Hamid Shojanazeri 37c8f72211 Update location and name of llm.py example notebook (#417) hace 1 año
  Thomas Robinson 79266217ef Update location and name of llm.py example notebook hace 1 año
  Hamid Shojanazeri f7aa02af9f only save training params on rank 0 (#415) hace 1 año
  jpgard 6954b16b3b only save training params on rank 0 hace 1 año
  varunfb a404c9249c Notebook to demonstrate using llama and llama-guard together using OctoAI hace 1 año
  Beto 18d76ed36f merging into private llama recipes repo hace 1 año
  Hamid Shojanazeri 64e189914f update due to peft new release (#407) hace 1 año
  Hamid Shojanazeri 11f51db28c adding the kbit prep in the code hace 1 año