コミット履歴

作者 SHA1 メッセージ 日付
  albertodepaola 79c2dd0355 Merge pull request #4 from tryrobbo/main 11 ヶ月 前
  Hamid Shojanazeri d717be8ad4 Merge pull request #3 from albertodepaola/l3p/finetuning_inference_chat_mods 11 ヶ月 前
  Matthias Reso ab254d121c 7b -> 8b 11 ヶ月 前
  Matthias Reso 43cb6a2db4 Remove check for nighlies for low_cpu_fsdp and bump torch version to 2.2 instead 11 ヶ月 前
  Thomas Robinson 81642c247d Create CodeShieldUsageDemo.ipynb 11 ヶ月 前
  Matthias Reso cad284c66f Replace new model url 11 ヶ月 前
  Matthias Reso 8b0a233c1a Use new chat format in custom dataset 11 ヶ月 前
  Matthias Reso 83fae41195 Add test for chat completion formatting 11 ヶ月 前
  Matthias Reso 6d9d48d619 Use apply_chat_template instead of custom functions 11 ヶ月 前
  Matthias Reso 5efea160a2 Adapt test_finetuning to new model 11 ヶ月 前
  Matthias Reso 739483f262 Adjust test_grammar_datasets to stable sort 11 ヶ月 前
  Matthias Reso b96e435cda Adjust test_samsum_dataset to second model 11 ヶ月 前
  Matthias Reso fac41298b0 Adapt test_custom_dataset to new model 11 ヶ月 前
  Matthias Reso 960014a3bb Fix test_custom_dataset by introducing a stable sort algorithm 11 ヶ月 前
  Matthias Reso b5583b31d5 Adapt test_grammar_dataset to new model 11 ヶ月 前
  Matthias Reso 17a6d16289 Test batching for both llama versions 1 年間 前
  Matthias Reso a414ca6a57 Update chat format for llama3 1 年間 前
  Matthias Reso 113ea18bf1 Replace LlamaTokenizer with AutoTokenizer 1 年間 前
  Beto 5979dbe996 Merging local with remote 1 年間 前
  Beto d4cbfa1cc1 Merging upstream llama-recipes to current repo 1 年間 前
  Hamid Shojanazeri aaa9e2c863 Adding a feature that will stop the training/eval process after reaching some max_steps (#428) 1 年間 前
  Kai Wu e6f69f84ad add max_steps_reached to reduce redundancy 1 年間 前
  Kai Wu 362cda0fa6 fixing test_gradient_accumulation and test_save_to_json 1 年間 前
  Kai Wu fa0a389f74 add max_step feature for training and eval 1 年間 前
  Hamid Shojanazeri 37c8f72211 Update location and name of llm.py example notebook (#417) 1 年間 前
  Thomas Robinson 79266217ef Update location and name of llm.py example notebook 1 年間 前
  Hamid Shojanazeri f7aa02af9f only save training params on rank 0 (#415) 1 年間 前
  jpgard 6954b16b3b only save training params on rank 0 1 年間 前
  varunfb a404c9249c Notebook to demonstrate using llama and llama-guard together using OctoAI 1 年間 前
  Beto 18d76ed36f merging into private llama recipes repo 1 年間 前