This website works better with JavaScript
Strona główna
Odkrywaj
Pomoc
Zarejestruj się
Zaloguj się
marx
/
llama-recipes
Obserwuj
1
Polub
0
Forkuj
0
Pliki
Problemy
0
Oczekujące zmiany
0
Wiki
Drzewo:
1e330d5a55
Gałęzie
Tagi
main
llama-recipes
/
src
/
llama_recipes
/
inference
Beto
3e710f71f8
renaming the prompt format file to conform to repo standards
1 rok temu
..
__init__.py
207d2f80e9
Make code-llama and hf-tgi inference runnable as module
1 rok temu
chat_utils.py
e554c1c8bf
The tokenizer will not add eos_token by default
1 rok temu
checkpoint_converter_fsdp_hf.py
ce9501f22c
remove relative imports
1 rok temu
model_utils.py
4c9cc7d223
Move modules into separate src folder
1 rok temu
prompt_format_utils.py
3e710f71f8
renaming the prompt format file to conform to repo standards
1 rok temu
safety_utils.py
c0886a0a89
Fixing typo in self
1 rok temu