Beto 6f53f26e05 Merge branch 'main' into l3p/llama_guard před 11 měsíci
..
__init__.py 207d2f80e9 Make code-llama and hf-tgi inference runnable as module před 1 rokem
chat_utils.py 6d9d48d619 Use apply_chat_template instead of custom functions před 11 měsíci
checkpoint_converter_fsdp_hf.py ce9501f22c remove relative imports před 1 rokem
llm.py a404c9249c Notebook to demonstrate using llama and llama-guard together using OctoAI před 1 rokem
model_utils.py d51d2cce9c adding sdpa for flash attn před 1 rokem
prompt_format_utils.py bcdb5b31fe Fixing quantization config. Removing prints před 11 měsíci
safety_utils.py f63ba19827 Fixing tokenizer used for llama 3. Changing quantization configs on safety_utils. před 11 měsíci