This website works better with JavaScript
首页
发现
帮助
注册
登录
marx
/
llama-recipes
关注
1
点赞
0
派生
0
文件
工单管理
0
合并请求
0
Wiki
目录树:
d89a02feea
分支列表
标签列表
main
llama-recipes
/
src
/
llama_recipes
/
inference
Hamid Shojanazeri
d51d2cce9c
adding sdpa for flash attn
1 年之前
..
__init__.py
207d2f80e9
Make code-llama and hf-tgi inference runnable as module
1 年之前
chat_utils.py
e554c1c8bf
The tokenizer will not add eos_token by default
1 年之前
checkpoint_converter_fsdp_hf.py
ce9501f22c
remove relative imports
1 年之前
model_utils.py
d51d2cce9c
adding sdpa for flash attn
1 年之前
prompt_format_utils.py
3e710f71f8
renaming the prompt format file to conform to repo standards
1 年之前
safety_utils.py
c0886a0a89
Fixing typo in self
1 年之前