修改README
This commit is contained in:
parent
94327a1d17
commit
f8fef349cf
|
@ -242,6 +242,9 @@ with torch.no_grad():
|
||||||
+ [fintune_demo](finetune_demo/README.md): 在这里包含了
|
+ [fintune_demo](finetune_demo/README.md): 在这里包含了
|
||||||
+ PEFT (LORA, P-Tuning) 微调代码
|
+ PEFT (LORA, P-Tuning) 微调代码
|
||||||
+ SFT 微调代码
|
+ SFT 微调代码
|
||||||
|
+ [candle_demo](candle_demo/README.org): 在这里包含了
|
||||||
|
+ Rust Candle框架支持
|
||||||
|
|
||||||
|
|
||||||
## 友情链接
|
## 友情链接
|
||||||
|
|
||||||
|
@ -253,7 +256,7 @@ with torch.no_grad():
|
||||||
与 Agent 应用
|
与 Agent 应用
|
||||||
+ [self-llm](https://github.com/datawhalechina/self-llm/tree/master/GLM-4): Datawhale 团队的提供的 GLM-4-9B 系列模型使用教程。
|
+ [self-llm](https://github.com/datawhalechina/self-llm/tree/master/GLM-4): Datawhale 团队的提供的 GLM-4-9B 系列模型使用教程。
|
||||||
+ [chatglm.cpp](https://github.com/li-plus/chatglm.cpp): 类似 llama.cpp 的量化加速推理方案,实现笔记本上实时对话
|
+ [chatglm.cpp](https://github.com/li-plus/chatglm.cpp): 类似 llama.cpp 的量化加速推理方案,实现笔记本上实时对话
|
||||||
|
+ [candle](https://github.com/huggingface/candle): Rust实现的ML框架 目前支持Codegeex4
|
||||||
## 协议
|
## 协议
|
||||||
|
|
||||||
+ GLM-4 模型的权重的使用则需要遵循 [模型协议](https://huggingface.co/THUDM/glm-4-9b/blob/main/LICENSE)。
|
+ GLM-4 模型的权重的使用则需要遵循 [模型协议](https://huggingface.co/THUDM/glm-4-9b/blob/main/LICENSE)。
|
||||||
|
|
|
@ -8,7 +8,7 @@ GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开
|
||||||
#+begin_src shell
|
#+begin_src shell
|
||||||
cargo build --release -p cli # Cpu
|
cargo build --release -p cli # Cpu
|
||||||
cargo build --release -p cli --features cuda # if cuda is avalibe
|
cargo build --release -p cli --features cuda # if cuda is avalibe
|
||||||
./target/release/codegeex4-cli --sample-len 500
|
./target/release/cli --sample-len 500
|
||||||
#+end_src
|
#+end_src
|
||||||
** Output_Example
|
** Output_Example
|
||||||
[[../resources/candle_example.png][file:../resources/candle_example.png]]
|
[[../resources/candle_example.png][file:../resources/candle_example.png]]
|
||||||
|
|
Loading…
Reference in New Issue