Colab部署編程AI CodeLlama
type
status
date
slug
summary
tags
category
icon
password
CodeLlama是基於Meta的Llama2語言模型構建的編程AI,以社群許可證方式免費開源,可以在本地運行。
Colab部署編程AI CodeLlama
CodeLlama的模型可以直接在Hugging Face下載,分7B, 13B和34B,最小的7B也要14G VRAM才可以運行。不過可以用Google Colab他們的免費T4 GPU(有15G VRAM)跑一下。
部署
因為是在huggingface下載,所以直接用本家transformers API tools,
好了。
BASH:下載最新版transformers
Python:在用transformers載入CodeLlama模型
Python:設定輸入及運行pipeline
輸出結果
總結
測試了一下,基本上輸出結果準確度只有50%左右,只能作個参考,但可以離線運行是一個不錯的優點。
想自己運行可以用我下面的Colab Example:
📎 参考文章
上一篇
x96max+安裝rtl8821cu驅動
下一篇
ZeroTier在Linux與Win之間建立虛擬區域網路
Loading...