依星源码资源网,依星资源网

 找回密码
 立即注册

QQ登录

只需一步,快速开始

【好消息,好消息,好消息】VIP会员可以发表文章赚积分啦 !
查看: 40|回复: 0

如何将hugging face下载的模型转为GGUF格式的模型

[复制链接] 主动推送

3050

主题

3059

帖子

3918

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
3918
发表于 3 天前 | 显示全部楼层 |阅读模式
如何将hugging face下载的模型转为GGUF格式的模型
将Hugging Face下载的模型转换为GGUF格式,可以按照以下步骤进行:

### 1. 安装依赖
首先,确保安装了必要的工具和库:

```bash
pip install transformers torch
```

### 2. 下载Hugging Face模型
使用`transformers`库下载模型:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "模型名称"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 保存模型和分词器
model.save_pretrained("本地路径")
tokenizer.save_pretrained("本地路径")
```

### 3. 使用`llama.cpp`转换
`llama.cpp`支持将PyTorch模型转换为GGUF格式。首先,克隆并编译`llama.cpp`:

```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
```

### 4. 转换模型
使用`convert.py`脚本将模型转换为GGUF格式:

```bash
python3 convert.py --model-path "本地路径" --output-path "输出路径" --format gguf
```

### 5. 验证转换
转换完成后,检查输出路径下的GGUF文件,确保文件完整。

### 示例
假设模型为`gpt2`,转换过程如下:

```bash
# 下载模型
python3 download_model.py --model gpt2

# 转换模型
python3 convert.py --model-path ./gpt2 --output-path ./gpt2-gguf --format gguf
```

### 注意事项
- 确保模型与`llama.cpp`兼容。
- 转换可能需要大量内存和存储空间。

通过这些步骤,你可以将Hugging Face模型转换为GGUF格式。



windows环境下如何将hugging face下载的模型转为GGUF格式的模型

在Windows环境下,将Hugging Face下载的模型转换为GGUF格式的模型,可以按照以下步骤进行:

### 1. 安装依赖
首先,确保已安装Python和必要的库。

```bash
pip install torch transformers
```

### 2. 下载Hugging Face模型
使用`transformers`库下载模型。

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "模型名称"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 保存模型和分词器
model.save_pretrained("./model")
tokenizer.save_pretrained("./model")
```

### 3. 安装`llama.cpp`
`llama.cpp`支持将模型转换为GGUF格式。

1. 克隆`llama.cpp`仓库:

   ```bash
   git clone https://github.com/ggerganov/llama.cpp
   cd llama.cpp
   ```

2. 编译`llama.cpp`:

   - 安装CMake和GCC。
   - 在`llama.cpp`目录中运行:

     ```bash
     mkdir build
     cd build
     cmake ..
     make
     ```

### 4. 转换模型为GGUF格式
使用`llama.cpp`中的转换脚本将模型转换为GGUF格式。

1. 将Hugging Face模型转换为`llama.cpp`支持的格式:

   ```bash
   python3 convert-pth-to-ggml.py ./model
   ```

2. 转换为GGUF格式:

   ```bash
   ./main --model ./model --convert-to-gguf
   ```

### 5. 验证转换
检查生成的`.gguf`文件,确保转换成功。

### 6. 使用GGUF模型
转换后的GGUF模型可在支持该格式的应用程序中使用。

### 注意事项
- 确保模型与`llama.cpp`兼容。
- 转换过程可能需要大量内存和存储空间。

通过这些步骤,你可以在Windows环境下将Hugging Face模型转换为GGUF格式。




windows下,[size=14.0018px]llama.cpp使用release编译好的EXE

在Windows环境下,将Hugging Face下载的模型转换为GGUF格式并使用llama.cpp的预编译EXE文件,步骤如下:


### 1. 安装依赖
确保已安装Python和Git。


### 2. 克隆llama.cpp仓库
打开命令提示符或PowerShell,运行:
```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
```


### 3. 下载Hugging Face模型
使用`transformers`库下载模型,例如:
```bash
pip install transformers
python -c "from transformers import AutoModelForCausalLM; AutoModelForCausalLM.from_pretrained('模型名称').save_pretrained('./模型目录')"
```


### 4. 编译llama.cpp
如果使用预编译的EXE文件,跳过此步。否则,确保已安装CMake和Visual Studio,然后运行:
```bash
mkdir build
cd build
cmake ..
cmake --build . --config Release
```


### 5. 转换模型为GGUF
使用llama.cpp的`convert.py`脚本转换模型。假设预编译的EXE文件在`llama.cpp`目录下,运行:
```bash
python convert.py --input_dir ./模型目录 --output_dir ./输出目录 --outtype gguf
```


### 6. 使用llama.cpp运行模型
使用预编译的EXE文件运行转换后的模型,例如:
```bash
./main -m ./输出目录/模型.gguf -p "输入文本"
```


### 总结
1. 克隆llama.cpp仓库。
2. 下载Hugging Face模型。
3. 使用`convert.py`脚本转换模型为GGUF格式。
4. 使用预编译的EXE文件运行模型。


确保路径和文件名正确。


相关帖子

扫码关注微信公众号,及时获取最新资源信息!下载附件优惠VIP会员6折;永久VIP4折
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

免责声明:
1、本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与商业和非法行为,请在24小时之内自行删除!
2、本站所有内容均由互联网收集整理、网友上传,并且以计算机技术研究交流为目的,仅供大家参考、学习,请勿任何商业目的与商业用途。
3、若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
4、论坛的所有内容都不保证其准确性,完整性,有效性,由于源码具有复制性,一经售出,概不退换。阅读本站内容因误导等因素而造成的损失本站不承担连带责任。
5、用户使用本网站必须遵守适用的法律法规,对于用户违法使用本站非法运营而引起的一切责任,由用户自行承担
6、本站所有资源来自互联网转载,版权归原著所有,用户访问和使用本站的条件是必须接受本站“免责声明”,如果不遵守,请勿访问或使用本网站
7、本站使用者因为违反本声明的规定而触犯中华人民共和国法律的,一切后果自己负责,本站不承担任何责任。
8、凡以任何方式登陆本网站或直接、间接使用本网站资料者,视为自愿接受本网站声明的约束。
9、本站以《2013 中华人民共和国计算机软件保护条例》第二章 “软件著作权” 第十七条为原则:为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。若有学员需要商用本站资源,请务必联系版权方购买正版授权!
10、本网站如无意中侵犯了某个企业或个人的知识产权,请来信【站长信箱312337667@qq.com】告之,本站将立即删除。
郑重声明:
本站所有资源仅供用户本地电脑学习源代码的内含设计思想和原理,禁止任何其他用途!
本站所有资源、教程来自互联网转载,仅供学习交流,不得商业运营资源,不确保资源完整性,图片和资源仅供参考,不提供任何技术服务。
本站资源仅供本地编辑研究学习参考,禁止未经资源商正版授权参与任何商业行为,违法行为!如需商业请购买各资源商正版授权
本站仅收集资源,提供用户自学研究使用,本站不存在私自接受协助用户架设游戏或资源,非法运营资源行为。
 
在线客服
点击这里给我发消息 点击这里给我发消息 点击这里给我发消息
售前咨询热线
312337667

微信扫一扫,私享最新原创实用干货

QQ|免责声明|小黑屋|依星资源网 ( 鲁ICP备2021043233号-3 )|网站地图

GMT+8, 2025-2-21 03:09

Powered by Net188.com X3.4

邮箱:312337667@qq.com 客服QQ:312337667(工作时间:9:00~21:00)

快速回复 返回顶部 返回列表