【candle】(2):使用hf-mirror镜像下载TheBloke/Llama-2-7B-GGML的q4_0.bin文件,并设置HF_HOME,example模块可以识别下载的模型

本文主要是介绍【candle】(2):使用hf-mirror镜像下载TheBloke/Llama-2-7B-GGML的q4_0.bin文件,并设置HF_HOME,example模块可以识别下载的模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1,视频演示地址

https://www.bilibili.com/video/BV1Dc41117wT/?vd_source=4b290247452adda4e56d84b659b0c8a2

【candle】(2):使用hf-mirror镜像下载TheBloke/Llama-2-7B-GGML的q4

2,安装rust到其他目录

默认的安装模式:

curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh

https://forge.rust-lang.org/infra/other-installation-methods.html

https://static.rust-lang.org/dist/rust-1.74.1-x86_64-unknown-linux-gnu.tar.gz

wget https://static.rust-lang.org/dist/rust-1.74.1-x86_64-unknown-linux-gnu.tar.gztar -zxf rust-1.74.1-x86_64-unknown-linux-gnu.tar.gz
cd rust-1.74.1-x86_64-unknown-linux-gnu/./install.sh  --prefix=/root/autodl-tmp/rust --without=rust-docs

这样就可以将 rust 安装到其他目录了:
同时不要安装 rust-docs 有 700 多MB ,实在是没有用。

./install.sh --list-components# Available components* rustc
* rust-std-x86_64-unknown-linux-gnu
* rust-docs
* rust-docs-json-preview
* rust-demangler-preview
* cargo
* rustfmt-preview
* rls-preview
* rust-analyzer-preview
* llvm-tools-preview
* clippy-preview
* rust-analysis-x86_64-unknown-linux-gnu

然后执行安装即可:

./install.sh  --prefix=/root/autodl-tmp/rust --without=rust-docs# 安装完成,设置好 PATH 路径:export PATH=/root/autodl-tmp/rust/bin:$PATH
# 执行 rustc 就可以生效了:

在这里插入图片描述
可以执行 rust 命令了:
在这里插入图片描述

3,下载 candle 项目

#设置学术加速,不再区分不同地区# 设置hf 路径:
export HF_HOME=/root/autodl-tmp/hf_cache
# 下载项目
git clone https://github.com/huggingface/candle.gitcd candle
# 执行一个简单的demo
cargo run --example quantized

然后就是漫长的下载库:

  Downloaded ttf-parser v0.15.2Downloaded zerofrom v0.1.3Downloaded zstd-safe v6.0.6Downloaded anstream v0.6.5Downloaded approx v0.5.1Downloaded bitflags v1.3.2Downloaded bytemuck v1.14.0Downloaded bytes v1.5.0Downloaded wav v1.0.0
Downloading 81 crates, remaining bytes: 128.3 KB 

4,下载文件方法 huggingface_hub 使用镜像下载

pip3 install huggingface_hub

然后使用模型下载脚本:

download_model.py :

# 设置镜像
# export HF_ENDPOINT="https://hf-mirror.com"import os
os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'from huggingface_hub import snapshot_download# 下载第一个模型
snapshot_download(repo_id="TheBloke/Llama-2-7B-GGML", allow_patterns=["llama-2-7b.ggmlv3.q4_0.bin"])# 下载第二个模型
snapshot_download(repo_id="hf-internal-testing/llama-tokenizer")
# 设置hf home 目录,防止下载到其他目录,磁盘满了。
export HF_HOME=/root/autodl-tmp/hf_cache
# 执行下载方法:
python3 download_model.py

下载速度还可以:

Fetching 1 files:   0%|                                                                                      | 0/1 [00:00<?, ?it/s]
llama-2-7b.ggmlv3.q4_0.bin:  32%|███████████████████▍                                         | 1.21G/3.79G [04:54<10:59, 3.92MB/s]

还可以使用 https://aliendao.cn/#/ 进行加速下载。

5,然后就可以运行模型了

cargo run --example quantized Compiling candle-examples v0.3.1 (/root/autodl-tmp/candle/candle-examples)Finished dev [unoptimized + debuginfo] target(s) in 7.87sRunning `target/debug/examples/quantized`
avx: true, neon: false, simd128: false, f16c: true
temp: 0.80 repeat-penalty: 1.10 repeat-last-n: 64
loaded 291 tensors (3.79GB) in 9.32s
params: HParams { n_vocab: 32000, n_embd: 4096, n_mult: 256, n_head: 32, n_layer: 32, n_rot: 128, ftype: 2 }
model built
My favorite theorem is 0 (
zero). It's just a random

在这里插入图片描述

3,运行yi-6b

cargo run --example yi --features cuda 
# 设置镜像
# export HF_ENDPOINT="https://hf-mirror.com"
# export HF_HOME=/root/autodl-tmp/hf_cacheimport os
os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'
os.environ['HF_HOME'] = '/root/autodl-tmp/hf_cache'from huggingface_hub import snapshot_download
snapshot_download(repo_id="01-ai/Yi-6B")
Yi.svg: 980B [00:00, 1.76MB/s]                                                                      | 0/16 [00:00<?, ?it/s]
LICENSE: 17.4kB [00:00, 14.3MB/s]
config.json: 605B [00:00, 1.20MB/s]
generation_config.json: 132B [00:00, 43.9kB/s]
.gitattributes: 1.52kB [00:00, 1.27MB/s]/s]
md5: 184B [00:00, 377kB/s]██▎                                                               | 1/16 [00:00<00:11,  1.34it/s]
README.md: 24.8kB [00:00, 262kB/s]
model.safetensors.index.json: 23.9kB [00:00, 33.6MB/s]                                      | 3/16 [00:00<00:03,  3.96it/s]
pytorch_model.bin.index.json: 23.9kB [00:00, 34.6MB/s]
tokenizer_config.json: 320B [00:00, 453kB/s]?B/s]
tokenizer.json: 3.56MB [00:00, 6.32MB/s]
tokenizer.model: 100%|████████████████████████████████████████████████████████████████| 1.03M/1.03M [00:00<00:00, 1.16MB/s]
pytorch_model-00001-of-00002.bin:   2%|▊                                               | 168M/9.94G [00:10<09:14, 17.6MB/s]
pytorch_model-00001-of-00002.bin:   4%|█▉                                              | 409M/9.94G [00:25<09:49, 16.2MB/s]
model-00001-of-00002.safetensors:   4%|██                                              | 430M/9.94G [00:26<09:15, 17.1MB/s]
model-00002-of-00002.safetensors:  20%|█████████▍                                      | 430M/2.18G [00:25<01:37, 17.9MB/s]
pytorch_model-00002-of-00002.bin:  19%|█████████▏                                      | 419M/2.18G [00:25<01:40, 17.5MB/s]

TheBloke/Yi-34B-Chat-AWQ · Hugging Face
还有34b模型,但是没有测试。

4,总结

使用candle 可以运行大模型了,可以运行 yi-6b的模型,使用镜像下载成功。
candle目前支持的模型还不多,但是未来会慢慢流行起来的。
提前做好学习准备。

这篇关于【candle】(2):使用hf-mirror镜像下载TheBloke/Llama-2-7B-GGML的q4_0.bin文件,并设置HF_HOME,example模块可以识别下载的模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/freewebsys/article/details/134960611
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/535087

相关文章

使用Nginx配置文件服务器方式

《使用Nginx配置文件服务器方式》:本文主要介绍使用Nginx配置文件服务器方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1. 为什么选择 Nginx 作为文件服务器?2. 环境准备3. 配置 Nginx 文件服务器4. 将文件放入服务器目录5. 启动 N

使用nohup和--remove-source-files在后台运行rsync并记录日志方式

《使用nohup和--remove-source-files在后台运行rsync并记录日志方式》:本文主要介绍使用nohup和--remove-source-files在后台运行rsync并记录日... 目录一、什么是 --remove-source-files?二、示例命令三、命令详解1. nohup2.

Qt之QMessageBox的具体使用

《Qt之QMessageBox的具体使用》本文介绍Qt中QMessageBox类的使用,用于弹出提示、警告、错误等模态对话框,具有一定的参考价值,感兴趣的可以了解一下... 目录1.引言2.简单介绍3.常见函数4.按钮类型(QMessage::StandardButton)5.分步骤实现弹窗6.总结1.引言

Python使用Reflex构建现代Web应用的完全指南

《Python使用Reflex构建现代Web应用的完全指南》这篇文章为大家深入介绍了Reflex框架的设计理念,技术特性,项目结构,核心API,实际开发流程以及与其他框架的对比和部署建议,感兴趣的小伙... 目录什么是 ReFlex?为什么选择 Reflex?安装与环境配置构建你的第一个应用核心概念解析组件

Qt中Qfile类的使用

《Qt中Qfile类的使用》很多应用程序都具备操作文件的能力,包括对文件进行写入和读取,创建和删除文件,本文主要介绍了Qt中Qfile类的使用,具有一定的参考价值,感兴趣的可以了解一下... 目录1.引言2.QFile文件操作3.演示示例3.1实验一3.2实验二【演示 QFile 读写二进制文件的过程】4.

spring security 超详细使用教程及如何接入springboot、前后端分离

《springsecurity超详细使用教程及如何接入springboot、前后端分离》SpringSecurity是一个强大且可扩展的框架,用于保护Java应用程序,尤其是基于Spring的应用... 目录1、准备工作1.1 引入依赖1.2 用户认证的配置1.3 基本的配置1.4 常用配置2、加密1. 密

WinForms中主要控件的详细使用教程

《WinForms中主要控件的详细使用教程》WinForms(WindowsForms)是Microsoft提供的用于构建Windows桌面应用程序的框架,它提供了丰富的控件集合,可以满足各种UI设计... 目录一、基础控件1. Button (按钮)2. Label (标签)3. TextBox (文本框

使用Vue-ECharts实现数据可视化图表功能

《使用Vue-ECharts实现数据可视化图表功能》在前端开发中,经常会遇到需要展示数据可视化的需求,比如柱状图、折线图、饼图等,这类需求不仅要求我们准确地将数据呈现出来,还需要兼顾美观与交互体验,所... 目录前言为什么选择 vue-ECharts?1. 基于 ECharts,功能强大2. 更符合 Vue

如何合理使用Spring的事务方式

《如何合理使用Spring的事务方式》:本文主要介绍如何合理使用Spring的事务方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、介绍1.1、底层构造1.1.事务管理器1.2.事务定义信息1.3.事务状态1.4.联系1.2、特点1.3、原理2. Sprin

Vue中插槽slot的使用示例详解

《Vue中插槽slot的使用示例详解》:本文主要介绍Vue中插槽slot的使用示例详解,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、插槽是什么二、插槽分类2.1 匿名插槽2.2 具名插槽2.3 作用域插槽三、插槽的基本使用3.1 匿名插槽