Llama3-Tutorial之Llama3本地Web Demo部署

2024-05-07 03:28

本文主要是介绍Llama3-Tutorial之Llama3本地Web Demo部署,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Llama3-Tutorial之Llama3本地 Web Demo部署

Llama3-Tutorial之Llama3本地Web Demo部署章节。

参考: https://github.com/SmartFlowAI/Llama3-Tutorial

1. 环境配置

conda create -n llama3 python=3.10
conda activate llama3
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia

2. 下载模型

新建文件夹

mkdir -p ~/model
cd ~/model

方法一:从OpenXLab中获取权重:

  1. 安装 git-lfs 依赖:
# 如果下面命令报错则使用 apt install git git-lfs -y
conda install git-lfs
git-lfs install
  1. 下载模型

git clone https://code.openxlab.org.cn/MrCat/Llama-3-8B-Instruct.git Meta-Llama-3-8B-Instruct

方法二:使用下载好的模型

软链接 InternStudio 中的模型

ln -s /root/share/new_models/meta-llama/Meta-Llama-3-8B-Instruct ~/model/Meta-Llama-3-8B-Instruct

本文使用InternStudio进行实验,使用方法二。

3. Web Demo 部署

cd ~
git clone https://github.com/SmartFlowAI/Llama3-Tutorial

安装 XTuner 时会自动安装其他依赖:

cd ~
git clone -b v0.1.18 https://github.com/InternLM/XTuner
cd XTuner
pip install -e .

运行 web_demo.py

(llama3) root@intern-studio-50014188:~# streamlit run ~/Llama3-Tutorial/tools/internstudio_web_demo.py ~/model/Meta-Llama-3-8B-Instruct

Collecting usage statistics. To deactivate, set browser.gatherUsageStats to false.


  You can now view your Streamlit app in your browser.

  Network URL: http://192.168.230.228:8501
  External URL: http://192.168.230.228:8501

load model begin.
Loading checkpoint shards: 100%|████████████████████████████████████████████████████████████████████| 4/4 [00:36<00:00,  9.17s/it]
Special tokens have been added in the vocabulary, make sure the associated word embeddings are fine-tuned or trained.
load model end.

vscode配置端口转发:

alt

操作终端通过http://localhost:8501/打开web对话界面:

alt

参考 vscode端口转发指南

本文由 mdnice 多平台发布

这篇关于Llama3-Tutorial之Llama3本地Web Demo部署的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/966185

相关文章

三种主流web服务实现

目前知道的三种主流的Web服务实现方案为:   REST:表象化状态转变 (软件架构风格)   SOAP:简单对象访问协议   XML-RPC:远程过程调用协议   下面分别作简单介绍:   REST:表征状态转移(Representational State Transfer),采用Web 服务使用标准的 HTTP 方法 (GET/PUT/POST/DELETE) 将所有

iOS 加载大量本地视频优化

一、问题的产生 1.1 发现问题 最近开发了一个视频剪辑的APP,其中有这么一个功能,对原视频进行剪辑编辑好之后,可以直接导出到相册,同时APP也会将这个视频保存到本地(沙盒),然后APP专门有一个“我的作品”界面来展示所有存储在本地的视频。在自己做测试的时候,发现点击“我的作品”页面,需要比较长的时间才能响应,而且视频越多响应时间越长。于是我猜想可能是因为同时加载大量视频导致的。 1.2

利用Socket在计算机本地实现通信(二)

欢迎访问我的博客:konosuba.xyz 本文主要是在计算机本地使用基于TCP协议的Socket建立服务端与客户端的连接与基本通信 系统:Windows 10 软件:Visual studio 2019 语言:C++ Socket通信实现步骤 创建ServerSocket和Socket 打开连接到的Socket的输入/输出流 按照协议对Socket进行读/

JavaWeb项目入门

SpringMVC项目入门(Maven) 源码请见共享目录CSDN/Java Web(Maven)/1.SpringMVC项目入门 一、目标 自定义控制器(controller)使用json解析(FastJson&Jackson) 二、工程结构 新建一个maven-archetype-webapp工程,增加代码,项目结构如下: 三、导入jar文件 在pom.xml增加如下s

web项目PDF导出---freemarker 与 ITextRenderer--加页码

最近项目中又遇到pdf导出的需求,以前一直都是用phantomjs-2.1.1-windows.exe插件做的pdf导出,运用插件优点是直接可以把html页面直接转换成pdf导出,缺点是它需要安装,windows、linux、mac等环境下需要的插件安装都不一样,中文字体还需要单独安装;查询了一些文档后就决定采用freemarker 与 ITextRenderer来实现了;偶然间在git看到了fl

web项目引用html5 video标签实现视频播放的坑

项目框架:SpringMVC 最近项目中用到视频播放,打算采用html5 的video标签实现网页视频播放,考虑到兼容性与样式又采用了jquery的video.js插件,使用过程中视频播放都没问题,但是在视频播放的时候运行容器(jetty、tomcat)都会报IO异常: tomcat: 2017-07-04 12:24:57,167 [http-nio-8888-exec-9] ERROR

IDEA打包部署jar文件

刚刚转移到idea的阵营,还有很多东西需要学习。今天使用了IDEA的打包功能,总结一下。 1.项目需要先编译一下。 2. file→project structure  3.artifacts→jar→from modules with dependences  4.依次填写自己需要打包的项目,启动类和manifest.mf的存放路径,点击OK  5.设置生成jar文件的存放

Eclipse下WEB-INF/classes目录下没生成编译最新class文件

右击项目 >> Properties >>Deployment Assembly >>Source 把/src/main/java 的Deploy Path 改为 WEB-INF/classes

web.xml配置含义

在java工程中,web.xml用来初始化工程配置信息,比如说welcome页面,filter,listener,servlet,servlet-mapping,启动加载级别等等。 根元素标签<web-app> 每个web.xml文件的根元素为<web-app>中,必须标明这个web.xml使用的是哪个模式文件。 <web-app xmlns:xsi="http://www.w

Glide本地缓存

关于Glide的本地缓存,直接写Glide.with(context)....diskCacheStrategy(DiskCacheStratrgy.ALL)... 然后发现网络请求的数据没有本地缓存效果:在离线状态下不能加载缓存的图片;但是在demo中写死网络图片地址的时候就可以 然后尝试把请求的图片的地址缓存到本地,然后在离线状态下的时候,Glide下载的url填入缓存的图片地址就可