本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由

本文主要是介绍本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
本篇文章介绍在window系统下,安装Ollama并且安装gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等大模型的教程,实现类似免费ChatGPT的web界面

OllamaFengmian
安装之后的web界面
image-20240514091912366
什么是Ollama
Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。

提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。

img
Ollama官网: https://ollama.com/

Ollama GitHub仓库:https://github.com/ollama/ollama

Ollama文档:https://github.com/ollama/ollama/blob/main/docs/api.md

Ollama的优势
易用性:

1.Ollama的API设计简洁明了,即使是初学者也可以轻松上手。 2.提供类似OpenAI的简单内容生成接口,极易上手使用。 3.类似ChatGPT的的聊天界面,无需开发直接与模型聊天。

灵活性:

1.支持多种LLM,如Llama 2、Code Llama、Mistral、Gemma 等,并允许用户根据特定需求定制和创建自己的模型。 2.支持热切换模型,灵活多变。

可控性:

1.可以本地运行LLM,因此用户可以完全控制自己的数据和隐私。 2.可定制模型参数、数据目录和其他设置。

经济性:

1.与使用云服务相比,本地运行LLM可以更省钱。

离线能力:

1.可让您离线运行LLM,这对于隐私和安全非常重要。

安装Ollama
本次安装环境为:Windows11,当然其他系统也可以支持。

下载Ollama
Ollama下载地址:https://ollama.com/download

image-20240511151054662
安装Ollama
安装也比较方便,双击打开 install

image-20240511151331009
安装完成没有提示,我们打开一个终端,本文以Windows PowerShell为例,大家也可以使用其他的:

image-20240511151503523
现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

ollama run qwen
image-20240511151819825
安装成功,随便问几个问题。

image-20240511151923267
修改路径
可以看到,系统正在下载qwen的模型(并保存在C盘,C:\Users.ollama\models 如果想更改默认路径,可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务。)

setx OLLAMA_MODELS “D:\ollama\model”
安装Open WebUI
Open WebUI是一个用于在本地运行大型语言模型(LLM)的开源Web界面。

在window下安装docker
1.启动Hyper-v
打开控制面板,在程序与功能页面选择启用或Windows功能

image-20240511153112805
然后,重启计算机。

2.安装WSL
打开 powershell,以管理员的身份启动命令窗口,输入

wsl --update

wsl --install
如果不是已管理员身份启动则会报错:请求的操作需要提升

image-20240511154319596
然后再次重启电脑。

image-20240511172942703
3.下载Docker软件
点击下载链接:https://docs.docker.com/desktop/install/windows-install/

image-20240511153811506
4.安装Docker
image-20240511155742842
使用Docker部署Open WebUI
在Open WebUI的github页面 https://github.com/open-webui/open-webui

可以看到,如果你的Ollama和Open WebUI在同一台主机,那使用下面显示的这一行命令就可以在本地快速进行部署:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
现在我们打开终端,比如powershell,然后输入docker,回车

image-20240511173724816
然后将上边在docker中部署Open WebUI的命令复制后粘贴到终端中,回车。

docker安装open-webui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
image-20240511173828471
使用Open WebUI
安装完成后,在Docker Desktop中可以看到Open WebUI的web界面地址为:https://localhost:3000

或者内网IP+端口,这样局域网的其他人也可以访问到

image-20240511175350983
注册账号点击 sign up

登录

image-20240511175608965
设置为简体中文
点击右上角的设置,可以修改当前界面的语言为简体中文:然后点击保存即可。

image-20240511175737460
点击上方选择一个模型旁边的加号+可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,接下来就可以愉快的跟ai聊天了!

image-20240511175902435
使用llama2(3.8G)
在power shell中输入

ollama run llama2
安装完成如图:

image-20240511180531152
在Open WebUI中会新增一个llama2:latest 7B

image-20240511180736354
使用llama3(4.7G)
ollama run llama3
image-20240513110343869
在Open WebUI中会新增一个llama3:latest 8B

image-20240513110414767
image-20240513110526936
使用Mistral(4.1G)
Mistral 7B 是 Mistral AI 发布的 70 亿参数语言模型。 Mistral 7B 是一种精心设计的语言模型,可提供高效和高性能以支持实际应用程序。 由于效率的提高,该模型适用于需要快速响应的实时应用。 发布时,Mistral 7B 在所有评估基准中均优于最佳开源 13B 模型 (Llama 2)。

安装:

ollama run mistral
image-20240513111621060
使用gemma(5.0G)
ollama run gemma
image-20240513112439003
使用qwen:14b(8.2G)
ollama run qwen:14b
image-20240513113857374
结语
安装Ollama完成之后就可以在本地愉快的使用大模型了。

例如支持gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等70+主流大模型,还在不断增加。

这篇关于本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/988618

相关文章

C++中unordered_set哈希集合的实现

《C++中unordered_set哈希集合的实现》std::unordered_set是C++标准库中的无序关联容器,基于哈希表实现,具有元素唯一性和无序性特点,本文就来详细的介绍一下unorder... 目录一、概述二、头文件与命名空间三、常用方法与示例1. 构造与析构2. 迭代器与遍历3. 容量相关4

C++中悬垂引用(Dangling Reference) 的实现

《C++中悬垂引用(DanglingReference)的实现》C++中的悬垂引用指引用绑定的对象被销毁后引用仍存在的情况,会导致访问无效内存,下面就来详细的介绍一下产生的原因以及如何避免,感兴趣... 目录悬垂引用的产生原因1. 引用绑定到局部变量,变量超出作用域后销毁2. 引用绑定到动态分配的对象,对象

SpringBoot基于注解实现数据库字段回填的完整方案

《SpringBoot基于注解实现数据库字段回填的完整方案》这篇文章主要为大家详细介绍了SpringBoot如何基于注解实现数据库字段回填的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以了解... 目录数据库表pom.XMLRelationFieldRelationFieldMapping基础的一些代

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java AOP面向切面编程的概念和实现方式

《JavaAOP面向切面编程的概念和实现方式》AOP是面向切面编程,通过动态代理将横切关注点(如日志、事务)与核心业务逻辑分离,提升代码复用性和可维护性,本文给大家介绍JavaAOP面向切面编程的概... 目录一、AOP 是什么?二、AOP 的核心概念与实现方式核心概念实现方式三、Spring AOP 的关

从基础到高级详解Go语言中错误处理的实践指南

《从基础到高级详解Go语言中错误处理的实践指南》Go语言采用了一种独特而明确的错误处理哲学,与其他主流编程语言形成鲜明对比,本文将为大家详细介绍Go语言中错误处理详细方法,希望对大家有所帮助... 目录1 Go 错误处理哲学与核心机制1.1 错误接口设计1.2 错误与异常的区别2 错误创建与检查2.1 基础

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Python实现字典转字符串的五种方法

《Python实现字典转字符串的五种方法》本文介绍了在Python中如何将字典数据结构转换为字符串格式的多种方法,首先可以通过内置的str()函数进行简单转换;其次利用ison.dumps()函数能够... 目录1、使用json模块的dumps方法:2、使用str方法:3、使用循环和字符串拼接:4、使用字符

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

Linux挂载linux/Windows共享目录实现方式

《Linux挂载linux/Windows共享目录实现方式》:本文主要介绍Linux挂载linux/Windows共享目录实现方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录文件共享协议linux环境作为服务端(NFS)在服务器端安装 NFS创建要共享的目录修改 NFS 配