Docker三分钟搞定LLama3开源大模型本地部署

人工智能
LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适应不同的应用需求和计算资源。小型模型参数规模为8B,中型模型参数规模为70B,而大型模型则达到400B,仍在训练中,目标是实现多模态、多语言的功能,预计效果将与GPT 4/GPT 4V相当。

概述

LLaMA-3(Large Language Model Meta AI 3)是由Meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代LLaMA-2相比没有大的变动。

LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适应不同的应用需求和计算资源。小型模型参数规模为8B,中型模型参数规模为70B,而大型模型则达到400B,仍在训练中,目标是实现多模态、多语言的功能,预计效果将与GPT 4/GPT 4V相当。

安装 Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。

官网地址:https://ollama.com/download

图片图片

Ollama 支持多种平台,包括 Mac 和 Linux,并提供了 Docker 镜像以简化安装过程。用户可以通过编写 Modelfile 来导入和自定义更多的模型,这类似于 Dockerfile 的作用。Ollama 还具备一个 REST API,用于运行和管理模型,以及一个用于模型交互的命令行工具集。

Ollama服务启动日志

图片图片

模型管理

下载模型

ollama pull llama3:8b

默认下载的是llama3:8b。这里冒号前面代表模型名称,冒号后面代表tag,可以从这里查看llama3的所有tag

图片图片

模型测试

注意:如果想让模型中文回复,请先输入:你好!请中文回复

图片图片

配置Open-WebUI

在CPU下运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

图片图片

访问

输入地址 http://127.0.0.1:3000 进行访问

图片图片

初次访问需要注册,这里我注册一个账号,注册完成登录成功

图片图片

切换中文语言

图片图片

下载llama3:8b模型

llama3:8b

图片图片

下载完成

图片图片

使用

选择模型

图片图片

使用模型

图片图片

注意:如果想让模型中文回复,请先输入:你好!请中文回复

图片图片

内存

图片 图片

责任编辑:武晓燕 来源: 开源技术小栈
相关推荐

2024-04-30 08:28:44

开源大模型Llama

2009-11-05 16:04:19

Oracle用户表

2020-11-20 08:36:59

Jpa数据代码

2022-01-05 18:18:01

Flink 数仓连接器

2022-03-26 09:06:40

ActorCSP模型

2021-12-17 07:47:37

IT风险框架

2023-11-23 19:26:43

2022-02-16 19:42:25

Spring配置开发

2009-11-09 12:55:43

WCF事务

2023-11-26 00:30:05

2009-11-12 09:16:15

ADO.NET数据库连

2024-01-16 07:46:14

FutureTask接口用法

2021-04-20 13:59:37

云计算

2023-12-27 08:15:47

Java虚拟线程

2022-02-17 09:24:11

TypeScript编程语言javaScrip

2021-10-20 17:44:57

分析模型回归

2013-06-28 14:30:26

2020-06-30 10:45:28

Web开发工具

2021-02-03 14:31:53

人工智能人脸识别

2024-01-12 07:38:38

AQS原理JUC
点赞
收藏

51CTO技术栈公众号