简述WebGPT,你学会了吗?

人工智能 机器学习
通过 WebGPU 将高级机器学习模型引入浏览器为开发人员提供了许多机会,它提出了一个未来的愿景,即 Web 应用程序更强大、响应更快、更注重隐私。

原文作者:Ebenezer Don

原文地址:https://blog.logrocket.com/introduction-webgpt/

翻译:一川

随着WebGPU的引入,Web开发发生了有趣的转变,WebGPU是一种新的API,允许Web应用程序直接访问设备的图形处理单元(GPU)。这种发展意义重大,因为 GPU 擅长复杂的计算。

一个说明WebGPU潜力的项目是WebGPT。这是一个用JavaScript和HTML编写的简单应用程序,旨在展示WebGPU API的功能。

在这篇文章中,我们将讨论为什么 WebGPT 很重要以及如何在本地和浏览器中实现它。

什么是 WebGPT 和 WebGPU?

在我们深入研究 WebGPT 的实际实现之前,让我们简要介绍一下它在幕后是如何工作的。

WebGPT[https://github.com/0hq/WebGPT]是Transformer模型的 JavaScript 和 HTML 实现,Transformer模型是一种特定的机器学习模型,旨在有效地处理序列数据。在自然语言处理 (NLP) 中,序列数据通常是指文本,其中单词和字符的顺序对其含义至关重要;序列的各个部分与整体一样重要。

Transformer模型是擅长处理 NLP 序列数据的机器学习模型。这些模型构成了许多最先进的自然语言处理模型的基础,包括GPT(生成预训练Transformer)。

WebGPT 的Transformer模型旨在与 WebGPU 配合使用,WebGPU 是一个允许 Web 应用程序访问和使用设备GPU 的 API。GPU 特别擅长执行机器学习模型所需的并行计算类型,使其成为 WebGPT 的强大资源。

在WebGPU之前,应用程序必须主要依赖于设备的中央处理器(CPU)或较旧的、效率较低的API,如WebGL。相比之下,WebGPT 使用明确设计的Transformer模型,以使用 WebGPU API 在浏览器中运行。

当 WebGPT 接收到输入时,它使用其Transformer模型来处理数据。借助WebGPU API,它可以在用户设备上本地执行计算。然后,结果直接在浏览器中返回,从而实现快速高效的执行。

将如此强大的机器学习模型引入浏览器对 Web 开发具有深远的影响,包括:

  • 实时数据处理:当可以在客户端完成计算时,有可能以最小的延迟进行实时数据处理。这可以改变一系列应用程序的用户体验,从交互式工具和游戏到实时分析。
  • 增强的隐私:由于数据处理在用户设备上本地进行,因此无需将潜在的敏感数据发送到服务器。对于处理个人或敏感数据的应用程序来说,这可能会改变游戏规则,从而增强用户的信任和隐私。
  • 成本效益:公司可以通过将计算负载从服务器转移到客户端来节省服务器成本。这可以使小型公司或个人开发人员可以使用高级机器学习功能。

实现 WebGPT

WebGPT被设计为易于使用:它只需要一组HTML和JavaScript文件即可运行。但是,由于WebGPU是一项相当新的技术,因此您需要与WebGPU兼容的浏览器[https://caniuse.com/webgpu]。

截至 2023 年 7 月,Chrome v113 支持 WebGPU。另一种方法是安装 Chrome Canary 或 Edge Canary 以确保兼容性。

在浏览器中运行 WebGPT

您可以直接在其演示网站上试用 WebGPT,网址为 https://www.kmeans.org。远程加载模型权重可能比在本地加载模型权重慢,因此为了获得响应速度更快的体验,建议尽可能在本地运行 WebGPT。

在本地运行 WebGPT

若要在本地运行 WebGPT,请执行以下步骤:

  1. 克隆 WebGPT 存储库:您可以通过在终端中运行以下命令来克隆存储库:
git clone https://github.com/0hq/WebGPT.git
  1. 安装 Git LFS:克隆存储库[https://blog.logrocket.com/efficiently-manage-large-files-git-with-git-lfs/]后,您需要使用 Git LFS 下载模型文件,Git LFS 是一个 Git 扩展,允许您在 Git 存储库中存储大文件。在本地计算机上安装 Git LFS,然后导航到终端中的 WebGPT 目录并运行:
git lfs install
  1. 下载模型文件:之后,运行以下命令下载模型文件:
git lfs pull
  1. 在本地服务器上启动 WebGPT 文件:您可以使用简单的 HTTP 服务器或像 Live Server for Visual Studio Code 这样的工具。
  2. 在浏览器中打开 WebGPT 页面:导航到运行 WebGPT 的本地服务器的 URL。您应该会看到如下所示的页面:

图片图片

单击任意“加载模型”按钮以加载模型权重。之后,您可以在输入框中输入文本,然后单击 生成 根据输入生成文本。

图片图片

使用自定义 WebGPT 模型

WebGPT 有两个内置模型:一个小型 GPT-Shakespeare模型和具有 1.17 亿个参数的 GPT-2。如果要使用自定义模型,请检查存储库[https://github.com/0hq/WebGPT]中的 other/conversion_scripts 脚本目录,以将 PyTorch 模型转换为 WebGPT 可以使用的格式。

以下是我们的目录:

图片图片

WebGPU 的挑战和局限性

由于 WebGPT 建立在 WebGPU 之上,因此了解 WebGPU 的挑战和局限性非常重要。虽然WebGPU是一项有前途的技术,但它仍然是一个相对较新的API,因此它有一些挑战需要克服。其中一些包括:

  • 缺乏浏览器支持:并非所有浏览器目前都支持 WebGPU,即使是那些支持 WebGPU 的浏览器也可能没有完全支持。这可能会使开发和部署 WebGPU 应用程序变得困难,更不用说部署它们供公众使用了。
  • 复杂性:WebGPU 是一个复杂的 API,可能很难学习和使用。对于不熟悉低级图形 API 的开发人员来说,这可能是一个进入障碍
  • 性能:在某些情况下,WebGPU可能比WebGL慢,尤其是在较旧的硬件上。这是因为 WebGPU 是一个更低级别的 API,可能需要更多时间来编译着色器和设置图形管道

GPT 和其他变压器模型的未来

GPT 和类似模型由于其高计算需求而主要在服务器上运行;但是,WebGPT 表明这些模型可以直接在浏览器中运行,提供的性能可能与基于服务器的设置相媲美。

借助 WebGPU 等技术和 WebGPT 等项目提供的功能,我们可以将 GPT 等转换器模型的使用扩展相当多。随着技术的成熟和优化的改进,我们可以看到更大的模型在浏览器中流畅运行。

这可以提高Web应用程序中高级AI功能的可用性,从更复杂的聊天机器人到强大的实时文本分析和生成工具,甚至加速变压器模型的研究和开发。通过使部署这些模型更容易、更便宜,更多的开发人员和研究人员将有机会试验和改进它们。

总结

通过 WebGPU 将高级机器学习模型引入浏览器为开发人员提供了许多机会,它提出了一个未来的愿景,即 Web 应用程序更强大、响应更快、更注重隐私。

虽然该技术仍然相对较新,并且需要克服挑战,例如优化性能和确保大模型的稳定性,但潜在的好处是显着的。随着开发人员开始接受和试验这些工具,我们可以期待看到更多令人印象深刻的实现,如 WebGPT 和利用浏览器内机器学习的新 Web 应用程序。

责任编辑:武晓燕 来源: 宇宙一码平川
相关推荐

2024-02-04 00:00:00

Effect数据组件

2024-01-19 08:25:38

死锁Java通信

2023-07-26 13:11:21

ChatGPT平台工具

2023-01-10 08:43:15

定义DDD架构

2023-01-30 09:01:54

图表指南图形化

2023-10-10 11:04:11

Rust难点内存

2022-07-08 09:27:48

CSSIFC模型

2023-12-12 08:02:10

2024-01-02 12:05:26

Java并发编程

2022-03-08 08:39:22

gRPC协议云原生

2023-01-28 09:50:17

java多线程代码

2024-02-02 09:00:14

内存泄漏对象

2022-11-16 08:33:29

监听Spring监听器

2022-12-26 07:48:04

敏捷项目

2024-01-11 08:21:33

Jetpack数据技术

2023-10-30 07:05:31

2023-03-30 08:26:31

DNSTCPUDP

2022-10-18 17:59:46

Bootstrap源码父类

2023-01-13 11:55:05

TY子系统设备

2024-03-05 10:09:16

restfulHTTPAPI
点赞
收藏

51CTO技术栈公众号