清华系「自然语言编程神器」上新!支持100+种编程语言,效率upup

人工智能 新闻
代码生成、解释、翻译、纠错和编程问答等工作,效率都比以前有显著提高。

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

清华和智谱AI联合打造的多语言代码生成模型CodeGeeX,更新了!

它支持的编程语言种类从原来的20种增加到100多种

通过IDE中的插件,可以轻松实现「无缝自然语言编程」。

图片图片

由于使用了新版基础模型,CodeGeeX2的功能更加强大。

据了解,这次的新版本,精度和速度分别是原来的两倍和三倍,内存消耗却只有1/5。

代码生成、解释、翻译、纠错和编程问答等工作,效率都比以前有显著提高。

作为「课代表」,我们把CodeGeeX的更新概括成了下面这几个方面:

  • 代码能力更强了
  • 模型特性得到了优化
  • AI编程助手功能更全面了
  • 用户协议更加开放

插件版本也将全面更新

模型用起来太繁琐?没关系,除了模型本身的更新,CodeGeeX的插件版本很快也将全面升级至新版。

新插件同样支持超过100种编程语言,说不定比我们知道的还要多。

这之中除了Python、Java等我们耳熟能详的语言之外,还包括Swift、Kotlin等移动端新兴势力。

甚至像Rust这种系统级的编程语言,也在CodeGeeX2的能力范围之内。

比如下面这张动图就展示了CodeGeeX2生成Kotlin代码的场景。

图片图片

代码生成的速度简直比人类输入指令的速度还快。

而且从中我们可以看到,CodeGeeX2添加注释或debug都能一键完成。

图片

不仅是设计算法,实用程序的编写也是小菜一碟。

补全个vue.js代码,搭建出网页,效率杠杠的!

图片图片

除了这些代码相关的任务,CodeGeeX2还有很多其他应用场景。

比如查询SQL数据库。

只要打开问答模式,用自然语言描述想要查询的内容,CodeGeeX2就能自动生成SQL查询语句。

图片图片

模型变强之后,会不会收费呢?不必担心,新版CodeGeeX插件将继续对个人用户免费开放

而6B参数的CodeGeeX2,也已经进行了开源,相关代码可以到GitHub仓库中查看。

GitHub Copilot的模型也不是对手

OpenAI的HumanEval评测标准可以很好地评价生成代码的表现。

这个名字很容易理解:模型生成的代码质量如何将由人类来评价。

在HumanEval评测中,6B参数的CodeGeeX2的得分比15B参数的StarCoder模型还要高,可谓是四两拨千斤。

而GitHub Copilot中曾使用的Code-Cushman-001模型同样不是CodeGeeX2的对手。

图片

不过,CodeGeeX毕竟是一个多语言模型,而HumanEval却只支持Python。

所以,为了更加准确地测试CodeGeeX的表现,智谱团队在其基础上增加了Go、C++、Java和JS四种语言的测试数据,得到了HumanEval-X数据集。

图片

结果显示,在多语言方面,新版CodeGeeX2的表现和在Python中一样优异。

相较于第一代,CodeGeeX2的Pass@1指标在各个语言上的平均表现提升了107%

其中,Rust语言的性能提升显著,提升了321%;C++和JS语言上的表现也提升了70%以上。

图片

而在代码翻译方面,CodeGeeX2的表现同样碾压对手。

图片

「不看广告看疗效」,CodeGeeX不仅测试结果优异,用户的认可度也是很高的。

在「CodeGeeX是否提高了编程效率」这一问题中,有83.4%的用户给出了正面的答案

图片

除了调查结果,用户们也在「用脚投票」。

自第一个版本发布以来,CodeGeeX的下载量已达12万次,平均每天生成近千万行代码。

这是个什么概念呢?如果只看代码行数,相当于不到一周的时间就写出一套Windows XP。

说了这么多,CodeGeeX又该如何体验呢?

快速体验

第一种方式就是IDE中的插件,VScode和JetBrains系列IDE的插件仓库中均有收录。

除了使用IDE中的插件之外,CodeGeeX也可以在Transformer中快速调用。

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/codegeex2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/codegeex2-6b", trust_remote_code=True, device='cuda')
model = model.eval()

# remember adding a language tag for better performance
prompt = "# language: python\n# write a bubble sort function\n"
inputs = tokenizer.encode(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(inputs, max_length=256, top_k=1)
response = tokenizer.decode(outputs[0])

>>> print(response)
# language: python
# write a bubble sort function

没有支持的IDE,Transformer又觉得麻烦,但还是想体验怎么办?

没关系,这里还有个还有在线版DEMO。

传送门:https://codegeex.cn/zh-CN/playground

赶快来感受一下「无缝自然语言编程」吧!

论文地址:https://arxiv.org/abs/2303.17568
Github项目页:https://github.com/THUDM/CodeGeeX2
Hugging Face项目页:https://huggingface.co/THUDM/codegeex2-6b

责任编辑:张燕妮 来源: 量子位
相关推荐

2013-07-16 10:08:51

MIT编程语言

2018-05-10 08:20:23

自然语言数据集数据

2020-02-25 23:28:50

工具代码开发

2020-02-25 12:00:53

自然语言开源工具

2023-05-28 12:26:36

ChatGPTAI

2020-10-13 06:34:15

编程语言IDE

2019-11-18 15:07:54

编程语言C#

2021-05-13 07:17:13

Snownlp自然语言处理库

2009-08-04 11:15:57

编程语言排行榜微软

2018-07-19 19:07:33

语言编程语言程序

2022-05-18 18:31:28

机器人自然语言编程

2023-04-19 09:00:36

ChatGPT自然语言编程

2020-04-16 10:32:38

自然语言人工智能AI

2022-09-23 15:36:07

语言模型Google

2020-04-24 10:53:08

自然语言处理NLP是人工智能

2024-02-05 14:18:07

自然语言处理

2023-08-04 10:18:15

2015-01-04 13:42:15

编程语言

2020-02-05 17:09:28

编程语言代码Ruby

2021-05-17 09:00:00

自然语言人工智能技术
点赞
收藏

51CTO技术栈公众号