20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

新闻 人工智能
这是一个叫做neural-style-pt的风格迁移模型,基于Pytorch实现,而且刚刚开源!

 本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

20分钟生成复杂的艺术作品,而且还是用英伟达上上代的1080显卡?

[[376741]]

现在神经网络上手门槛这么亲民了吗?

没错,这是一个叫做neural-style-pt的风格迁移模型,基于Pytorch实现,而且刚刚开源!

有关这个算法模型的话题在Reddit上才发布一天,热度接近2000。

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

neural-style-pt,真的酷炫又亲民吗?

丰富的融合方式

neural-style-pt是论文A Neural Algorithm of Artistic Style的Pytorch实现。

论文介绍了一种利用卷积神经网络将一张图片的内容,与另一张图片的风格相结合的算法,就是我们熟知的“风格迁移”网络。

比如,将《星空》的艺术风格映射到一张斯坦福校园的夜景照片上:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

或者根据给定图像的不同艺术风格,分别融合进目标图片:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

除了“分别”融合,还能把多个艺术风格融进一张图片:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

从左上角顺时针开始风格分别为”星空 “+”呐喊”、”呐喊 “+”构图七(瓦西里·康定斯基油画)“、”坐着的裸女(莫蒂里安尼油画) “+”构图七”、”坐着的裸体 “+”星空”。

在进行风格迁移时,添加“-original_colors 1”指令,还可以只改变风格,不改变原图颜色:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

1080卡就能跑?

根据后台和优化器的不同,算法运行速度会有很大差异。

在Tesla K80上使用512像素图片迭代500次时间参考:

  • 后台nn、优化器L-BFGS: 117秒
  • 后台nn、优化器 ADAM: 100秒
  • 后台cudnn -优化器L-BFGS: 124秒
  • 后台cudnn -优化器ADAM:107秒
  • 后台cudnn -cudnn_autotune -优化器L-BFGS: 109秒
  • 后台cudnn -cudnn_autotune -优化器ADAM: 91秒

 而在GTX 1080上,相同基准下时间更快:

  • 后端nn -优化器L-BFGS: 56秒
  • 后台nn -优化器 ADAM: 38秒
  • 后台cudnn -优化器L-BFGS: 40秒
  • 后台cudnn -优化器ADAM:40秒
  • 后台cudnn -cudnn_autotune -优化器 lbfgs: 23秒
  • 后台cudnn -cudnn_autotune -优化器ADAM: 24秒

 结合当下1080卡的售价,不得不说,这样的门槛,对于机器学习来说,已经很香了。

默认情况下,neural-style-pt使用后端进行卷积,L-BFGS进行优化。但会使用大量的内存,可以通过以下方法来减少内存的使用。

使用cuDNN,添加-backend cudnn来使用cuDNN后端。而使用ADAM时,添加-optimizer adam来使用ADAM而不是L-BFGS。

在默认设置下,neural-style-pt在系统上使用了大约3.7GB的GPU内存;切换到ADAM和cuDNN可以将GPU内存占用减少到大约1GB。

如何上手试玩

安装neural-style-pt,首先要准备好Pytorch。

然后,使用下方一句话指令就能安装已经训练好的模型:

  1. python models/download_models.py 

安装完以后,上手试玩也很简单,一行代码就能实现:

  1. python neural_style.py -style_image-content_image 

如果要载入多种风格,需要分隔不同的图片文件名:

  1. -style_image starry_night.jpg,the_scream.jpg 

注意,图片名称要包含完整的地址路径。

基本操作就是这些。

neural-style-pt还有一点强大的功能,就是可以使用多个不同的计算设备来处理高分辨率图像。

不同的设备会输出不同网络层的计算结果。

你可以用-gpu指令控制使用哪些GPU和CPU设备,你也可以用-multidevice_strategy控制如何在不同设备上分割层。

例如,在一个有四个GPU的服务器中,指令“-gpu 0,1,2,3”,指按顺序在GPU 0、1、2和3上进行处理。

同时给出 -multidevice_strategy 3,6,12指令,表示前两层应该在GPU 0上计算,第3到5层应该在GPU 1上计算,第6到11层应该在GPU 2上计算,其余的层应该在GPU 3上计算。

根据你的需求调整-multidevice_strategy,可以达到输出的最大分辨率。

下面是一张4016x2213分辨率图像,是在使用8个Tesla K80 GPU的服务器上生成的:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

1080显卡入门,还能“分布式”计算,这么酷炫好玩低门槛的风格迁移网络,赶快来试试吧~

传送门:
https://github.com/ProGamerGov/neural-style-pt

责任编辑:张燕妮 来源: 量子位
相关推荐

2022-12-19 10:32:23

算法测量

2019-06-05 09:42:53

Kafka App 消息队列

2023-09-08 00:07:29

2015-04-03 10:39:40

AndroidChrome

2019-08-29 20:10:03

U盘系统Windows 10

2013-09-17 09:49:29

程序集读懂程序编程

2020-04-08 08:47:04

HBase场景组件

2023-06-16 16:56:27

2019-08-29 11:10:07

PythonVimLinux

2016-09-13 20:58:41

MySQ基础入门Sql

2023-08-31 13:24:42

数据AI

2022-09-13 15:56:48

AI创造艺术谷歌

2018-10-30 09:00:00

神经网络AI人工智能

2023-12-13 12:55:39

模型数据

2019-07-22 19:16:42

机器人人工智能系统

2019-02-28 15:04:36

显卡兼容芯片

2023-08-18 10:28:44

2022-09-08 11:12:09

ES6JavaScript

2019-09-19 16:36:09

百度地图人工智能语音

2023-08-20 12:15:33

人工智能模型
点赞
收藏

51CTO技术栈公众号