光动嘴就能玩原神!用AI切换角色,还能攻击敌人,网友:“绫华,使用神里流·霜灭”

人工智能
X-VLM是一种基于视觉语言模型(VLM)的多粒度模型,由图像编码器、文本编码器和跨模态编码器组成,跨模态编码器在视觉特征和语言特征之间进行跨模态注意,以学习视觉语言对齐。

说到这两年风靡全球的国产游戏,原神肯定是当仁不让。

根据5月公布的本年度Q1季度手游收入调查报告,在抽卡手游里《原神》以5.67亿美金的绝对优势稳稳拿下第一,这也宣告《原神》在上线短短18个月之后单在手机平台总收入就突破30亿美金(大约RM130亿)。

图片

如今,开放须弥前最后的2.8海岛版本姗姗来迟,在漫长的长草期后终于又有新的剧情和区域可以肝了。

不过不知道有多少“肝帝”,现在海岛已经满探索,又开始长草了。

图片

宝箱总共182个+1个摩拉箱(不计入)

长草期根本没在怕的,原神区从来不缺整活儿。

这不,在长草期间,就有玩家用XVLM+wenet+STARK做了一个语音控制玩原神的项目。

比如,当说出“用战术3攻击中间的火史莱姆”时,钟离先是一个套盾,凌华一个霰步后紧接着一个“失礼了”,团灭了4只火史莱姆。

图片

同样,在说出“攻击中间的大丘丘人”后,迪奥娜长E套盾,凌华紧接着一个E然后3A一重漂亮地收拾掉了两只大丘丘人。

图片

可以在左下方看到,整个过程都没有用手进行任何操作。

文摘菌直呼内行,以后打本连手也能省了,并表示妈妈再也不用担心玩原神玩出腱鞘炎了!

目前该项目已经在GitHub上开源:

图片

GitHub链接:

https://github.com/7eu7d7/genshin_voice_play

好好的原神,硬是被玩成了神奇宝贝

这样的整活项目自然也是吸引到了不少原神长草玩家的目光。

比如有玩家就建议到,可以设计得更中二一点,直接用角色名加技能名,毕竟“战术3”这样的指令观众也无法第一时间知道,而“钟离,使用地心”就很容易代入游戏体验。

图片

更有网友表示,既然都能对怪指令,那是不是也可以对人物语音,比如“龟龟,使用霜灭”。

图片

龟龟每日疑惑.jpg

不过,这么这些指令怎么看上去有股似曾相识的味道?图片

图片

对此up主“薛定谔の彩虹猫”表示,喊技能的话语速可能会跟不上,攻击速度会变慢,这才自己预设了一套。

图片

不过像是一些经典队伍,比如“万达国际”“雷九万班”的输出手法倒也算是相对固定,预设攻击顺序和模式似乎也行得通。

当然除了玩梗之外,网友们也在集思广益,提出了不少优化意见。

比如直接用“1Q”让1号位角色放大招,重击用“重”表示,闪避则用“闪”,这样的话下达指令也能更简单迅速一些,或许还能用来打深渊。

图片

也有内行玩家表示,这个AI似乎有点“不大理解环境”,“下一步可以考虑加上SLAM”,“实现360度的全方位目标检测”。

图片

up主表示,下一步要做“全自动刷本,传送,打怪,领奖励一条龙”,那似乎也还可以加一个自动强化圣遗物功能,歪了就把AI格式化了。

图片

原神区硬核整活up主还出过“提瓦特钓鱼指南”

正如文摘菌所说,原神区从不缺整活儿,而这位up主“薛定谔の彩虹猫”应该是其中最“硬核”的了。

从“AI自动摆放迷宫”,到“AI自动演奏”,原神出的每个小游戏可以说是应AI尽AI了。

图片

其中文摘菌也发现了“AI自动钓鱼”项目(好家伙原来也是你),只需要启动程序,提瓦特的鱼全都能变成囊中之物。

原神自动钓鱼AI由两部分模型组成:YOLOX和DQN:

YOLOX 用于鱼的定位和类型的识别以及鱼竿落点的定位;

DQN 用于自适应控制钓鱼过程的点击,让力度落在最佳区域内。

此外,该项目还用到了迁移学习、半监督学习来进行训练。模型也包含了一些使用opencv等传统数字图像处理方法实现的不可学习部分。

图片

项目地址:

https://github.com/7eu7d7/genshin_auto_fish

等3.0更新后还需要钓鱼获得的“咸鱼弓”,就拜托你了!图片

那些把原神变成神奇宝贝的“神器”

作为一个严肃的人,文摘菌觉得也有必要给大家科普一下这次原神语音项目用到的几个“神器”。

X-VLM是一种基于视觉语言模型(VLM)的多粒度模型,由图像编码器、文本编码器和跨模态编码器组成,跨模态编码器在视觉特征和语言特征之间进行跨模态注意,以学习视觉语言对齐。

学习多粒度对齐的关键是优化X-VLM:1)通过结合边框回归损失和IoU损失,在给定关联文本的图像中定位视觉概念;2)同时,通过对比损失、匹配损失和掩码语言建模损失,将文本与视觉概念进行多粒度对齐。

在微调和推理中,X-VLM可以利用学习到的多粒度对齐来执行下游的V+L任务,而无需在输入图像中添加边框注释。

图片

论文链接:

https://arxiv.org/abs/2111.08276

WeNet是一个面向生产的端到端语音识别工具包,在单个模型中,它引入了统一的两次two-pass (U2) 框架和内置运行时来处理流式和非流式解码模式。

就在今年7月初的时候,WeNet推出2.0版本,并在4个方面进行了更新:

U2++:具有双向注意力解码器的统一双通道框架,包括从右到左注意力解码器的未来上下文信息,以提高共享编码器的表示能力和重新评分阶段的性能;

引入了基于n-gram的语言模型和基于WFST的解码器,促进了富文本数据在生产场景中的使用;

设计了统一的上下文偏置框架,该框架利用用户特定的上下文为生产提供快速适应能力,并在“有LM”和“无LM”两大场景中提高ASR准确性;

设计了一个统一的IO来支持大规模数据进行有效的模型训练。

从结果上看,WeNet 2.0在各种语料库上比原来的WeNet实现了高达10%的相对识别性能提升。

图片

论文链接:https://arxiv.org/pdf/2203.15455.pdf

STARK是一种用于视觉跟踪的时空变换网络。基于由卷积主干、编解码器转换器和bounding box预测头组成的baseline的基础上,STARK做了3点改进:

动态更新模板:以中间帧作为动态模板加入输入中。动态模板可捕获外观变化,提供额外时域信息;

score head:判断当前是否更新动态模板;

训练策略改进:将训练分为两个阶段1)除了score head外,用baseline的损失函数训练。确保所有搜索图像包含目标并让模板拥有定位能力;2)用交叉熵只优化score head,此时冻结其他参数,以此让模型拥有定位和分类能力。

图片

论文链接:

https://openaccess.thecvf.com/content/ICCV2021/papers/Yan_Learning_Spatio-Temporal_Transformer_for_Visual_Tracking_ICCV_2021_paper.pdf

责任编辑:武晓燕 来源: 大数据文摘
相关推荐

2023-12-23 23:04:26

AI模型

2021-03-19 19:15:57

黑客攻击泄露

2020-01-07 11:30:50

图像识别AI人工智能

2023-09-03 12:50:59

AI技术

2023-10-10 15:06:00

智能数据

2022-11-11 10:01:35

代码Copilot函数

2021-09-24 09:35:34

AI 数据机器学习

2018-07-09 14:21:29

Python电影数据

2016-01-26 14:25:32

EasyStackOpenStack云计算

2020-07-14 08:34:07

AI机器学习预测股价

2021-12-18 07:34:59

Windows 11操作系统微软

2018-03-17 17:33:13

云计算AI人工智能

2020-04-09 09:52:42

Python数据技术

2019-11-27 19:29:17

QQ微信移动应用

2023-10-11 19:00:59

AIAdobe图像

2010-04-25 22:46:47

2021-10-26 10:07:42

网络攻击IT资产网络安全

2023-08-21 13:51:12

AI模型

2015-07-08 16:44:02

雷蛇烈焰神

2021-07-05 08:12:53

Nginx架构多进程
点赞
收藏

51CTO技术栈公众号