使用ChatGPT创建内容时应该避免的四个错误

人工智能
ChatGPT提供了前所未有的速度和便利,但使用它也需要谨慎和负责。避免过度依赖ChatGPT,需要使用更合适的工具进行研究,更好地与团队合作,并学会有效地使用提示以最大限度地获得其好处。

ChatGPT在短时间内生成内容的能力使其越来越受到内容创作者的欢迎。然而,像任何强大的技术一样,人工智能语言模型也可能被滥用。

在人们对这个问题掉以轻心之前,要知道滥用人工智能可能会导致法律问题、声誉损害和错误的输出。以下探讨了内容创建者使用ChatGPT的错误方式,以便可以避免这些问题。

1、不要过度依赖ChatGPT

假设用户是第一次使用ChatGPT,就会发现它的响应速度非常快。以前花费几个小时创造的东西现在只需要几秒钟。随着时间的推移,用户可能会开始严重依赖,通常只是进行一些修改,并没有费心去研究。

这种现象就是人们所说的对人工智能的过度依赖,对于那些被迫快速生产内容的创作者来说,这是一条诱人的途径。然而,微软公司发表的有关人工智能过度依赖的文献综述警告说,过度依赖人工智能会导致用户接受错误的结果。

以网络媒体CNET的争议为例。CNET发表了人工智能撰写的财务分析文章,署名为“CNET Money Staff”。不幸的是,一些专业人士在人工智能生成的文章中发现了明显的错误。它指责这家媒体机构发布可怕的财务建议,并大量生产廉价内容来操纵谷歌搜索结果牟利。

不知道CNET是过度依赖人工智能还是过度自信,或者没有人会注意到。无论如何,这一事件应该成为一个警告,不要过度依赖人工智能的输出。

需要记住的是,ChatGPT可能会大量输出过时的信息。正如ChatGPT公司自己所说,训练ChatGPT所采用的知识的截止日期为2021年9月,所以用户反复检查信息的真实是很好的措施。

OpenAI公司的CEO Sam Altman也在美国广播公司新闻的视频采访中提到,用户应该对ChatGPT的“幻觉问题”更加谨慎。它可以自信地陈述虚构的想法,就好像它们是事实一样。像CNET网络这一事件可能会损害用户将其作为权威消息来源的可信度。

当用户没有足够的知识来评估结果时,很容易盲目地接受ChatGPT输出的内容。此外,当ChatGPT的答案与用户的理念一致时,可能不会费心去检查不同的观点。为了避免这些尴尬的情况,需要核实事实,寻求不同的观点,并获得专家的建议。

用户正在学习使用ChatGPT进行内容创作,包括什么是人工智能幻觉,以及如何在要掌握的主题列表中发现它。更重要的是,不要忽视人类的判断力和创造力。需要记住的是,人工智能应该增强其思维,而不是取代它。

2、不要向ChatGPT索取研究链接

如果用户要求ChatGPT提供研究资源的互联网链接,那么可能会感到失望。ChatGPT也许提供链接,但它们可能是错误的,或者不一定是网络上最好的内容。

为了进行测试,研究人员让ChatGPT提供JSTOR的研究论文链接,这些论文是关于英国年轻奇幻作家撰写的成长故事。ChatGPT提供了5种资源,包括标题、卷号、页码和作者。

乍一看,这份名单似乎可信。JSTOR上的文章有一些听起来令人印象深刻的标题,例如《构建混合身份:萨莉·格林三部曲中的种族与民族》。但是谷歌搜索很快就会显示大多数链接指向错误的JSTOR文章,其中一个链接指向404页面。

在另一个例子中,提供给ChatGPT一个更具体的主题来研究,看看它是否会产生更好的结果。这是使用的提示:“我正在写一篇关于‘英国青年和成年当代小说中的女主角’的文学研究论文,你能给我一篇关于这个话题的文献综述吗?”

ChatGPT给出了一个包含五部作品的列表,并附有作者的姓名和摘要。然而,人们在网上找不到它列出的任何作品。

为了更好地理解这些信息,研究人员要求提供链接。ChatGPT这一次却拒绝了,声称这只是一个没有网页浏览功能的人工智能语言模型。然而,它提供了书目信息,尽管这些作品据称是在2004~2018年期间创作的,但无法在网上核实。

当被提示提供链接以验证其提供的信息时,ChatGPT这次断然拒绝了。OpenAI公司表示,它没有网络浏览功能,而是提供了一份书目信息列表。然而,其数据仍然是错误的。

OpenAI公司上最新的ChatGPT发布说明显示它现在具有网页浏览功能。但是这些功能还没有普及到每一个用户。此外,正如研究人员所指出的那样,ChatGPT的搜索结果不一定是互联网上最好的,因为专业人士可以操纵搜索引擎的结果。

为了避免这个问题:

  • 用户可以为其研究使用更合适的在线资源。
  • 如果需要学术研究的资源,可以查看Google Scholar或人工智能研究助手Elicit。
  • 在选择引用哪篇文章时,记住要批判性地评估结果并做出判断。

3、不要用ChatGP代替职场关系

用户可以使用ChatGPT做的一些事情可能会诱使用户将其拟人化或赋予其人类属性。例如,可以向ChatGPT寻求建议,如果需要找人聊天,可以和它聊天。

在下面的例子中,可以让ChatGP作为十年来最好的朋友,提供关于职场倦怠的建议,它似乎倾听并感同身受。

但无论它听起来多么富有同情心,ChatGPT都不是人类。听起来像人类生成的句子只是ChatGPT根据其训练数据预测序列中的下一个单词或“标记”的结果。它不像人类那样有知觉,有自己的意志和思想。

也就是说,ChatGPT并不能代替工作场所中的人际关系和协作。正如哈佛大学“工作与幸福倡议”所言,这些人际关系让人受益,有助于提高幸福感,免受工作压力的影响。

学习使用最新的技术工具很重要,但与团队其他成员的互动也是必不可少的,而不是依靠ChatGPT复制社会关系,建立人际关系技能,与同事互动,并找到能够一起更好地完成工作的人。

4、不要向ChatGPT发送无效提示

在创建内容时,是否发现很难从ChatGPT中获得最佳响应?提供场景和给出精确的指示应该能解决这个问题。

在下面的例子中,可以让ChatGPT总结一下美国乡村音乐歌手Eric Allen在Hackernoon上写的一篇有趣的博客。这篇冗长的文章描述了Allen在ChatGPT中改进人工智能提示的过程,以创建一个名为BeatBrain的音乐推荐系统。

然而,ChatGPT并不熟悉Allen的文章。当要求ChatGPT分享链接并做出总结时,ChatGPT却错误地声称Eric Allen创立了BeatBrain公司,该公司利用GPT-3技术创作人工智能生成的音乐。

为了帮助ChatGPT,将文章分几部分进行复制粘贴,并要求在每次上传后提供摘要。ChatGPT这一次能够准确地完成任务。还有一次,ChatGPT提供了评论而不是摘要,但是研究人员用另一个提示对它进行了重定向。

这个例子是一个关于如何使用ChatGPT有效地总结长篇技术文章的实验。然而,人们现在可以访问许多互联网资源,并学习提示技术来改进其ChatGPT响应。

使用推荐的提示并不是防止ChatGPT产生幻觉的万无一失的方法,但它可以帮助服务商提供准确的结果,还可以查看GitHub上最好的ChatGPT提示,以获取有关提示技术的更多信息。

最大化ChatGPT的功能,但要注意它的局限性

ChatGPT提供了前所未有的速度和便利,但使用它也需要谨慎和负责。避免过度依赖ChatGPT,需要使用更合适的工具进行研究,更好地与团队合作,并学会有效地使用提示以最大限度地获得其好处。

接受ChatGPT的力量,但要始终注意其局限性。通过最大化ChatGPT的潜力,同时最小化它的缺陷,可以产生有影响力的、有创意的内容,从而提高工作质量。

责任编辑:姜华 来源: 企业网D1Net
相关推荐

2023-01-17 09:27:18

Python语言

2021-03-09 09:52:55

技术React Hooks'数据

2015-09-01 16:27:31

薪资错误

2018-04-10 15:10:18

路由器错误摆放

2014-06-06 14:53:45

虚拟服务器私有云

2021-12-01 08:00:00

数据安全IT测试

2016-05-17 10:37:46

2021-03-08 16:47:24

大数据错误大数据

2021-12-03 09:41:20

首席信息官CIO数据安全

2018-11-15 08:07:33

Kubernetes监控IT团队

2020-09-10 10:16:09

开源代码安全性漏洞恶意组件

2020-08-31 10:30:05

数字化转型疫情CIO

2021-08-24 10:51:19

多云云计算云平台

2020-06-04 08:15:53

Kubernetes容器PaaS

2023-04-12 07:18:38

ChatGPT语言模型AI

2023-06-07 07:43:06

APIVue 2Vue 3

2021-12-10 14:54:02

数字化转型金融技术

2021-01-14 10:03:38

大数据数据业务数据集

2014-08-13 15:55:17

Web响应式设计design

2021-09-22 10:30:54

UbuntuLinux命令
点赞
收藏

51CTO技术栈公众号