元宇宙网:99.99%的人在错误地使用ChatGPT

AI2年前 (2023)发布 admin
126,501 0

 

昨晚,在传统行业一贯不关心IT时事的姐夫来电,问我用没用过ChatGPT,以及怎么才能用上。ChatGPT从发布到彻底出圈,为普通人所知,2个月。

这并不是科普的胜利,也算不上知识的觉醒,而是一次技术和普罗大众的碰撞。ChatGPT的出圈再次验证了,普通人需要的技术才有机会取得现象级的传播。

有人把ChatGPT的出现,誉为超越互联网的改变,并大胆预测未来的世界将从此不同。也有人担心,只是大规模语言训练模型结晶的ChatGPT会在强行回答问题的预设下,变成无法控制的谣言制造者。

微信两次封禁ChatGPT机器人,其中固然有不允许第三方外挂的条款做上方宝剑,ChatGPT无法预测的生成内容恐怕更让腾讯担心。

在微信群里围观各色人等询问ChatGPT的问题,到让我得出一个结论,AI的出现不见得让人类变蠢,但却会检测出人群中已有的愚蠢。

有些问题是调侃,有些问题略带认真。调侃的问题,无伤大雅,略带认真的问题才可怕。

提问者并不关心,也不想了解ChatGPT的原理,背后的知识库。出圈之后的语言模型,被人认为是新时代能够理解人类自然语言的AI,无所不知,无所不能。

有人问它:今天那只股票会涨?

有人问它:如何跟漂亮女孩子谈恋爱。

还有人问它:孩子不爱学习怎么办?

问题五花八门,无法一一列举,但ChatGPT不管三七二十一,都会一本正经的回答。

必须承认,ChatGPT彻底改变了人机交互界面。它对文字的“理解”,或者说处理方式,更像人。你不再需要斟字酌句,按照规定的范式提问,也不用拿着说明书来理解问题的答案。表达问题和阅读答案的门槛,第一次降低到了谁都行的地步。只要你会输入法。

搜索引擎发展了这么多年,毫不夸张的说,99%的用户不知道使用搜索引擎的高级技巧,不知道通过特定关键字来改变搜索引擎输出的结果。

有了类似ChatGPT的交互界面,机器可以更好的理解用户意图,搞清楚你到底想干什么。

早上开车时,收到美团的垃圾短信,告诉我可以免费借款。我当时就想,如果反垃圾软件能理解短信语义,还用得着我去设置关键词过滤吗?一句话的事儿,既能保证正常短信接收,又能屏蔽垃圾。

所以,ChatGPT的出现,确实了不起。

但也没必要神话它。

ChatGPT并不是维基百科,它的训练数据包含1760亿个参数,好像什么都知道,但也什么都不知道。

长期以来,人类对AI有一种偏见,似乎AI的犯错概率比普通人要低,它的答案更加可信。而根深蒂固的懒惰,让人群非常容易产生盲信思维。AI说的全对。

特别是在简体中文领域,很多人没有基本的知识构架,听风就是雨,观点全靠带,每个问题都期待有标准答案,一旦找到,或者自以为找到,立马停手,不接受反驳。

ChatGPT确实简化这些人在索取答案时的流程。以前他们还得上微博,微信,抖音,看看视频里讲道理说故事的大V,现在可好,直接问,ChatGPT直接给答案。盲信高科技,ChatGPT就是高科技里第一个神。神无所不知,无所不能。于是,ChatGPT那些一本正经瞎编的答案,开始污染他们原本就不丰满的脑容量。

按照这种模式发展下去,AI倒不一定会取代人类,而是成为人类最好的背锅侠。它说的啊,我照做了。

以蠢生蠢,逻辑自洽。

AI本身没有道德感,没有善恶观,没有主动性,没有执念。简单一句话,AI无法为自己负责。把责任推到AI上,只能证明使用者的愚蠢。

盲信是阻碍人类接受AI的第一个敌人。

这两个月ChatGPT传播之快,伴生了大量似是而非的消息,而大部分人没有质疑。

比如:ChatGPT是不是真的有1亿月活?

从Similarweb经常虚高的数据中被总结出来的推算结果,经过瑞银的分析报告,再通过媒体传播到国内,引发一波创业泡沫。这里面却没几个去分析一下数据真实性。大家也都信了。

传统搜索引擎在提供答案的时候,会给出相似结果,由用户自行筛选。搜索引擎本身对结果的排序,在过去十几年中被无数次迭代,完善,尽可能去芜存菁。再经过用户在不同结果之间对比参考之后,准确率要远高于ChatGPT。

ChatGPT现在编出来的答案,连出处都没有,如果用户不能即时验证答案的有效性,被带歪的可能非常大。

尽管微软上线了New Bing,企图用ChatGPT的聊天框来提供个性化的搜索结果,但短时间内,比如1-2年,依然无法取代传统搜索引擎。

盲信,一直是人类痼疾。它的根源在于懒,快思考,慢思考两种模式之间,提供即时答案的快思考可以在需要时立即提供解决方案。聪明人会在平时积累可信知识库,并不断完善,建立快思考时需要的答案池。懒人只会听权威,听专家,听大V,很少问为什么。动脑很累的,所以懒就等于蠢。

况且,连维基百科都有人肯花上几年时间去造假,还有什么是不可置疑的呢?既然都可以质疑,索性不想了。

懒人恒蠢。AI也救不了。

但ChatGPT依然是革命性的更新,盲信是人类的硬伤,不是它的。况且,99.99%的人都在错误使用ChatGPT。

为什么这么说?

很简单,对ChatGPT的提问,真正的英文词是Prompt,正确的翻译叫做提示词,不是question,不是问题啊。

ChatGPT生出来的不是答案,是根据提示词生成的合成结果。它本质上就是语言训练模型,你提示什么,它说什么,这个逻辑很难懂吗?它不是在回答问题,而是根据提示词生成结果。

所以你问它,林黛玉为什么要三打白骨精,它肯定要从资料库里找词给你瞎编一通。

瞎编的提示词得到现编的故事,合情合理。

提示词,提示词,提示词,不是问题,不是问题,不是问题。你给ChatGPT提供的是基于few shot算法提供的提示词,用来引导ChatGPT合成文本结果,而不是问问题,给答案。

按照这个逻辑想,到底谁蠢?

之前用AI生图,图很丑,原因是提示词不行。如今换成文本,怎么就变成ChatGPT蠢了呢?

还是提示词不行。

ChatGPT的资料库中确实包含了大量专业信息,也有能力将这些信息重新整合,输出答案。关键在于提示词。

只有用正确的提示词,才能引导ChatGPT生成靠谱的答案。

其实这一点都不难,ChatGPT提供的多轮对话能力,可以记住上下文,让用户无需在第一轮提示时就让它明白自己应该用什么资料来合成正确答案。我们完全可以通过不断的对话引导,让输出结果收敛到正确的范畴。

所以,那些调侃,企图用道德规则驯化ChatGPT的提示词,看起来都很可笑。它的回复完全基于提示词,它只会随着一轮轮的提示,不断在你想要的歪路上瞎编。

用这套骚操作来证明AI不是AI,本身就是无知的表现。

就算AI真的蠢,它在乎吗?ChatGPT的标准回答已经有了,我只是个大型语言训练模型,没有感情。

扮小丑的是人,看小丑的,也是人。AI doesn’t give shit about this。用那句古话来形容AI,倒是贴切:天道不仁以万物为刍狗。

这句话不是天道没有良心,是天道完全不在乎。

我倒也不是很担心,99.99%对ChatGPT的滥用会造成什么信息污染的严重后果。

第一,人类已经形成的固有认知,特别是人文社科范畴,很难被改变。常识性问题是通过时间沉淀出来的答案。不是一两个蠢货用AI哪儿混来的错误信息就可以改变的。不然的话,某某南,某克文工作室的瞎编乱造早就横行天下了。

AI只是众多会犯错的专家中的一位。你要用正确的方法去问它,才能得到正确的答案。

专家不是什么都懂。专业知识也是有范畴的,有边界的。AI也不例外。你非得问一个物理学家“新手养猪需要注意什么”,ta也只能瞎编。

AI合成答案对人类社会的冲击,会随着社会接纳AI的存在而逐渐消弭。普罗大众也会以平常心来看待AI。

第二,真到了AI普及到人手一个,随时可问的时候,它的答题正确率和生成答案的方式,多半已经有了极大的改进。

那时,AI能处理的问题应该是真的问题,而不是提示词。

今天情人节,放一张AI生成的美女,送给大家。

元宇宙网:99.99%的人在错误地使用ChatGPT

 

来源:微信公众号:大个青椒 | ID:dageqingjiao

https://mp.weixin.qq.com/s/j0bZSjntvvazlgW0qbR1LQ

本站元宇宙网yyznb.com已联系作者获得转载授权

关键词:人工智能  、 ChatGPT

© 版权声明

相关文章