从模型本身出发,为什么ChatGPT总是会一门正经的胡说八道?

从模型本身出发,为什么ChatGPT总是会一门正经的胡说八道?

原标题:从模型本身出发,为什么ChatGPT总是会一门正经的胡说八道?

关键字:自然语言处理,OpenAI,Transformer,ChatGPT,chatgpt使用

最佳回答:NN陈

回答字数:1808字

马斯克曾发图讽刺机器学习的真像竟然是统计。这是原因之一,(当然不完全是统计,但统计是大头)。模型从统计数据发现当盒子有盖子,且要从盒子中取出东西时,大概率要打开盖子。于是生成了“打开盖子”这样的词,这个词一出,必然与逻辑不符,后面只能“瞎编”了。

其二、在于对抗数据的处理。与图像识别一样,对抗数据会让模型得出错误的结论,如下图,一个人拿了一张画之后就不是“人”了。

模型被画里的内容带跑偏。当然,解决办法也很简单,把对抗数据加入训练,模型便能重新识别到这个人。提问中的对抗数据就是“红盒子有个盖子”,然而红盒子于要拿的东西无关。可能训练数据中缺少相关干扰信息,让模型以为题中数据都很重要。增加以下回答“苹果不在红盒子里,所以无需打开盖子”便可解决。这样模型在生成文字时会在“打开”和“不打开”之间做出选择,“无关”这个词提示模型考虑他们之间的关联性。然而它的分析能力并没有我们想想的那么强,这一关联分析可能导致原来需要毫不犹豫打开盖子的问题的回答出现偏差。

第三、提示词火爆的原因所在。模型不知道哪些因素有关,哪些是干扰因素。正确的提示词能让模型想起正确的回答(结合提示词概率更高)。模型确实输出了智慧的内容,但是人的提示至关重要。这是模型从大数据中学习不到的知识。

最后、模型缺乏分析能力。你拆开问,模型能正确回答。这说明“拆开”这个动作的比回答问题本身需要更高的智力。把复杂问题分解成一系列简单问题是我们常用的分析过程,或程解题思路。这也是大模型从大数据中很难学到的思维。

大模型能参加高考却面临落地难的问题。因为考题目给出的都是有用的数据,干扰因素较少。而生活中往往有很多无关因素,不出意外的话往往会出意外。从大量信息中找到有用信息需要很高的智慧,我们玩转ChatGPT时做了两件很重要的工作,那就是提示和判断。这看似边角料的工作却至关重要,缺了这俩,模型便失去了自己跟自己玩的机会,也就缺乏独当一面的能力。大模型很擅长从大量数据中做总结,然而有些思维过程往往不在数据中。这需要从根本上改进学习机制,从人们解决问题的过程中学习潜在思维过程。

本文链接:

联系作者

回答作者:NN陈

0

评论0

  1. 并不总是一本正经胡说八道,有时候会,因为chatGPT是语言模型,虽然通过大规模语料训练,隐式学习了人类知识,但是知识并不是强制与显式的,在生成文本时类似成语接一样寻找语言上正确的词,语言通顺,这所谓一本正经,但并不一定符合现实,事实,历史,这就发生了胡说八道,这就是事实幻觉。

    这个导致了一项重要的工作,大模型要与人类价值对齐。

    另外,未来更新的模型架构可以让模型学习人类现有知识。

    hjl4am 2023-09-26 0 回复
没有账号?注册  忘记密码?