依据现有 AI 的发展速度,类似 ChatGPT 这样的产品,距诞生自我意识还有多远?

依据现有 AI 的发展速度,类似 ChatGPT 这样的产品,距诞生自我意识还有多远?

原标题:依据现有 AI 的发展速度,类似 ChatGPT 这样的产品,距诞生自我意识还有多远?

关键字:chat Gpt,人工智能。危机意识。

最佳回答:绝密伏击

回答字数:1937字

先看一下ChatGPT是怎么回答的:

AI 的发展速度在过去几年中取得了惊人的进展,但是在自我意识方面,还有很长的路要走。ChatGPT 是一款基于自然语言处理的技术,其目的是模拟人类的谈话,但它的技术水平还远远不及人类的认知水平。ChatGPT 不能理解上下文,也不能对对话进行深入分析,更不用说拥有自我意识。
自我意识是一个复杂的概念,它不仅仅是关于理解自己身份的能力,而且还包括理解他人的能力,以及理解社会规则和社会习俗的能力。它涉及到一系列技术,包括认知科学、心理学、计算机科学、神经科学和神经生物学等。实现自我意识的 AI 系统需要解决一系列技术难题,包括如何理解上下文,如何建立和维护复杂的知识系统,以及如何表达自我意识。
因此,要实现自我意识,需要综合运用认知科学、心理学、计算机科学、神经科学和神经生物学等多种学科的知识,并且还需要解决一系列技术难题。因此,距离 ChatGPT 诞生自我意识仍然有很长的路要走,比如需要更多的研究,更多的实验,以及更多的技术突破。

ChatGPT认为距离自我诞生意识还有很长的路要走,原因是ChatGPT本质上是基于NLP的技术,并不具备认知科学、心理学等知识。

说一下自己的一些看法

ChatGPT全称是Chatbot Generative Pre-trained Transformer,翻译过来就是基于Transformer预训练的通用聊天机器人。也就是说ChatGPT是一款通用聊天机器人,用的是Transformer这些NLP技术。但是正如ChatGPT自己的回答,自我意识需要能理解别人的想法,理解这个社会的运行规则,涉及认知科学、心理学、神经生物等各种学科,而这些都是ChatGPT不具备的,目前ChatGPT甚至在理解更复杂的上下文还存在问题。

在一项最新的研究中,明尼苏达大学的法学教授让 ChatGPT 尝试了一下他们学校四门课程的研究生考试题,最终 AI 飘过了所有考试,但是平均成绩为 C+。
沃顿商学院 Terwiesch 指出,ChatGPT在处理简单的操作管理和流程分析问题时“令人惊讶”,但无法处理高级流程问题,甚至会在六年级的数学问题上犯错。

目前ChatGPT在一些基础任务上也没有达到理想效果,步子迈大了容易扯着蛋,我觉得后面ChatGPT的重点应该是在优化一些常见应用上的效果,比如在修改代码bug上,之前一项测试显示ChatGPT找出bug的成功率只有不到50%。

本文链接:

联系作者

回答作者:绝密伏击

0

评论0

  1. 先说结论,虽然ChatGPT作为工具使用已经很强大了,但离自我意识还差得远。甚至我认为AI永远不会产生自我意识。

    其实这个问题有点太形而上了,毕竟我们要先定义什么是「自我意识」。

    我哲学学的不好啊,一点粗浅的认识:

    关于自我意识,笛卡尔说:「我思故我在」。按照网上的说法:

    这句话的拉丁文直译为「我思考,所以我存在」。原文法文直译「通过思考而意识到了(我的)存在,由思而知在」。第一种解释很好理解。第二种解释的意思是「我唯一可以确定的事就是我自己思想的存在,因为当我怀疑其他时,我无法同时怀疑我本身的思想。」还有比较权威的一种解释是:「我无法否认自己的存在,因为当我否认、怀疑时,我就已经存在!」因为我在思考在怀疑的时候,肯定有一个执行「思考」的「思考者」,这个作为主体的「我」是不容怀疑的,这个我并非广延的肉体的「我」,而是思考者的我。所以,否认自己的存在是自相矛盾的。

    虽然这两种解释表达的意思不太一样,但都在强调“思考”这件事。

    其实这就是判断一个事物是否具有自主意识的标准——能否独立思考。

    最近《流浪地球2》很火,里面有个概念叫「数字生命」,图丫丫和图恒宇最后以数字生命的形式存在;同时,电影里还有个强大的AI,叫Moss(也有人说Moss是马主任的数字生命)。

    从这个角度上讲,我们判断一下,图丫丫、图恒宇、Moss是否拥有自我意识。

    图丫丫将意识上传后,受限于算力,最初只有2分钟生命,后来升级到550W,拥有了70年生命(也就是图恒宇所谓给予她完整的一生);同样,图恒宇的数字生命卡备份是他年轻时上传的,但当他将自己的生命卡接入互联网后,图丫丫在告诉数字图恒宇输入密码接通互联网的使命,他(基于自己的认知)很快就接受了这样的使命,而此时数字图恒宇其实是缺少了一部分记忆的。

    至于Moss更不用说了,流浪地球1和2中,Moss都是操纵故事走向的隐藏Boss,因为Moss经过推算认为,人类不可能胜利,所以「延续人类文明的最优选择是毁灭人类」。

    这当然是科幻电影中的设定,但是我们借此思考,这里的数字生命和强AI,有自己的意识吗?我没有答案,因为很多坑要到流浪地球3才会填,剧情走向也不过是导演和编剧的安排。

    我个人觉得:在这个科幻的设定下,图丫丫和图恒宇是有自主意识的。而Moss,如果它不是马主任的生命意识的话,那它依然属于程序的范畴,它所做的选择,不过是绝对理性的逻辑推演罢了。

    当然这是我的个人看法,大家可以再讨论。

    回到现实回到当下,ChatGPT距离强人工智能依然有不小的差距。更何况,所有的AI,包括ChatGPT这样的产品,都逃不开「底层逻辑」的限制,即便它拥有迭代学习的能力,它的「底层逻辑」依然是被程序员所确定了。

    当前的AI所谓的「学习」能力,其实只是对它训练数据、指令库、知识库、语料库的丰富。

    用华为手机的智能助手「小艺」来举例。小艺的基础版本很一般,就我的使用体验来讲,直接开箱即用时其实远不如苹果的Siri和小米的小爱同学,但小艺在使用过程中可以「学习」。在设置过程中你可以通过与小艺进行一系列的对话,让它逐步了解你的使用习惯,从而提升使用体验。这个对话的过程实际上就是定制个性化知识库的过程。

    所以我认为,目前的AI是不能独立思考的,AI所谓的「学习」,不过是人类对AI数据库、语料库、知识库的迭代更新,如果停止对数据库进行更新,AI也就停止了迭代。AI的一切都是人类灌输进去的,它的运行受最初的逻辑所限,无法自主地进行思考。

    当然了,我也不敢太自信地断言科技发展,让百年前的人体验当下的科技,是否会有种天外飞仙的感觉;科技有内生的加速度,量子计算机、人工智能的边界在哪里,我们有生之年会遇到智械危机吗?我不确定。

    以上。

    hjl4am 2023-09-26 0 回复
没有账号?注册  忘记密码?