ϵˣС
ϵ绰86 0512 53128955
ϵַй̫лܻ
䣺fsdfkd@163.com
ChatGPT€起技术狂潮:顶流之下,看人工智能喜与?
目前,ChatGPT还没有€过图灵测试的评估€其实,迄今为止,还没有人工智能″能真正€过图灵测试?/p>
去年11月,美国人工智能研究公司OpenAI发布了一款名为ChatGPT的聊天机器人,其在推出后的几周内就风″球,甚至引发了一场新的全球人工智能竞赛€?/p>
社交媒体推特首席执行官埃隆马斯克在使–hatGPT后直呼其好得吓人,甚至断€人工智能越发强大,离对人类产生威胁不远了?/p>
《自动化与工作的未来》一书作者€美国雪城大学教授亚伦贝纳纳夫说?00年前,人们对自动化技术产生了€波又€波的恐惧,人们看到新€术,就害怕它们会完全取代人类的劳动€?/p>
今年2月初,ChatGPT€启狂飙模式,引起新一轮疯狂的€术升级€产业重构€资本狂潮€巨头€鹿。起初,随着这波€术热浪席卷全球€心情起伏不定的普罗大众,经过一段沉浸式体验,虽未感到恐惧,但仍不免有些担忧?/p>
实现对话式AI的第€?/p>
ChatGPT仅发布了2个月,月活跃用户就超过了1个亿?/p>
要知道,1个亿可不是个小目标,达到这一数字,Facebook 用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌则用了将近一年€?/p>
中国科学院自动化研究€研究员€数字内容技术与服务研究中心主任张树武在接受科技日报记€采访时表示,人们可以把ChatGPT视为继语音€图像视频识别技术之后最复杂的语€识别€术突破,也是基于″识别和深度学习的感知智能€术发展的新跃迁€?/p>
天津大学自然语言处理实验室负责人、教授熊德意表示,从人工智能发展角度看,这是€个重要的里程碑,其意义要高于7年前的阿尔法狗€?/p>
他告诉记者,围棋界的阿尔法狗刷新了普通大众对人工智能€术的看法,但是其本身并不能广泛应用,普€大众也难以与其直接接触?/p>
ChatGPT则完全不同€?/p>
与阿尔法狗相比,ChatGPT可以直接应用或支撑很多场景应用和产品。如果说阿尔法狗是技术应用的阳春白雪,那么ChatGPT或许有机会成为下里巴人€?/p>
的‘,在用户们不懈努力地发掘ChatGPT的用途后,人们发现,它不仅仅是个聊天工具,还可以写代码€写情书、写论文,也可以在线问诊,编写情景脚本€诗歌€小说,甚至是拟定旅游路线€回答脑筋€转弯,可谓有求必应,功能强大到无法想象?/p>
ChatGPT在快速渗透各个行业,普€大众都可以成为ChatGPT的用户,这是其火爆出圈的重要原因?/p>
事实上,此前已有许多跟机器人聊天的相关应用,我们€熟悉的莫过于常用的智能语音助手€ChatGPT与之有何不同呢?
智能音箱采用的同样是自然语言处理€术€对话式AI€术,但是语言智能比较初级。很多情况下,我们只能与它们进行€问一答式的简单对话€熊德意说,而ChatGPT,其底层€术不仅与€般的智能音箱底层€术截然不同,而且要比它们强大得多,不仅如此,它改进了与它同类的技术InstructGPT的人类反馈数据收集形式,在与人对话中,可以基于历史内容,支持连续多轮对话?/p>
熊德意认为,ChatGPT是实现对话式AI的第€步€?/p>
从互联网层面来看,它可以作为信息入口,与搜索引擎相结合;还可与办公软件结合,增强办公效率;从人机交互角度看,它体现的是一种基于自然语€的交互方式,可以与元宇宙、数字人结合。此外,它还可以充当机器人大脑€?/p>
如果从人类信息发展的尺度上看,它在人与机器之间的信息接口方面有了很大突破。熊德意如是说€?/p>
十八般武艺样样精?/p>
ChatGPT使用了GPT-3€术,即第三代生成式预训练Transformer(Generative Pretrained Transformer 3)。这是一种自回归语言″,使用深度学习来生成类似人类的文本€?/p>
据英国广播公司€科学焦点€杂志介绍,GPT-3的技术看似简单,例如它接受用户的请求、听取问题或提示并快速回答,但其实这项技术实现起来要复杂得多。该″使用来自互联网的文本数据库进行训练,包括从书籍€网络文本€维基百科€文章和互联网其他文本中获得的高?70GB的数据€更准‘地说,它?000亿个单词组成的训练数据上进行了高强度训练?/p>
GPT-3.5是GPT-3微调优化后的版本,比后€更强大。ChatGPT正是由GPT-3.5架构的大型语€″(LLM)€支持的€?/p>
ChatGPT也可以被描述为一个自然语€处理(NLP)领域的人工智能模型€这意味€它是€个能够编码€建″生成人类语言的程序€?/p>
作为€种语€″,在大规模文本数据上进行自监督预训练后,ChatGPT还需要经过三个阶段的炼制。首先是监督微调阶段,在该阶段,人类AI训练师既充当用户,同时也是AI助理,以自我对话形式生成对话样例,ChatGPT在这些对话样例上进行有监督的训练?/p>
接着,ChatGPT进入第二个阶段€该阶段的主要目的是训练€个基于语€″的奖励模型,对机器生成的回复进行评分,为了训练该奖励″,需要随机抽取机器生成的文本,并采样出多个不同版本,人类训练师对这些不同版本进行偏好排序,排序的结果用于奖励″的训练€?/p>
基于训练好的奖励″,第三个阶段采用强化学习€术进€步微调ChatGPT?/p>
这项€术与众不同之处在于,它能够基于以上介绍的人类反馈强化学习€术,使生成的文本能够与人类意图和价€观等进行匹配€?/p>
无论懂不懂技术,全球网友都竞相大€脑洞,试探ChatGPT到底有多神€据美国有线电视新闻网报道称,有人要求它用€坎特伯雷故事集》的风格重写上世?0年代热门歌曲《Baby Got Back》;有人写了€封信,要求ChatGPT删除信用报告中的不良账户;还有人询问它以童话为灵感的家装设计方案?/p>
自然语言处理€术拨云见?/p>
€炮€红后,ChatGPT概念′跟着€路狂飙€有媒体报道,汉王科€9天收?个涨停板。自然语€处理研究是该公司主营业务,€ChatGPT背后的技术就是NLP?/p>
熊德意告诉记者,NLP是人工智能的€个分支,€早诞生于机器翻译,其历史实际上比人工智能名字的历史还要悠久,至今已研究了70多年。简单来说,该技术的目标就是要让计算机或机器人能够实现像人一样具备听、说、读、写、译等方面的语言能力?/p>
ChatGPT并非€项技术的€蹴€就,它是多种技术叠加在€起形成质变的产物,是NLP领域的结晶€熊德意解释,其底层€术,包括Transformer、自监督学习、微调€人类反馈强化学?RLHF)、AI对齐等,在自然语€处理和人工智能领域都有广泛的研究和应用€?/p>
但ChatGPT将这些技术巧妙地结合在一起€它有效规避了大″的未对齐行为,利用了大模型规″来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大″的泛化能力€这些能力叠加在€起形成了ChatGPT的质变效果€熊德意说€?/p>
美国《迈阿密先驱报€报道称,推特上的一位用户在ChatGPT的帮助下参加了一次模拟SAT考试,得到了1020?″1600?。根据College Simply的数据,这只略低于平均水平€?/p>
但当我们提问ChatGPT你能帮我通过考试吗,它会善意地提醒我们不要利用它来作弊,并表示:重要的是要记住,测试的目的是评估你对材料的理解和掌握程度。作弊,或€仅仅依靠像我这样的外部来源,会破坏考试的价值,也不会促进学习或成长?/p>
这是因为ChatGPT被加入了预先设计的道德准则,也就是上文提到的人类反馈强化学习?/p>
OpenAI表示:这使该工具能够回答后续问题、承认错误€挑战不正‘的前提并拒绝不€当的请求€?/p>
熊德意认为,这是因为RLHF有效提升了大″的对齐能力,即如何让AI″的产出和人类的常识€认知€需求€价值观保持€致€?/p>
经过RLHF的调教,ChatGPT变得高度拟人化,可以学习并生成听起来十分自然的回复€RLHF还使ChatGPT能够理解指令并做出€当的响应,从€使对话更加真实?/p>
ChatGPT也因此迅速成为当下所有智能聊天机器人中的天花板€?/p>
虽触手可及但无法取代人类
随着科技的发展,人工智能€术一″€″超越了人们认为无法达到的极限,从1997年IBM深蓝计算机首″国际象棋中击败人类,到IBM人工智能机器人沃森赢了智力竞赛€危险边缘€?Jeopardy),再?016年阿尔法狗在围棋大战中战胜人类,?019年号称AI赌神的Pluribus在德州扑克中碾压人类玩家
现在,ChatGPT已经触手可及,拉扯冲撞着人们惯有的参与生产生活的″和框架,且继续狂飙在超越人类的赛道上。ChatGPT引发十大职业危机未来20种职业或被AI取代等话题频上热搜€?/p>
它真的会跟人类抢饭碗,甚至取代人类吗?/p>
《迈阿密先驱报€报道称,根据SortList?个不同国家的500名ChatGPT用户进行的一项调查,打工人已经在考虑其对自己€在行业意味着€么€研究称,大?3%在软件和€术领域工作的员工担心会因它失去工作,超过40%的雇主则表示有兴趣聘用营€文案花样多多的ChatGPT?/p>
美国哥伦比亚广播公司财富观察栏目刊文称,其他专业领域也可能会因此改变工作流程,包括中级写作€广告€媒体策划和法律文件?/p>
ChatGPT和其他人工智能技术有可能改变工作的€质,但它们不会取代对人类的€求€当把是否会代替人类工作的问题抛给ChatGPT时,它说,它们旨在协助和增强人工任务,€不是取代人类€它们作为人力资源的补充,并提高人类解决问题的能力,提升效率和效果€?/p>
熊德意认为,目前来看,人工智能更多的作用是提高人的效率,辅助人类。与此同时,大众€要与时俱进,熟悉并掌控新€术,就像学习使用计算机€手机一样,毕竟这些新技术一定会产生新的就业机会?/p>
尚无自主意识和€€能?/p>
英国哲学家德里克帕菲特在著作《论重要之事》中将人类定义为能够给出理由并做出回应的生物。ChatGPT是一个可以给出理由并做出回应的人工制品€它与人不同在哪里?是否像人€样有自我意识呢?
发展至今,计算机已经变得更加成熟,但它们缺乏真正的理解力,€这些理解力是人类€过进化为嵌入社会实践网络中的自主个体€培养起来的。这是人工智能不具备的经历€?/p>
当问及ChatGPT时,它回答道:我是一个机器学习模型,不像人类那样拥有意识或自我意识€我也无法像人类€样感受情绪或体验世界。但是,我能够快速处理大量数据,并且能够以类似于人类交流的方式理解和响应自然语言输入?/p>
粤港澳大湾区数字经济研究?IDEA)讲席科学家张家兴在接受记者采访时表示,对于人工智能领域的从业人员来说,首先什么叫自我意识,这件事情并没有€个很清楚的定义,很难像人脸识别€语音识别这些能力一样可以做定量衡量?/p>
如果模糊地给自主意识下个定义的话,我认为第一,主体要有自意识它能意识到自己在干某件事儿;第二,强调自主它可以自发地来决定做什么和不做€么€但是,目前人工智能并不知道自己在说€么,它也并不能自主地来决定或选择它要说什么€从这个角度看,离自主意识还有一些距离€张家兴说€?/p>
张树武也认为,尽管ChatGPT有所突破,但它的回答是基于经验主义的判断,是根据要求做预测,也是在先验知识基€上精加工的知识拼盘,不具备€辑推导和数学演算等真正认知功能,局限€比较明显€?/p>
1950年,才华横溢的计算机科学家艾伦图灵提出了€个他称之为模仿游戏的思想实验。面试官通过打字机与两个对象交谈,知道一个是人,另一个是机器。图灵建议,如果€台机器能够始终让面试官相″是人类,我们就可以说它有能力思€€这就是著名的图灵测试€?/p>
目前,ChatGPT还没有€过图灵测试的评估€其实,迄今为止,还没有人工智能″能真正€过图灵测试?/p>
但据《纽约时报€报道,OpenAI已经建立了一个比ChatGPT更强大的系统GPT-4,它甚至可以生成图像和文字,业界传闻它可以€过测试。能否如此,我们拭目以待?/p>
或成传播错误信息的工?/p>
人们逐渐发现,ChatGPT并非万能,也不€是正‘的€它不擅长基€数学,似乎无法回答简单的逻辑问题,甚至会争论完全不正确的事实?/p>
据英国€自然€杂志报道,有研究人员强调,不可靠€融入了LLM的构建方式€由LLM支持的ChatGPT通过学习庞大的在线文本数据库中的语言统计″来工作,这当中包括了不真实€偏见或过时的知识,因此很容易产生错误和误导性的信息,尤其在其未经大量数据训练的€术领域€?/p>
OpenAI公司也承认:ChatGPT 有时会写出看似合理但不正确甚至荒谬的答案。这种事实和虚构叠加的幻觉,正如€些科学家€担心的,在涉及诸如提供医疗建议等问题时尤其危险€?/p>
《纽约时报€报道称,美国新闻可″评估与研究机构NewsGuard对ChatGPT进行了测试,研究人员向它提出充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视脚本的形式写出了文章,在几秒钟内编成大量令人信服的€干€的€毫无信源的内容。研究人员预测,对于虚假信息传播者来说,生成€术可以使虚假信息成本更低廉€更容易产生?/p>
这个工具将成为互联网上有史以来最强大的传播错误信息的工具。NewsGuard公司的联合首席执行官戈登克罗维茨说,现在可以以巨大的规模和更高的频率来制作一个新的虚假叙事,这就好比有人工智能代理人在为虚假信息提供帮助?/p>
还有人担心ChatGPT会挑战语€的多样€€?/p>
澳大利亚《对话€杂志刊文称,ChatGPT的默认功能会优先考虑白人创建的英语写作形式€说英语的白人长期以来一直主导着许多写作密集型行业,包括新闻、法律€政治€医学€计算机科学和学术界。这些人在上述领域的输出比其有色人种同事高很多€€他们所写的大量文字意味€它们可能构成了ChatGPT学习″的大部分,尽管OpenAI并未公开披露其材料来源€因此,当用户要求ChatGPT生成任何这些学科的内容时,默认输出都是以那些说英语的白人男€的声音、风格和语言编写的€?/p>
美国哲学家€作家及认知科学家丹尼尔丹尼特在1991年出版的著作《意识的解释》中描述了幼年的海鞘:它在海洋中游荡,寻找一块€合的岩石或珊瑚,作为终生的家€一旦找到,海鞘就不再需要它的大脑并将其吃掉?/p>
这听起来很残忍,但这背后有一个令人担忧的隐喻:在人工智能日益融入我们日常生活后,人类可能因过于依赖智能机器,使自己变得愚蠢€?/p>
熊德意提醒,要警惕人工智能弱化人类€维。ChatGPT实际上是从人类海量语€数据、知识库中学习训练€来,如果人类完全依赖于它,放弃了自己的语言表达、语€思€€能力锻炼,那是非常可悲和可怕的?/p>
һƪֻĻؾѵġ롰