语言学家称ChatGPT本质是剽窃

2023-02-11 19:00 浏览:362 评论:0 来源:淘给网   
核心摘要:近期,ChatGPT在网络上风靡一时。据经济观察报报道,美国语言学家诺姆·乔姆斯基认为,ChatGPT是一个高科技剽窃系统,从海量数据中发现规律,并依照规则将数据串连在一起,形成像人写的文章和内容。在教育界,已经引发了“ChatGPT让剽窃变得更加容易”的担忧。
语言学家称ChatGPT本质是剽窃
语言学家称ChatGPT本质是剽窃

近期,ChatGPT在网络上风靡一时。据经济观察报报道,美国语言学家诺姆·乔姆斯基认为,ChatGPT是一个高科技剽窃系统,从海量数据中发现规律,并依照规则将数据串连在一起,形成像人写的文章和内容。在教育界,已经引发了“ChatGPT让剽窃变得更加容易”的担忧。
 
另据澎湃新闻,ChatGPT提供的一些文本和答案由于不具有逻辑性和真实性,很容易衍生或被别有用心者用来制造仇恨言论,搞人身攻击,如性别歧视和种族主义,而且这些言论可能隐含在其训练数据中,被ChatGPT不知不觉地使用。
 
ChatGPT(Generative Pre-trained Transformer)是美国OpenAI公司推出的人工智能撰稿和聊天工具,于2022年11月推出。该程序使用基于GPT-3.5架构的大型语言模型并通过强化学习进行训练。本质上,ChatGPT是一个大型语言模型(LLM),接受过大量文本数据的训练,能够对各种各样的问题输入生成类似人类的应答结果和反应。
 
因此,它的技术特点反映在,使用的机器学习模型表达能力强,训练所使用的数据量巨大,训练方法具有先进性。
 
ChatGPT的崛起:发展历程、技术原理以及局限性
 
一、ChatGPT 是个啥?
 
近期,OpenAI 发布了 ChatGPT,是一个可以对话的方式进行交互的模型,因为它的智能化,得到了很多用户的欢迎。ChatGPT 也是 OpenAI 之前发布的 InstructGPT 的亲戚,ChatGPT 模型的训练是使用 RLHF(Reinforcement learning with human feedback)也许ChatGPT 的到来,也是 OpenAI 的 GPT-4 正式推出之前的序章。
 
二、什么是 GPT?从 GPT-1 到 GPT-3 
 
Generative Pre-trained Transformer (GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。它用于问答、文本摘要生成、机器翻译、分类、代码生成和对话 AI。
 
2018 年,GPT-1 诞生,这一年也是 NLP(自然语言处理)的预训练模型元年。性能方面,GPT-1 有着一定的泛化能力,能够用于和监督任务无关的 NLP 任务中。其常用任务包括:
 
自然语言推理:判断两个句子的关系(包含、矛盾、中立)
 
问答与常识推理:输入文章及若干答案,输出答案的准确率
 
语义相似度识别:判断两个句子语义是否相关
 
分类:判断输入文本是指定的哪个类别
 
虽然 GPT-1 在未经调试的任务上有一些效果,但其泛化能力远低于经过微调的有监督任务,因此 GPT-1 只能算得上一个还算不错的语言理解工具而非对话式 AI。
 
GPT-2 也于 2019 年如期而至,不过,GPT-2 并没有对原有的网络进行过多的结构创新与设计,只使用了更多的网络参数与更大的数据集:最大模型共计 48 层,参数量达 15 亿,学习目标则使用无监督预训练模型做有监督任务。在性能方面,除了理解能力外,GPT-2 在生成方面第一次表现出了强大的天赋:阅读摘要、聊天、续写、编故事,甚至生成假新闻、钓鱼邮件或在网上进行角色扮演通通不在话下。在“变得更大”之后,GPT-2 的确展现出了普适而强大的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。
 
之后,GPT-3 出现了,作为一个无监督模型(现在经常被称为自监督模型),几乎可以完成自然语言处理的绝大部分任务,例如面向问题的搜索、阅读理解、语义推断、机器翻译、文章生成和自动问答等等。而且,该模型在诸多任务上表现卓越,例如在法语-英语和德语-英语机器翻译任务上达到当前最佳水平,自动产生的文章几乎让人无法辨别出自人还是机器(仅 52% 的正确率,与随机猜测相当),更令人惊讶的是在两位数的加减运算任务上达到几乎 100% 的正确率,甚至还可以依据任务描述自动生成代码。一个无监督模型功能多效果好,似乎让人们看到了通用人工智能的希望,可能这就是 GPT-3 影响如此之大的主要原因
 
三、GPT-3 模型到底是什么?
 
实际上,GPT-3 就是一个简单的统计语言模型。机器学习的角度,语言模型是对词语序列的概率分布的建模,即利用已经说过的片段作为条件预测下一个时刻不同词语出现的概率分布。语言模型一方面可以衡量一个句子符合语言文法的程度(例如衡量人机对话系统自动产生的回复是否自然流畅),同时也可以用来预测生成新的句子。例如,对于一个片段“中午 12 点了,我们一起去餐厅”,语言模型可以预测“餐厅”后面可能出现的词语。一般的语言模型会预测下一个词语是“吃饭”,强大的语言模型能够捕捉时间信息并且预测产生符合语境的词语“吃午饭”。
 
通常,一个语言模型是否强大主要取决于两点:首先看该模型是否能够利用所有的历史上下文信息,上述例子中如果无法捕捉“中午 12 点”这个远距离的语义信息,语言模型几乎无法预测下一个词语“吃午饭”。其次,还要看是否有足够丰富的历史上下文可供模型学习,也就是说训练语料是否足够丰富。由于语言模型属于自监督学习,优化目标是最大化所见文本的语言模型概率,因此任何文本无需标注即可作为训练数据。
 
由于 GPT-3 更强的性能和明显更多的参数,它包含了更多的主题文本,显然优于前代的 GPT-2 。作为目前最大的密集型神经网络,GPT-3 能够将网页描述转换为相应代码、模仿人类叙事、创作定制诗歌、生成游戏剧本,甚至模仿已故的各位哲学家——预测生命的真谛。且 GPT-3 不需要微调,在处理语法难题方面,它只需要一些输出类型的样本(少量学习)。可以说 GPT-3 似乎已经满足了我们对于语言专家的一切想象。
 
注:上文主要参考以下文章:
 
1.GPT 4 发布在即堪比人脑,多位圈内大佬坐不住了!-徐杰承、云昭 -公众号 51 CTO 技术栈- 2022-11-24 18: 08 
 
2.一文解答你对 GPT-3 的好奇!GPT-3 是什么?为何说它如此优秀?-张家俊 中国科学院自动化研究所 2020-11-11 17: 25 发表于北京
 
3.The Batch: 329 | InstructGPT,一种更友善、更温和的语言模型-公众号 DeeplearningAI-2022-02-07 12: 30 
 
四、GPT-3 存在什么问题?
 
但是 GTP-3 并不完美,当前有人们最担忧人工智能的主要问题之一,就是聊天机器人(10.940, -0.04, -0.36%)和文本生成工具等很可能会不分青红皂白和质量好坏,地对网络上的所有文本进行学习,进而生产出错误的、恶意冒犯的、甚至是攻击性的语言输出,这将会充分影响到它们的下一步应用。
 
OpenAI 也曾经提出,会在不久的将来发布更为强大的 GPT-4 :
 
 
据说,GPT-4 会在明年发布,它能够通过图灵测试,并且能够先进到和人类没有区别,除此之外,企业引进 GPT-4 的成本也将大规模下降。
 
五、ChatGPT 与 InstructGPT
 
谈到 Chatgpt,就要聊聊它的“前身”InstructGPT。
 
2022 年初,OpenAI 发布了 InstructGPT;在这项研究中,相比 GPT-3 而言,OpenAI 采用对齐研究(alignment research),训练出更真实、更无害,而且更好地遵循用户意图的语言模型 InstructGPT,InstructGPT 是一个经过微调的新版本 GPT-3 ,可以将有害的、不真实的和有偏差的输出最小化。
 
六、InstructGPT 的工作原理是什么?
 
开发人员通过结合监督学习+人类反馈中获得的强化学习。来提高 GPT-3 的输出质量。在这种学习中,人类对模型的潜在输出进行排序;强化学习算法则对产生类似于高级输出材料的模型进行奖励。
 
训练数据集以创建提示开始,其中一些提示是基于 GPT-3 用户的输入,比如“给我讲一个关于青蛙的故事”或“用几句话给一个 6 岁的孩子解释一下登月”。
 
开发人员将提示分为三个部分,并以不同的方式为每个部分创建响应:
 
人类作家会对第一组提示做出响应。开发人员微调了一个经过训练的 GPT-3 ,将它变成 InstructGPT 以生成每个提示的现有响应。
 
下一步是训练一个模型,使其对更好的响应做出更高的奖励。对于第二组提示,经过优化的模型会生成多个响应。人工评分者会对每个回复进行排名。在给出一个提示和两个响应后,一个奖励模型(另一个预先训练的 GPT-3)学会了为评分高的响应计算更高的奖励,为评分低的回答计算更低的奖励。
 
开发人员使用第三组提示和强化学习方法近端策略优化(Proximal Policy Optimization, PPO)进一步微调了语言模型。给出提示后,语言模型会生成响应,而奖励模型会给予相应奖励。PPO 使用奖励来更新语言模型。
 
本段参考:The Batch: 329 | InstructGPT,一种更友善、更温和的语言模型-公众号 DeeplearningAI- 2022-02-07 12: 30 
 
重要在何处?核心在于——人工智能需要是能够负责任的人工智能
 
OpenAI 的语言模型可以助力教育领域、虚拟治疗师、写作辅助工具、角色扮演游戏等,在这些领域,社会偏见、错误信息和毒害信息存在都是比较麻烦的,能够避免这些缺陷的系统才能更具备有用性。
 
七、Chatgpt 与 InstructGPT 的训练过程有哪些不同?
 
总体来说,Chatgpt 和上文的 InstructGPT 一样,是使用 RLHF(从人类反馈中强化学习)训练的。不同之处在于数据是如何设置用于训练(以及收集)的。(这里解释一下:之前的 InstructGPT 模型,是给一个输入就给一个输出,再跟训练数据对比,对了有奖励不对有惩罚;现在的 Chatgpt 是一个输入,模型给出多个输出,然后人给这个输出结果排序,让模型去给这些结果从“更像人话”到“狗屁不通”排序,让模型学习人类排序的方式,这种策略叫做 supervised learning,本段感谢张子兼博士)
 
八、ChatGPT 存在哪些局限性?
 
如下:
 
a) 在训练的强化学习 (RL) 阶段,没有真相和问题标准答案的具体来源,来答复你的问题。
 
b) 训练模型更加谨慎,可能会拒绝回答(以避免提示的误报)。
 
c) 监督训练可能会误导/偏向模型倾向于知道理想的答案,而不是模型生成一组随机的响应并且只有人类评论者选择好的/排名靠前的响应
 
注意:ChatGPT 对措辞敏感。,有时模型最终对一个短语没有反应,但对问题/短语稍作调整,它最终会正确回答。训练者更倾向于喜欢更长的答案,因为这些答案可能看起来更全面,导致倾向于更为冗长的回答,以及模型中会过度使用某些短语,如果初始提示或问题含糊不清,则模型不会适当地要求澄清。
 
网友评论:
 
闪电逆风飞扬 :他说的对,但人类读书,然后所谓的有学识,大部分就是各种从书里偷来的吧?没几个能有所谓新发现,新观点,也不可能,所谓的创新大部分也都是总结,牛顿,爱因斯坦的发现才算得上真新。。。ai只是赤裸裸了,操作起来太直接,太高效,太简单了。
 
Forward_Unto_Dawn :chatgpt最大的威胁在于会磨灭人类思考的动力,就像是智子锁死科技天花板后人类就陷入科学停滞,也像是你知道从后往前翻就有正确答案可以抄时就放弃了解题思路
 
昨日青空_libra :乔姆斯基老爷子所说的剽窃主要针对的是学术写作范围内的吧,不要扯什么人类学识都是剽窃来的,这两个概念不一样啊。写过论文的都知道只要不是自己的观点,即使是词典里的内容也要标注原文章节,所以才说chatGPT本质就会造成学术不端
 
巷子小同学 :评论区都已经高知到质疑乔姆斯基了吗
 
ache20911 :非常赞同,ChatGPT就收集信息,整合信息。但是比手机上Al灵活
 
Lake_Tahoe :不理解不要紧,去了解一下现代语言学之父乔姆斯基。AI语言的生成本质上都可以说是建立在语言学基础上的,甚至编程语言都受乔姆斯基理论影响
 
sherlocksiyouson :评论区大神么,这可是乔姆斯基啊
 
你脑子还正常吗 :所以说你老了
 
东山阿秋 :严谨点应该说,人类本质上就是在剽窃大自然[doge]。文学或者语言学本质上和剽窃一样。
(责任编辑:小淘)
免责声明
• 
本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们
0相关评论