不积小流,无以成江海。
分类: it业界
2023-07-10 09:57:12
内容概要:
先泛泛的介绍 大语言模型 的概念性名词
然后,通过概念性名词 深入到 llm 的专有性名词 或者说 功能性名词
接着,通过 专有性名词 的功能作用 窥探 大语言模型的执行过程
再然后,粗读一篇 大语言模型的始祖论文《a neural probabilistic language model ,yoshua ben etc 2003》
{banned}最佳后,有什么补充的再补充吧
这一节主要是了解什么是 llm、nlp 以及 nlp 神经统计方法。
{banned}最佳重要的是了解三者的关系:
上述如果都懂了,请看下节内容。
在计算机科学领域中,llm 代表"large language model",指的是大型语言模型。
这种类型的模型是基于机器学习和自然语言处理技术构建的,可以理解和生成自然语言文本。
所以,llm 的基础是 机器学习 和 自然语言处理 两种技术。
nlp 是自然语言处理(natural language processing)的缩写。
自然语言处理是计算机科学和人工智能领域中与人类自然语言(如英语、中文等)相关的理解、生成和处理的技术和方法。
nlp 的目的:使计算机能够理解和处理人类语言的各个层面,包括语义、语法、语境和语用等。 它涵盖了广泛的任务和应用,包括但不限于文本分类、情感分析、命名实体识别、机器翻译、问答系统、对话系统、文本摘要、信息提取、语音识别等。
llm 是 nlp 领域中的一种特定类型的语言模型,通常是基于深度学习技术的大规模预训练模型。
nlp 神经统计方法 是近年来 nlp 领域中非常重要的一种方法论,它结合了深度学习(尤其是神经网络)和统计方法,以从数据中学习语言模型。
神经统计方法 将语言建模作为一种统计过程,尝试从大量的语言数据中学习到语言的统计规律和模式。
在传统的 nlp 方法中,很多任务(比如分词、词性标注、句法分析)都需要大量的人工制定规则或人工标注数据。然而,这些方法在面对复杂的语言现象和大规模的语料时往往力不从心。
而神经统计方法,尤其是近年来的预训练语言模型(如 bert、gpt 等),能够在大规模未标注数据上进行预训练,学习到丰富的语言知识,然后再针对特定任务进行微调,大大提升了 nlp 任务的效果。
什么是语言模型,什么是 bert、gpt ,什么是预训练,之后都会有介绍。
神经统计方法 可以看作是一种语言学习模型的实例。
nlp 的神经统计方法是一种 llm 的实现方式。
原因如下:
神经统计方法在 nlp 中是一种使用神经网络来理解和生成文本的方法,这涉及到学习语言的统计规律和模式。比如说词嵌入(word embeddings)、循环神经网络(rnn)、长短期记忆网络(lstm)、变压器模型(transformer)、bert、gpt等,都是神经统计方法的具体应用。
llm 是 language learning model 的缩写,代表语言学习模型,这是一种利用机器学习算法来学习和理解语言规则的模型。神经统计方法可以看作是一种语言学习模型的实例。通过神经网络,模型可以从大量的语料中学习语言的统计规律,这种学习过程可以看作是一种语言学习。
总的来说,nlp 的神经统计方法是一种 llm 的实现方式,使用神经网络和大数据来学习和理解语言。llm是一种更广泛的概念,可以包括使用各种机器学习方法(包括但不限于神经网络)的语言模型。