AI技术之自然语言处理(NLP)如何应用

AI技术之自然语言处理(NLP)如何应用,第1张

按照技术实现难度的不同,这类系统可以分成简单匹配式、模糊匹配式和段落理解式三种类型。简单匹配式辅导答疑系统主要通过简单的关键字匹配技术来实现对学生提出问题与答案库中相关应答条目的匹配,从而做到自动回答问题或进行相关辅导。模糊匹配式辅导答疑系统则在此基础上増加了同义词和反义词的匹配。这样,即使学生所提问题中按原来的关键字在答案库中找不到直接匹配的答案,但是假若与该关键字同义或反义的词能够匹配则仍可在答案库中找到相关的应答条目。段落理解式辅导答疑系统是最理想的、也是真正智能化的辅导答疑系统(简单匹配式和模糊匹配式,严格说只能称之为“自动辅导答疑系统”而非“智能辅导答疑系统”)。但是由于这种系统涉及自然语言的段落理解,对于汉语来说,这种理解涉及自动分词、词性分析、句法分析和语义分析等NLP领域的多种复杂技术,所以实现难度很大。迄今为止,在国内的网络教学中还没有一个实用化的、能真正实现汉语段落理解的智能辅导答疑系统。但是在我国有些大学的人工智能实验室或中文信息处理实验室中,已有少数研究人员正在研发这类系统的实验原型。相信在不久的将来,就会有这一类的实用性智能系统问世。这是优质网络课程的重要研究方向之一。

和谐气氛

人与人之间的沟通,必须在一个前提条件之下,才能取得效果,那就是和谐气氛。

和谐气氛,就是让每一个人放松下来,感到安全,并对对方有一定的信任,在这种情况下,个人与自己内心的感觉联系着,同时,大脑里理性的部分充分运作,因而最能在NLP技巧过程中取得理想的效果。

打破状态

当一个人处于某个内心状态,意念,思想及情感,而导致事情不能顺利进行或对现场环境有负面影响时,另外一个人可通过一些语言或行为为即时改变这个人的内心状态,这便是打破状态。

未来测试

未来测试是NLP技巧中必经的步骤之一,目的是引导本色的或对方想象在未来运用所学到的东西,或者测试所应用的技巧是否有效,通常,一个NLP技巧完成后,会先来个打破状态,再做个未来测试,若效果满意,便可以结束整个过程。

呼气与吸气

身体各部分向大脑传递信息,在呼气与吸气时是不同的,因此身体的机能在呼气与吸气时也会不同,呼气时身体处于一个放松的状态,适合于松弛及放松身体各部分时使用,吸气时身体处于一个强化的状态,适合于加强,凝聚及提升身体能力时使用。

时间线

人脑对于记忆或思考某件事情是有其时间位置的,一般来说,用右手的人,其过去位于左边而未来位于右边,距离现在越远的过去或未来时间,则越远离自己的鼻子,现在则会在眼前,因此他们的时间线是从左至右,从远至近又再走远。

有些人的时间线会贯通自己,未来在前面现在在眼下,过去则在身后,也有一些人的时间线在未经整理之前,是乱七八糟的。

时间线可以很容易地进行整理,调整时间线可以使一个人减少焦虑或提高积极性。在NLP技巧中,时间线更是简单的一条在地上无形的直线。

经验擎

一些事物会使我们回想起往事,因而带回这些往事中本人当时的感受,这些事物便是经验擎。

经验擎可以分为4中

1视觉型经验擎,中国成语,睹物思人是较为恰当的描述。

2听觉经验擎,歌曲,名字都属于听觉经验擎。

3感觉经验擎,握手,拥抱,吻脸,摸头等身体接触。

4内感觉经验擎,一些静坐宗派所采用的 心号 。

其中1-3的经验擎,也可转为内视,内听,内感觉型的经验擎。

以上

本文整理自网络,主要是对自然语言处理能发展和落地的方向进行总结,也算是对自然语言处理常见任务的总结。

NLP的四大任务如下:

序列标注(Sequence labeling)是我们在解决NLP问题时经常遇到的基本问题之一。在序列标注中,我们想对一个序列的每一个元素标注一个标签。一般来说,一个序列指的是一个句子,而一个元素指的是句子中的一个词。比如信息提取问题可以认为是一个序列标注问题,如提取出会议时间、地点等。

序列标注一般可以分为两类:

命名实体识别(Named entity recognition, NER)是信息提取问题的一个子任务,需要将元素进行定位和分类,如人名、组织名、地点、时间、质量等。

举个NER和联合标注的例子。一个句子为:Yesterday , George Bush gave a speech 其中包括一个命名实体:George Bush。我们希望将标签“人名”标注到整个短语“George Bush”中,而不是将两个词分别标注。这就是联合标注。

11 BIO标注

解决联合标注问题最简单的方法,就是将其转化为原始标注问题。标准做法就是使用BIO标注。

BIO标注:将每个元素标注为“B-X”、“I-X”或者“O”。其中,“B-X”表示此元素所在的片段属于X类型并且此元素在此片段的开头,“I-X”表示此元素所在的片段属于X类型并且此元素在此片段的中间位置,“O”表示不属于任何类型。

比如,我们将 X 表示为名词短语(Noun Phrase, NP),则BIO的三个标记为:

因此可以将一段话划分为如下结果:

我们可以进一步将BIO应用到NER中,来定义所有的命名实体(人名、组织名、地点、时间等),那么我们会有许多 B 和 I 的类别,如 B-PERS、I-PERS、B-ORG、I-ORG等。然后可以得到以下结果:

[上传失败(image-b1cfb3-1609330627120)]

12 序列标注常用模型

选择双向LSTM的原因是:当前词的tag和前后文都有关。

13 序列标注具体任务

(1)分词

(2)词性标注(Part-of-Speech tagging ,POS tagging)

(3)命名实体标注(name entity recognition, NER)

21 分类的具体任务

(1)文本分类、情感分类

31 具体任务

(1)句法分析、蕴含关系判断(entailment)

这类任务一般直接面向普通用户,提供自然语言处理产品服务的系统级任务,会用到多个层面的自然语言处理技术。

41 具体任务

(1)机器翻译(Machine Translation,MT)

Encoder-Decoder的最经典应用,事实上这一结构就是在机器翻译领域最先提出的。

(2)文本摘要、总结(Text summarization/Simplication)

输入是一段文本序列,输出是这段文本序列的摘要序列。

(3)阅读理解(Reading Comprehension)

将输入的文章和问题分别编码,再对其进行解码得到问题的答案。

(4)语音识别

输入是语音信号序列,输出是文字序列。

(5)对话系统(Dialogue Systerm)

输入的是一句话,输出是对这句话的回答。

(6)问答系统(Question-Answering Systerm)

针对用户提出的问题,系统给出相应的答案。

(7)自动文章分级(Automatic Essay Grading)

给定一篇文章,对文章的质量进行打分或分级。

1 词法分析(Lexical Analysis):对自然语言进行词汇层面的分析,是NLP基础性工作

2 句子分析(Sentence Analysis):对自然语言进行句子层面的分析,包括句法分析和其他句子级别的分析任务

3 语义分析(Semantic Analysis):对给定文本进行分析和理解,形成能勾够表达语义的形式化表示或分布式表示

4 信息抽取(Information Extraction):从无结构文本中抽取结构化的信息

5 顶层任务(High-level Tasks):直接面向普通用户,提供自然语言处理产品服务的系统级任务,会用到多个层面的自然语言处理技术

1序列标注中的BIO标注介绍,地址: https://blogcsdnnet/HappyRocking/article/details/79716212

2 http://nlpersblogspotcomau/2006/11/getting-started-in-sequence-labelinghtml

3NLP 四大任务,地址: https://wwwdazhuanlancom/2019/08/21/5d5ca1e2826b9/

4NLP基本任务,地址: https://blogcsdnnet/lz_peter/article/details/81588430

5微信研究员解析深度学习在NLP中的发展和应用,地址: https://educsdnnet/course/play/8673

6从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史 - 张俊林的文章 - 知乎 https://zhuanlanzhihucom/p/49271699

NLP在建模语言方面的发展,给我们提供了很多方法来从文本中提取信息,用于estimate causal effect

为了解决NLP中的鲁棒性和可解释性问题,我们需要新的标准来学习模型,并且进一步挖掘相关性。

counterfactual 问题在Section 4中有进一步的解释

Ignorability, Positivity, Consistency

主要的挑战是:从高纬的文本数据中蒸馏(distill)出相关的低维的特征。

比如:

text是作为outcome的。

我们可以设计RCT,一组学生受教育,一组学生不接受教育,收集他们的文章。

为了确保满足consistency: 1 需要确保学习的时候,学生之间不受影响(no interference)2需要创造出”可读性“的测量方式

挑战:我们需要condition on在文本数据上,去block confouding

一种方法是使用无监督降维算法去减少文本数据的高维度,比如:topic model, embedding methods, auto-encoder等等。

另一种是使用监督方法。使用预训练的语言模型和有监督的topic model,预测treatment和outcome,通过预测treatment和outcome(也就是把treatment和outcome当作监督目标),他们表示confounding properties可以在文本数据中被挖掘出来。

text as confounder只有在已观测数据中可行。这样我们就需要比较强的ignorability:所有方面的confoudning都必须被模型观测出来。这样做也是很具有挑战性的,因为文本数据的维度高,我们condition on的变量变多,就越来越难以满足positivity。而且我们可能condition on在collider变量上,导致一些原本block的backdoor反而被打开了。

(这俩有啥区别?不都是从文本中提取feature么?)

text as treatment带来的一些挑战:

比如候选人的传记会影响投票结果、超市广告写作风格会影响销量。

Heterogeneous effects :由于不同的人阅读同一段文本会有不同的理解。这也就导致了一些问题:解释因果效应、沟通研究发现。

比如:用一段文本作为treatment,会在不同的人身上产生不同的causal effect。formulate和identify这些heterogeneous causal effect,就需要新的反事实问题,假设,和方法。

Benchmarks :有benchmark数据集已经帮助推动了机器学习的发展,有统一的benchmark、统一的标准,这些模型就能被统一地衡量。

在causal explanation有一些benchmark已经发展出来,但是缺少NLP datasets。这是因为潜在outcome是反事实的。任何benchmark(它假设反事实的知识是必须做一个强的假设)是无法核实的(unverifiable)。

虽然我们能够把聚合的结果和实验作比较,但我们永远也无观测到一个benchmark的真实causal effect。

到目前为止(Thus far),我们一直专注于使用NLP工具来衡量存在于文本中的因果效应。我们现在来考虑一个相反的关系:用因果推理来帮助解决传统的NLP任务,比如:understanding、manipulating 和generating 自然语言。

乍一看,NLP可能不太需要因果的idea。近几年有很多high-capacity的NLP框架做出了巨大的进步(比如BERT)。这些框架没有区分cause、effect、confounder这些概念。也没有尝试去识别出因果关系。这些模型认为:一个feature可以很有用,就算这个feature和结果没有因果关系。

然而,尽管取得了SOTA的结果,基于相关性的预测型模型是不值得信任的(untrustworthy):他们可能会去捕捉虚假的相关性,导致OOD问题(out-of-distribution)。他们可能会在不同的用户群体中表现出不可接受的性能差异。他们也会因为太难以捉摸,以至于不能去进行高风险决策。

任何一个问题都可以潜在地通过因果的视角解决:因果关系的(先验)知识可以用于formalize虚假的相关性,并且减轻对他们的预测依赖性。因果也可以提供一种语言,用于明确和推理出公平条件(fairness conditions)。解释预测的任务也可以很自然地用反事实来描述。(啥意思?)

基于这些原因,越来越多的(a growing line of research)研究围绕因果研究中的发现,尝试去重定向机器学习的目标。到目前位置(Thus far),应用大部分集中于其他领域,比如:生物医学数据(需要可信度高),计算机视觉(非常需要跨领域(cross-domain)的学习)(这个比较经典的例子是,colored MNIST,color channel用于创建更有挑战性的分布偏移),还有那些比较容易构造有人为的虚假相关性的数据集。(人为构造虚假相关性,是为了容易检验causal的方法更robust么?)

总结:在这一节中,我们回顾了把causal应用于NLP的工作,专注于一些独特的problem和涌现出的机会。下一节,在41中,我们会讨论虚假相关性对于泛化带来的不利影响、分布偏移(distributional shift)、因果驱动的方法,来达到更好的鲁棒性。42中,简单回顾在公平和偏见相关的问题中,使用因果进行规范化(formalization)的尝试。43中,总结因果方法用于解释复杂机器学习模型的行为。

插播英语知识:explain和interpret的区别:

explain:把别人不懂的知识,解释给他

interpret:区别就是,我们谁都不懂这个知识,我们需要去理解它,interpret它,洞悉它的本质。(interpret的知识更加难理解)

NLP中已经有不少的对于虚假相关性的担忧。虚假相关性在以下两种情况下会发生:

这里问题就是,一个预测器: ,会去学习使用X的一部分,这一部分的信息与Z有关(因为Z对Y也是有信息提供的,也就是学习到的这一部分内容,是Z提供给Y的,而不是X提供给Y的,但是我们在最后的模型中不需要这一部分),但是最后用于部署的模型中,X和Y之间的这一部分关系(Z提供的)是不需要的。

举一个例子:通过病人的文本记录,来预测医疗效果,使用的训练集来自不同的医院。假设:有一个医院,(a)病人更容易被诊断为这一种病,(b)医生倾向于使用一种独特的写作方法(比如,因为医院的训练,当地的方言)。一个predictor用这些数据集去训练,会去使用一些文本特征(带有医院的相关信息,这些信息可能对诊断没有一点用处)。这会导致很差的OOD(out-of-distribution)表现,就因为写作风格和医疗效果之间的虚假相关性。

为了确保predictor不会“由于错误的原因而正确“,一些评估方法主要有两种形式:

不变性测试可以由因果直觉驱动:目的是测试如果以反事实输入 ,Z表示是文本的cause,但和Y因果不相关,predictor会不会表现的不一样。一个模型的预测结果在这些反事实中不变,可以被看作在测试集上如果Y和Z由不一样的关系,也能有更好的表现。

敏感性测试可以看作是评估反事实 ,这里的label改变了,但是所有的其他在X上的因果影响都是不变的。

(没看懂这个不变性测试和敏感性测试)

很多方法被应用于训练能够通过sensitivity tests和invariance test的predictor。许多这些方法不是显式地就是隐式地使用了因果的视角。现在我们研究这些方法,这些方法主要分为两大类:反事实数据增广(counterfactual data augmentation)和因果驱动的分布标准(causally-motivated distributional criteria)

为了学习出能够通过敏感性和不变性测试的predictor,data augmentaion是一种比较流行的方法。得到、或者构造反事实数据,并且把他们合并到训练数据。

没看懂这啥意思。。 ,是造出使得预测结果y改变的那些X?

反事实数据可以通过以下几个方式生成:

反事实数据是个十分有用的资源,因为他们直接标出了missing data。但这十分困难。以上这些方法还有可能引入新的虚假相关。

数据增广比较困难,因此我们考虑直接对已观测的数据进行操作。

在不变性测试中,一种策略是导出不变的预测器的分布特征,并且确保这些特性是满足已训练的模型。(?)

(前两种看不懂。。)

第三种就是那个经典的因果结构图,X: Treatment,Y: Outcome,Z: Confounder,用backdoor,把 换成 。这种方法对于虚假相关性在domain shift的时候有很强的鲁棒性。

总体来说,这些方法都比典型的监督学习需要更多的训练数据。还有就是,distributional方法目前为止只能用于classification任务(Debiased那篇文章就是文本生成任务?),数据增广可以使用于更多的复杂的任务,比如机器翻译。

未来的工作中,distributional方法必须解决结构性的预测(structured prediction)。(机器翻译就是一个structured problem)

未来的工作中,还要考虑使用不完整的因果模型的结果,因为不是所有的confouding 都可以被观测。在NLP中,不被观测的confounding是很普遍的。

NLP有时候会放大训练数据中的bias。causality可以提供一种识别出公平性问题的语言。公平性问题:种族、性别。

然而,将种族等属性作为受干预或反事实推理影响的变量,存在一些重要的合法性问题。

causality和unfair bias之间的链接主要在相对低维的数据上会展现出来,而不是在文本数据中。但是,有一些在反事实数据增广方面的方法在这一领域有应用,比如:

反事实数据增广也被用于减少 预训练的word embedding模型中的 bias。但是预训练word embedding模型中的偏差会以多大程度传到下游应用中,还不清楚。

在公平问题中使用distributional criteria的应用还比较少。但是一些研究者show: invariant risk minimization,(尝试去学习一个不变的predictor,在多环境中),可以减少在公民评论数据集中(Civil Comments dataset)种族的虚假相关性。

NLP 模型是出了名的难以解释。但尽管如此,这对于诊断错误,以及和决策者之间建立信任是非常重要的。 一个生成解释的非常重要的方法,是挖掘网络的部件,比如attention的权重。另外,还有一些尝试去估计更简单、更有解释性的模型:使用test样例中的扰动(?),或者其他隐表达。

然而,基于attention和基于扰动(perturbation-based)方法都有很大的局限,attention-based解释可能有误导性,而且可能只对某些独特的token有效。他们可能对于更抽象的语言概念没法解释预测结果。目前存在的perturbation-based方法经常产生一些难以置信的反事实,而且还不能对一些句子级别的概念进行估计。

把这看作一个因果推断问题,一个自然的方法去解释就是生成反事实样例(411),并把每个样例的预测结果和它的反事实进行比较。这样一个受控制的设定比较像随机对照试验(section 2中描述的),这比较可行地去计算一个真实观察到的文本和 某个概念不存在于其中 的文本之间的区别(也就是counterfactual)。确实在一些例子中,counterfactual文本是可以被生成的,我们可以使用一些基于文本的模型去估计因果效应。但是生成自然语言的counterfactual有时候比较难以自动生成,而且人工做起来比较费劲,特别是对一些抽象概念,比如:语言风格,话题,情感。

为了克服反事实生成的问题,另一类方法提出:去操纵文本的表达方式(representation)(列出了一堆文献),而不是文本本身。这些研究的结果和一些鲁棒性文献中的结果有一些相似性。但是这些研究结果更专注于识别一个训练模型中的invariance,而且并不是在训练的过程中强迫他们(指模型)。一个研究者计算反事实representation(通过预训练附加的 当控制confouding concepts的时候,设计了一个对抗性的组件,去”忘记“某一个被选择的概念)。另一个研究者提供了一种方法:从神经表达中remove掉信息,通过迭代地训练线性分类器,并把representation映射到null spaces。(这样做也相当于”忘记“)。

相较于使用counterfactual来确认(identify)invariances,一个补充的方法是使用使得模型改变预测的最小change,来 生成 counterfactual。这样的例子被当作解释,因为他们能让我们观察到一个模型发生改变所需要的change。

最后,因果的视角在attention-based解释中,是去把内部节点当作mediator,在input到output的过程中影响因果效应。 通过人工制造的counterfactual,我们可以观察到信息是如何在不同的模型组件中流动的 ,并且识别(identify)出他们编码在模型的什么地方。

我们在这项研究中的主要目标是收集不同的causal和NLP的结合点,我们把这些问题细分为统计因果推断和传统的NLP任务。这些研究的不同分支有共同的目标,intuitions,并且开始去表现出方法之间的协同性。Section 3中,我们展示出最近的使用NLP建模,来帮助研究者作因果结论的进展。Section 4中,我们展示出,这些因果推断中的idea是怎么被用于让NLP模型更加可信(trustworthy)和透明(transparent)。所有的这些领域都还是新生的,有很多的挑战。

因果的方法论迫使研究者解释他们的假设。为了改善科学标准,我们相信计算语言社区应该对这些假设更加清晰,并且使用因果推理分析这些数据。在这个方向推动我们的NLP方法论,能够引导出对 语言 我们创建的模型 有一个更好的理解

NLP是人工智能的一个子领域,作为AI产品经理,我们至少要知道NLP是什么,它能做什么事,这样我们就能获得一种解决问题的思维,将遇到的问题和方法连接起来。接下来我从“NLP是什么、能做什么、目前遇到的难题”三个方面来简单介绍下NLP。

一.什么是NLP

NLP,中文叫自然语言处理,简单来说,是一门让计算机理解、分析以及生成自然语言的学科,大概的研究过程是:研制出可以表示语言能力的模型——提出各种方法来不断提高语言模型的能力——根据语言模型来设计各种应用系统——不断地完善语言模型。

NLP理解自然语言目前有两种处理方式:

1基于规则来理解自然语言,即通过制定一些系列的规则来设计一个程序,然后通过这个程序来解决自然语言问题。输入是规则,输出是程序;

2基于统计机器学习来理解自然语言,即用大量的数据通过机器学习算法来训练一个模型,然后通过这个模型来解决自然语言问题。输入是数据和想要的结果,输出是模型。

接下来简单介绍NLP常见的任务或应用。

二.NLP能做什么:

1分词

中文可以分为字、词、短语、句子、段落、文档这几个层面,如果要表达一个意思,很多时候通过一个字是无法表达的一个含义的,至少一个词才能更好表达一个含义,所以一般情况是以“词”为基本单位,用“词”组合来表示“短语、、句子、段落、文档”,至于计算机的输入是短语或句子或段落还是文档就要看具体的场景。由于中文不像英文那样词与词之间用空格隔开,计算机无法用区分一个文本有哪些词,所以要进行分词。目前分词常用的方法有两种:

(1)基于规则:Heuristic(启发式)、关键字表

(2)基于机器学习/统计方法:HMM(隐马尔科夫模型)、CRF(条件随机场)

(注:在这里就不具体介绍方法的原理和实现过程了,大家感兴趣,可以自行百度了解)

现状分词这项技术非常成熟了,分词的准确率已经达到了可用的程度,也有很多第三方的库供我们使用,比如jieba,所以一般在实际运用中我们会采用“jieba+自定义词典”的方式进行分词。

2词编码

现在把“我喜欢你”这个文本通过分词分成“我”、“喜欢”、“你”三个词,此时把这三词作为计算机的输入,计算机是无法理解的,所以我们把这些词转换成计算机能理解的方式,即词编码,现在普遍是将词表示为词向量,来作为机器学习的输入和表示空间。目前有两种表示空间:

(1)离散表示:

AOne-hot表示

假设我们的语料库是:

我喜欢你你对我有感觉吗

词典{“我”:1,“喜欢”:2,“你”:3,“对“:4,“有”:5,“感觉”:6,“吗”:7} 。一共有七个维度。

所以用One-hot表示:

“我”  :[1, 0, 0, 0, 0, 0, 0]

“喜欢”:[0, 1, 0, 0, 0, 0, 0]

········

“吗”  :[0, 0, 0, 0, 0, 0, 1]

即一个词用一个维度表示

Bbag of word:即将所有词的向量直接加和作为一个文档的向量。

所以“我 喜欢 你”就表示为:“[1, 1, 1, 0, 0, 0, 0]”。

C Bi-gram和N-gram(语言模型):考虑了词的顺序,用词组合表示一个词向量。

这三种方式背后的思想是:不同的词都代表着不同的维度,即一个“单位”(词或词组合等)为一个维度。

(2)分布式表示:word2vec,表示一个共现矩阵向量。其背后的思想是“一个词可以用其附近的词来表示”。

离散式或分布式的表示空间都有它们各自的优缺点,感兴趣的读者可以自行查资料了解,在这里不阐述了。这里有一个问题,当语料库越大时,包含的词就越多,那词向量的维度就越大,这样在空间储存和计算量都会指数增大,所以工程师在处理词向量时,一般都会进行降维,降维就意味着部分信息会丢失,从而影响最终的效果,所以作为产品经理,跟进项目开发时,也需要了解工程师降维的合理性。

3自动文摘

自动文摘是指在原始文本中自动摘要出关键的文本或知识。为什么需要自动文摘?有两个主要的原因:(1)信息过载,我们需要在大量的文本中抽出最有用、最有价值的文本;(2)人工摘要的成本非常高。目前自动文摘有两种解决思路:第一种是extractive(抽取式),从原始文本中找到一些关键的句子,组成一篇摘要;另一种方式是abstractive(摘要式),计算机先理解原始文本的内容,再用自己的意思将其表达出来。自动文摘技术目前在新闻领域运用的最广,在信息过载的时代,用该技术帮助用户用最短的时间了解最多、最有价值的新闻。此外,如何在非结构的数据中提取结构化的知识也将是问答机器人的一大方向。

4实体识别

实体识别是指在一个文本中,识别出具体特定类别的实体,例如人名、地名、数值、专有名词等。它在信息检索、自动问答、知识图谱等领域运用的比较多。实体识别的目的就是告诉计算机这个词是属于某类实体,有助于识别出用户意图。比如百度的知识图谱:

“周星驰多大了”识别出的实体是“周星驰”(明星实体),关系是“年龄”,搜索系统可以知道用户提问的是某个明星的年龄,然后结合数据“周星驰  出生时间  1962年6月22日”以及当前日期来推算出周星驰的年龄,并把结果直接把这个结果显示给用户,而不是显示候选答案的链接。

此外,NLP常见的任务还有:主题识别、机器翻译、文本分类、文本生成、情感分析、关键字提取、文本相似度等,以后有时间再为大家做简单介绍。

三.NLP目前存在的难点

1语言不规范,灵活性高

自然语言并不规范,虽然可以找一些基本规则,但是自然语言太灵活了,同一个意思可以用多种方式来表达,不管是基于规则来理解自然语言还是通过机器学习来学习数据内在的特征都显得比较困难。

2错别字

在处理文本时,我们会发现有大量的错别字,怎么样让计算机理解这些错别字想表达的真正含义,也是NLP的一大难点

3新词

我们处在互联网高速发展的时代,网上每天都会产生大量的新词,我们如何快速地发现这些新词,并让计算机理解也是NLP的难点

4用词向量来表示词依然存在不足

上述,我们讲到,我们是通过词向量来让计算机理解词,但是词向量所表示的空间,它是离散,而不是连续,比如表示一些正面的词:好,很好,棒,厉害等,在“好”到“很好”的词向量空间中,你是不能找到一些词,从“好”连续到“很好”,所以它是离散、不连续的,不连续最大的问题就是不可导计算机是处理可导的函数非常容易,不可导的话,计算量就上来了。当然现在也有一些算法是计算词向量做了连续近似化,但这肯定伴随着信息的损失。总之,词向量并不是最好的表示词的方式,需要一种更好的数学语言来表示词,当然可能我们人类的自然语言本身就是不连续的,或者人类无法创建出“连续”的自然语言。

小结:通过上述的内容,我们已经大概知道了“NLP是什么、能做什么以及目前存在的难题”。作为人工智能产品经理,了解NLP技术能够提高我们自己的技术理解力,在理解行业需求、推进项目开展都有非常大的帮助,其实这可以让我们获得是一种连接能力,将需求与工程师连接起来,将问题与解决方案连接起来。虽然NLP等人工智能技术存在很多不足,但我们需要调整好自己的心态,人工智能应用化才刚刚开始,必然是不够完美的,不要成为批判者,而是成为人工智能时代的推进者。

nt-sizf@�2W��

罗素悖论:由所有不包含自身的集合构成的集合

例子:理发师称只给那些不给自己理发的人理发。

基于集合论,理发师无论给自己理发还是不给自己理发都是矛盾的。

因此集合论不是完备的。 即使后面冯罗伊德等科学家提出了各种假定条件。

由于上述的原因,集合率无法很好的描述自然语言,科学家发现通过概率模型可以更好的描述自然语言。

深度学习来处理自然语言属于概率模型

证明最小点位于坐标轴上

h = f+c|x|

由于在x = 0处不可导

h-left'(0)h-right'(0) = (f'+c)(f'-c)

那么如果c>|f'(0)|可得,h在0处左右导数异号

0是最值。

那么在损失函数加入L1正则化后,可以得到某些维度容易为0,从而得到稀疏解

几乎所有的最优化手段,都将适用凸优化算法来解决

P(A|B) = P(A and B) / P(B)

if A and B 独立

=》P(A and B| C) = P(A|C)P(B|C)

也可以推出

=>A(A|B and C) = P(A|C) (B交C不为空)

抛9次硬币,硬币出现正面的概率是05,出现k次的概率分布如下如

服从正态分布

x的平均值

E = xp(x) +

x相对于期望的偏离

var = (x-E(x))^2

conv = (x - E(x))(m - E(m))

描述x,m是否有同分布

按理协方差为0,并不代表x和m没有关系

例如下图

如果点的分布对称的分布,会得到协方差为0,但是其实他们是有关系的。

把每个相关的概率累加,得到联合概率

P(x1=m1,x2=m2) = n!P1 m1/m1!P2 m2/m2!

T(n) = (n-1)!

T(x)用一条曲线逼近n!,进而可以求得非整数的阶乘

由二项式分布推出

P = T(a+b)x (a-1)(1-x) (b-1)/(T(a)T(b))

则正态分布

y为0时,不考虑y‘。y为1时,y'越接近1,越小,越靠近0,越大

把D最小化,迫使y'逼近y

对于一个句子,有若干单词组成。例如

C1: The dog laughs

C2: He laughs

那么计算P(C1) = P(The, Dog, laughs)的概率和P(C2) = P(He, laughs)的概率。

根据历史文本的统计学习。

可以得到P(C1)<<P(C2)

P('I love the game') = P('I')P('love')P('the')P('game')

其中P(<work>) = 频率/总单词数

计算一篇文章是积极的还是消极的。

P(y|x) = sigmod(wx)

x是文章内每个单词的频率

y表示积极和消极情感

其中P(xk|x1, x2,xk-1) = frequence(x1, x2 ,, xk)/frequence(x1, x2xk-1)

2-gram模型例子

把多个gram的模型进行线性整合

P(y|x1, x2, xn) = P(y)P(x1, x2, xn|y) / P(x1, x2, xn)

y代表是否是垃圾邮件

x代表单词

广州市长寿路 -》 广州市长|寿路

广州市长寿路 -》 广州市|长寿路

匹配词袋:广州市,广州市长,长寿路

使用最大匹配发,第二个分词更优

通过统计P(A|B),得出各个option的概率,取最大的概率,则为最后的分词

word => [0, 0 , 1, 0]

word => [0, 1, 0, 1, 0, ]

可以解决词相似性问题

计算附近词的频率

word => [0, 3, 0, 1, 0, ]

w是附近词的one-hot encoding

score是词的one-hot encoding

最后一层通过softmax,取拟合文本

最终中间层则为词向量

输入为词one-hot encoding

输出为附近此的one-hot encoding

最后通过softmax预测附近词

最后中间层则为结果词向量

混合模型是一种统计模型,问题中包含若干个子问题,每个子问题是一个概率分布,那么总问题就是若干个子问题的组合,也就是若干个子分部的组合,这样就形成了混合模型。

有红黑两种硬币,把它们放在盒子里,从盒子里随机抽取一个硬币并投币,抽到红色的概率是p,红色硬币正面的概率是q,黑色硬币正面的概率是m,假设我们没办法看到抽取出的硬币的颜色,只能看到最终是正面或者反面的结果,例如HTTHTTTTHHH (H:正面 T: 反面)。需要估计p,q,m三个参数。

此时可以计算出

通过EM算法迭代如下:

随机p q m

迭代以下过程:

计算上面table

p = (aC(正)+cC(反))/total

q = aC(正)/(aC正+cC正)

m = bC(正)/(bC正 + dC正)

假设有上述数据,需要用混合模型来逼近,通过分析,红色和蓝色数据分别为高斯正态分布,N(u, v)

此时可以得到如下表

p = pN红x/(pN红x+(1-p)N蓝x)

u = pN红x/n

v = pN红(x-u)^2/n

词性转换概率

词性到单词的转换概率

通过EM递归算法,训练以上参数,得到隐马尔可夫模型

PLSA主题模型

只统计词的频率,不计算词的相对位置

计算文档和单词频率的矩阵

进行奇异矩阵分解

得到A矩阵的压缩U,U中的k则为k个主题

通过分析,LSA得到的主题是跟现实无法关联,它只是一个量,而没有明显的意义。

PLSA为了解决此问题,引入概率模型,先确定主题个数

然后通过构建Doc->topic的概率table,和topic->word的概率table。

然后通过EM模型,得到这两个table的所有概率值。

进而得到文档的主题表示

PLSA的缺陷是,对于预测未知的doc,无法计算此文档的相关概率。随着doc数量的增加,PLSA模型的参数会线性增加,从而会造成过拟合。

LDA通过引入先验概率来克服PLSA的问题。

类似于编译原理的上下文无法句法分析,一颗语法树

通过对CFG引入概率参数

有了概率,可以计算每颗语法树的极大似然概率,并取最大概率的树为最终输出

上一个状态中间层的输出作为下一隐层的输入

类似于HMM的2-gram模型。t状态受到t-1时刻输出的影响,受t-k的输出的k越大,影响越小

由于RNN几乎只受到上一时刻的影响,而忽略了久远信息的影响。从而造成了一定的局限性。

LSTM通过引入长短记忆方法,来维持长记忆的信息。

通过训练核内的sigmod函数,使得LSTM可以根据不同的句子,有条件的保留和过滤历史信息,从而达到长记忆的功能。

GRU是LSTM的简化版,它只需要处理两个sigmod函数的训练,而LSTM需要三个sigmod函数的训练,减少了训练的参数,加快了训练的速度,但也损失了一部分模型的复杂,在处理较复杂问题时,没有LSTM那么好。

auto-encoder-decoder的特点是输出的单元数是固定的。对于一般自然语言处理,例如机器翻译,输入的单元个数跟输出单元的个数并不是一一对应的,此时就需要动态的生成输出单元。Seq2Seq通过动态的输出结束符,代表是否输出完成,达到可以动态的根据输入输出不同的单元个数。

seq2seq的缺点是,所有的输入序列都转化为单一的单元c,导致很多信息都将消失,对于不同的输出yi,它可能依赖的输入xj有可能不一样,此时通过加入注意力模型,通过对xi进行softmax处理,并加入到y权重的训练中,可以让不同的y,有不同的x对它进行影响

softmax的输入为输入单元x,和上一个输出单元y,联合产生softmax的权重,进而对不同的序列,对于同一个x,会有不同的注意力到输出

q = Wq(x)

k = Wk(x)

v = Wv(x)

x为词向量

通过训练,得到权重w,从而学习到这一层的softmax注意力参数

R是前一次encoder的输出

通过增加w的数量,产生多个z,并进行堆叠,通过前馈网络,最后产生z

在使用self attention处理句子时,是没有考虑单词在句子中的位置信息的。为了让模型可以加入考虑单词的位置信息,加入了位置编码的向量

计算如下:

pos为单词在句子中的位置

i为词向量的位置

d为句子的长度

位置编码加上词向量形成tranformer的输入

加入了归一化和残差网络

最终通过softmax,输出每个单词的概率,并最终输出单词

1217第一天打卡

学习内容 1·NLP与心理学概论课程、2·心智策略、3·人生脚本、4·界限

我的收获

1 心理学无处不在,有人的地方就有心理学,而我们学习的NLP心理学实操更多的是身心运作,它以练习为主,以说为辅。

2 我们在应对人与人的关系,这在NLP中的专业术语就叫心智策略。

策略没有好坏之分,因为策略是为我们人生所用的,但策略为何会无效,通常都是由于策略太单一、太自我。没有办法去和别人的策略去沟通,共赢和互相理解就难以达到了。策略分为两种:一种是环境可变策略,一种是行动可变策略。环境可变策略是眼睛向外看,行动可变策略是眼里向内看。一个被动,一个主动。

3我们每个人最初的人生脚本都来源于原生家庭的成长环境,我们会不由自主地模仿父母的人际相处模式。但是当我们意识到我们才是自己人生剧本的导演,我们不用去否定过去,而是提取对自己有益的,再加入自己新的期待,重新改写演好人生的下半场。

4人际关系最糟糕的情况就是界限不清。一个人的成熟度和分离的完整度的表现,取决于他能否为自己建立清晰的边界,找准自己的定位,捍卫自己的边界,界限是一种心理策略,它要有灵活性,也要有弹性。既要懂得尊重自己的界限,也懂得尊重别人的界限。

1218号第二天打卡

学习内容 5人生三件事67戏剧三角

我的收获

1人生哪三件事:我的事、别人的事、老天的事;过去的事、现在的事:未来的事……为什我们的人生总是一团乱麻、矛盾重重,困惑,纠结,迷茫,仔细想想,是不是我们没有把事情做一个明确的划分?操心别人的事却不关注于自己的事,忽略了自己的感受,把自己的失败归咎于别人对你的态度;抑郁昨天的不愉快却错过了当下的积极可能性……当我们觉察到三件事的重要性,也让我们更充分的理解界限感的含义。

2人生如戏,全凭演技!自己既是自己人生剧本的导演也是主演。你想要什么样的生活,都是你自己的选择!

下:受害者三角

上:责任者三角

我们往往在受害者三角中循环:

当你是受害者,你会在生活中投射出加害者与拯救者;

在自我关系中,自己可以扮演三个角色,让自己陷入自我否定和自我救赎的恶性循环之中。

责任者三角是更加有效的策略:

无论面对什么关系困扰,都本着对自己的人生负责,成为在关系中去创造新的行动的一方。

不断觉察自己的受害者策略,就已经部分成为责任者。

关于责任:责任不是谁错了该罚谁,而是事情发生了,谁能站出来让事情更好。

1219号第三天打卡

学习内容 89限制性信念

我的收获

1 什么是信念?

我认为人、事、物应该是怎样的,是一系列你对事情应该是怎样的看法。

每个人都活不出信念以外的世界。

信念是可以被察觉并且突破的。

2 信念形成的途径

由过往经验加工储存而来。

3.深层限制性信念

无助:我得不到帮助

无望:我没有希望

无资格:我没有价值

这三种限制性信念来自于早年成长经历,让我们失去成年人的内心力量和创造力。

4.如何突破限制性信念,引入积极信念?

(1)一句话突破限制性信念

没有人爱我 VS 我值得被爱/我有资格被爱

(2)积极信念种入

我有资格……

我有能力……

我的爸爸允许我……

我的妈妈允许我……

(3)编剧(改写故事)

-讲故事

-从资源的视角改编故事/从爱的视角改编故事

-新的信念是

1221号第五天打卡

学习内容 1213经验元素1415冰山

我的收获

1 三大经验元素:

视觉元素、听觉元素、感觉元素。

视、听、感是加工经验元素和潜意识储存信息的通道。

经验元素会成为你看世界的眼睛,负面经验元素越多对世界的负面体验就越多。

2 如何运用经验元素?

处理储存在潜意识中的负面或者无效经验。

借力,人生更加有效。

支持意识更有策略性。

冰山

事实不等于真相。

行为层面的重复往往是观点的冲突。

问题本身不是问题,如何看待问题才是问题。

对别人有期待等于把自己人生的钥匙交给别人。

咨询时不是与问题工作,而是同当事人的期待、渴望甚至生命能量一起工作。

1 转化

(1)感受的转化

(2)观点的转化

2.关于感受的层次

(1)本体感受(身体感受)

(2)表层情绪感受(愤怒、紧张、恐惧……)

(3)内层情绪感受(委屈、悲伤、痛苦……)

3.期待

(1)我对别人的期待

(2)我对我自己的期待

(3)别人对我的期待

NLP心理实操10:NLP 12条前提假设

看人

1 没有两个人是一样的。

2 一个人不能改变另一个人。

3 沟通的效果取决于对方的回应。

4 每一个人都选择给自己最佳利益的行为。

5 每人都已经具备使自己成功快乐的资源。

6 动机和情绪总不会错,只是行为没有效果而已。

看事

7 重复旧的做法,只会得到旧的结果。

8 凡事必有至少三个解决方法。

9 只有由感官经验塑造出来的世界,没有绝对的真实世界。

10 没有挫败,只有回应讯息。

11 有效果比有道理更重要。

12 系统中最灵活的部分最能影响大局。

1223号第七天打卡

学习内容 2021 理解六层次

我的收获

1 理解六层次是什么?

从上至下的六层次:

- 精神/系统(我与世界的关系)

- 身份(我是谁)

- 信念与价值观(为什么)

- 能力(如何做)

- 行为(做什么)

- 环境(时间、地点、人、事、物)

理解层次:上层总是管理下层,下三层是由更深层的司令部(上三层)所指导。

2 身份与角色

身份定位:在不同系统中切换更有效的身份定位。

身份最核心的是人格魅力,自我价值感。

人在不同系统中有着不同的意义和使命。

3 理解层次练习

(1)确定一个自己人生中的系统

(2)梳理在这个系统中自己的身份是否有效

(3)自己需要调整的有效身份是什么?如何调整?

4 理解层次访谈

咨询师和来访者:

(1)来访者谈论自己在某个关系中的困惑

(2)咨询师发问:

- 这种情况下,关系中你是谁?你像对方的什么人?

- 事实上,有效的身份应该是什么?无效身份与有效身份对比一下,看看有什么不同?

5 理解层次回应练习

我看到你……(环境、行为)

我感觉到你……(能力、在乎的价值、是什么样的人)

你能够带给我们……(系统中的意义)

6 运用理解层次“先跟后带”

(1)跟的是:理解层次上四层(系统、身份、信念价值、能力)

(2)带的是:下面两层(行为、环境)的改变

7 小结

理解层次可以帮助我们更加理解自己和他人。

理解层次身份和系统的肯定可以给一个人增加内心力量。

批评在下面两层,支持中间两层,肯定在上面两层。

咨询师可以比来访者更加理解他自己。

1224号第八天打卡

学习内容 222324心灵空间(上、中、下)

我的收获

1 “心灵空间”是什么?

- 心灵空间区别于物理空间

- 心灵空间是冰山海平面以下的部分

心灵空间图

(1)最核心的心灵空间:父、母、我——我是通过我的父母来到这个世界的。

(2)更宏观的心灵空间:每个人都脱离不了的生存的土壤,也就是我们身边的环境和时代。

- 做个案时要考虑当事人的时代背景。

- 所有的信仰(邪教除外)一定是支持和教化所有人找到幸福和爱的。

- 计划生育政策深远地影响了所有人的内在。

- 相比于国家大事记,对我们来说最直接的影响是一个人的人生大事记。

掌握心灵空间图的作用和意义:能够支持我们更精准地探索,找到当事人的情绪卡点在哪里。

2 生命坐标

所有的困惑都源于你不做自己。

我们要探索的是,如果我们没有做自己,我们做了谁?

我与父母,我与伴侣和子女

- 做练习是为了让我们的身体知道,而不仅仅是头脑知道。

- 父母利用两个人之间的问题来呼唤孩子回家,孩子也可能通过自己的症状呼唤爸爸妈妈和好。

- 心在自己的位置上,身体可以去到任何地方。

3 小结

(1)心理咨询师需掌握的3张图:冰山图、理解层次图、心灵空间图。

(2)对孩子来说,完整的爱是孩子能接收到爸爸妈妈对TA的爱,能看到爸爸妈妈之间的爱。

(3)关系里的爱和滋养是我们生活的原动力。

(4)治疗一个人时,是唤醒TA在关系里爱和被爱的力量。

(5)心理治疗是寻找当事人爱的源泉,在所有的问题和困惑里寻找爱的部分,而不是解决问题。

12

打卡

学习内容 2425与父母关系之心理铁三角

我的收获

1 为什么说是心理铁三角?

(1)人生里接触到的第一个关系是和父母的关系。

- 认识的第一个男人,是爸爸

- 认识的第一个女人,是妈妈

(2)和爸爸妈妈的关系是未来我们人际关系的基础的原型。

(3)在心理上、生物学、遗传学角度都是铁三角。

2 心理铁三角小结

(1)生命中一半的力量来自爸爸:阳刚、战斗;一半的能量来自妈妈:包容、温柔、承载。

(2)女性能量是最能和人建立连接的能量。

(3)作为女人,首要解决的是女性能量;作为男人,首要看与爸爸的关系。

(4)处理与父母的关系,不是真的为了和父母和解,而是使我们能够更好地爱身边的人和世界。

(5)生命系统只有一个目的,就是:下一代比上一代活得更好。

(6)不愿与人亲近有可能是人格上的特点,也有可能是父母的。

(7)所有我们对父母做的工作,都是基于我想带着这个生命未来活得更好。

(8)其实,孩子越多的父母,生产爱的能力更强。

(9)几个孩子在一起的时候,父母要少参与,即便参与也要少评判谁对谁错,谁好谁不好;同时多制造“心理铁三角”的机会。

(10)我们现在和人互动其实是带着自我关系、自我形态在和别人连接的。

(11)你如何和自己隔离,就会在人际关系中与他人有这层隔离。

1226号第10天打卡

学习内容 2627与父母关系之接受父母法

我的收获

1 接受父母法步骤

(1)准备,连接

(2)现状,感受,表达

(3)引导词导入

(4)获得爱、力量,面向未来

注意事项:接受父母法一定要与亲生父母做链接,亲生父母是树根,是唯一的,如果想与养父母作连接,需调整引导词。

2 要点小结

(1)我们无法改变父母,但可以改变对父母的认知。

(2)爱父母不是去支持父母改变他们的人生,而是让他们的孩子活得更有力量,做更多好事。

(3)作为父母,当你真正有力量的时候,对孩子会有非常好的支持。

(4)作为咨询师,要把自己调频到和当事人一致的频率,或者说相对一致性比较高的节奏里。

(5)咨询不是我要帮到你,而是我给你一个空间让你帮到你自己,即助人自助。

1227号第11天打卡

学习内容 282930 与自己的关系

我的收获

1 自信与价值

(1)自信就是我们日常里描述自我价值感充分带来的一个状态的感觉。

(2)获得价值感的途径:制造机会多做——多做到——多因做到而被肯定。

(3)一个健康的自我价值感时再18岁以前得到500次的肯定。

2 接受自己法

(1)练习步骤:

- 呼吸放松,与潜意识沟通

- 想象“一个成长中的自己”,去看、感受对方的表情、姿态、状态

- 与“成长中的自己”对话:我是长大以后的你,你就是曾经的我自己,我看到你了,现在是时候我们在一起了,这样我们会接受自己,更爱自己,更多一份力量

- 与“成长中的自己”拥抱,说一些只有你们两个人知道的话,想象“成长中的自己”变成一股能量与自己完全整合在一起。

- 打破状态,效果测试

(2)作用

接受自己法整合的是内在的自我关系的部分,有助于提升自我价值感,是辅导的练习中比较核心重要的一个。

作用:增加自信和内心力量,处理成长经历创伤。

(3)注意事项

- 首先用与潜意识沟通为基础

- 找到正面意义及资源

- 只谈感受,不讲大道理

根源:对不起,请原谅,谢谢你,我爱你

(4)小结

- 引导来访者时不是说服TA,而是让TA看到表面背后的本质。

- 在别人做练习时,旁观者不要跟着做,所有的对话、场景都是为当事人量身定制的,若你跟着做,潜意识会让你打盹、瞌睡、不接受。

- 一切的我和外在世界关系的根源都在于自我关系,而自我关系的根源就是四字真言:对不起,请原谅,谢谢你,我爱你。

- 一个能理解自己的人就能更好地理解这个世界。

1228号第12天打卡

学习内容 313233沟通要素及要诀

我的收获

1 沟通概论

(1)狭义的沟通与广义的沟通

- 狭义的沟通是我和某个人沟通,二人对话。

- 广义的沟通是我们和这个世界的关系。

(2)沟通的方向:把向外看的眼睛向内看。

(3)沟通的目标

- 在亲密关系中:沟通以亲和为目标

- 在工作场域中:沟通以创造为目标

2 沟通要素

(1)肢体(身心能量):55%

(2)语调(身心能量):38%

(3)文字(理性):7%

3 沟通要诀

(1)声调和肢体语言决定沟通的效果,不是文字。

(2)说话是要增加双方的内心力量,而不是减少。

(3)重复旧的做法,得到旧的结果。

(4)沟通需要核对(发问):发问是比陈述更重要的工具

(5)灵活,三赢(你好,我好,世界好)

1229号第13天打卡

学习内容 343536沟通的基本训练

我的收获

1沟通的基本训练

(1)聆听(听到对方的需要)

复述对方的话,需要同时关注以下两方面:

- 语言

- 肢体+语气

(2)精简说话

精简要点+核对(能够使来访者被理解、被看见)

2沟通的基本训练之“接受批评法”

接受批评法是一个有效的改善收到批评后所遗留的负面情绪的方法,就是给自己安装一个程序,让我们有力量去应对甚至把负面讯息转化成正面讯息。

步骤:

(1)想象回到过去被批评的画面。

(2)重放批评的过程,同时身边放个垃圾桶。

(3)重放完批评的过程,分离出来,把有意义的留下,把没有意义的放进垃圾桶。

(4)和对方做一些简单的对话。

(5)打破状态。

3沟通的基本训练之“一分为二法”

一分为二法用来处理与自己不能接受的人相处的情况。

步骤:

(1)想象对方站在前面,找到原始感觉,把人放进大屏幕,把屏幕一分为二。

(2)复制一个复制品,然后和TA进行对话:你也不完美,我也不完美,我只和你那些有支持力的部分互动,把我不能接受的放下。然后移动过去,拉近能接受的,推远那些不能接受的。

(3)和TA进行一段简单的对话:未来我会和你更好地配合,让我们的关系达到三赢。

1230号第14天打卡

学习内容 37情绪概论38情绪智能

我的收获

1 情绪概论

(1)情绪是什么?

- 本能

- 能量

- 能力

(2)我们不是不需要情绪,而是不知道如何转化我们负面的体验而已

(3)我们需要的是如何能够把情绪这种本能、能量训练成生活里让我们更成功、更快乐的能力

2 情绪智能

情绪智能,从字面理解为如何智慧地把情绪当作人生里的一个能力,即情商(EQ),也就是一个人能够合理地运用TA的情绪,并且把TA的情绪当成一种能力和工具,让自己的人生更有效。

情绪智能分为四大能力:

(1)觉知力

(2)理解力

(3)运用力

(4)舒缓力

1231号第15天打卡

学习内容 39情绪的意义40 生命情绪和生存情绪

我的收获

1情绪的意义/作用

(1)表达

(2)连结

(3)成长

情绪最深入的意义即让我们表达自己,连结他人,让自己能够成长,心智更成熟。

2生命情绪和生存情绪

(1)生存情绪最核心的两大基本情绪

- 愤怒

- 恐惧

(2)生命情绪

- 爱

- 感恩

- 快乐

11号第15天打卡

学习内容 41负面情绪的正面意义42舒缓情绪的技巧

我的收获

1负面情绪的正面意义

(1)愤怒:力量,爱

(2)恐惧:面对,力量

(3)痛苦:成长,成熟

(4)嫉妒:成长,欣赏

(5)焦虑:重视,办法

(6)委屈:表达,长大

(7)悲伤:珍惜

(8)失望:别控制

练习:

我不想要(不喜欢)A

改写:

- 我需要A。

- 因为A可以提醒我……帮助我……

- 我要运用它……

2舒缓情绪的技巧

(1)情绪智能

- 舒缓情绪

- 表达情绪

- 转化情绪

- 运用情绪

(2)舒缓情绪的练习

1)呼吸放松

2)本体能量

- 混合法:注意力更集中

- 生理平衡法:平复情绪

12号第17天打卡

学习内容 42保险箱技术43 表达与转化情绪

我的收获

1保险箱技术

- 呼吸放松,和潜意识连接,想象看到那个情绪,把它形象化。

- 创造一个保险箱,把我们能够看到的情绪或不舒服的地方放进去。如果放不进去,就再做一步正面意义储留心中,把它放进去。对情绪说:我知道你对我的成长有意义,尽管我现在还不是很清楚,先把你放进保险箱,等时机成熟再回来成长,谢谢你!

- 把保险箱推至左后方(左利手则为右后方),眼睛余光可见即可。

- 打破状态,效果测试。

2表达与转化情绪

情绪洋葱其实是意识进化的过程,当我们活在情绪洋葱的最外层时,其实活的是相对本能和野蛮的状态。

- 表层情绪:愤怒、焦虑、恐惧

- 深层情绪:痛苦、委屈、悲伤

- 最深层:去爱、被爱

13号第18天打卡

学习内容 44 智能型处理情绪 45 收回投射法

我的收获

1智能型处理情绪

智能处理情绪的步骤:

(1)聚焦产生情绪的人和事

(2)接受+理解+情绪

(3)情绪洋葱+正面意义

(4)策划未来新策略

2关于投射

(1)咨询师可以运用投射,安驻当下,保持中立,同时运用当事人对自己的投射,给予相应的支持。

(2)投射不是问题,影响了自己的关系和生活的投射才是问题,陷入到投射中而没有觉知才是问题。

3收回投射法

步骤:

(1)测试一下双方关系的距离

(2)与对方对话:

亲爱的A,也许我对你有一些期待,是关于B的。现在,我把那些对B的期待收回来,交还给B。这样,你就可以只做我的A,我也就可以只做你的C了。

(3)想象B站在自己身后,从被投射的对方飞回一些需求到身后的B那里。

(4)全部飞回后,观察对方与之前有什么不同。

(5)打破状态,效果测试。

14号第19天打卡

学习内容 47感知位置平衡法48感知位置平衡的灵活运用

我的收获

1 感知位置平衡的灵活运用:感知位置换框

(1)邀请当事人讲述一个困扰事件

(2)如果你是对方,你会是什么感受?你又会如何看待这个事情?

(3)如果你是你自己的重要他人,会如何看待这个事件里的你和这个事件?你会分别给到对方和你自己什么样的建议?

(4)如果你是未来的你,那个十年后的你如何看待这个事件?如何看待这个事件里的你?

(5)如果你是教练,你会如何看待这个事件?看待这个时间里的你?会给自己什么建议?

(6)那个能够游刃有余地处理这个事件的你会如何做?

15号第20天打卡

学习内容 49用感知位置平衡探索自己 50处理情感失衡与纠缠

我的收获

1用感知位置平衡探索自己:与目标未来对话

(1)想象五年后的你,会是什么样子?

(2)目标都实现了,会使什么样的画面?画面里都有谁?

(3)你有什么话要对那个自己说?

(4)邀请当事人完全进入到未来那个自己的画面中

(5)转身,看着刚才当下的自己,什么感觉?有什么话要对TA说?

(6)回到原来的位置,看着已经成为未来的自己,你的感觉如何?你会对自己对TA说什么?

(7)想象和未来拥抱

2 1 处理情感失衡

练习步骤:

(1)收取

- 爱,记忆

- 成长的支持

- 对方的付出

(2)付出

- 给与对方的支持

- 给与对方的伤害

(3)放下:对方的人生/包袱

注意:练习的步骤可以根据来访的不同情况加以调整

- 对于愤怒/比较有力量的来访者,可以先做“付出”这一步

- 对于有受害者心态的来访者,可以先做“收取”这一步

2 化解纠缠

练习步骤:

(1)平衡情感

(2)祝福+再见

(3)连接未来的自己

16号第21天打卡

学习内容 51:NLP心理实操视角下的心理咨询

我的收获

1 心理咨询步骤

(1)初访:确定议题、目标、收集资料、设计咨询框架、确定时程

(2)维度解读

(3)次数统计

(4)有始有终

2 效果来源

状态打分,来访者从向外指到看自己,咨询师对于来访者人格部分的补充。

3 咨访关系

(1)注意(也可运用)投射,与来访者有冲突时运用曝光技术(脱身术)。

(2)如果难以支持到来访者,可以转介绍,换一位咨询师来帮助来访者

1976年,理查德·班德勒和约翰·格林德开创了一门新学问——NLP(Neuro-Linguistic Programming),中文意思是用神经语言改变行为程序。后来他们的学生罗伯特·迪尔茨和格雷戈里·贝特森创立了NLP逻辑层次模型。这个模型把人的思维和觉知分为6个层次,自下而上分别是:环境、行为、能力、信念和价值观、自我意识、使命。

NLP逻辑层次模型适用于很多领域,诸如生活、商业、情感,也包括成长领域。可每次看到某某模型,或某个模型的组成部分超过3个时,我就有昏昏欲睡之感,觉得这些东西太抽象。想必你也有同样的感觉,不过还是请你在这一页上多停留一会儿,让我把这个模型换个面貌,你就会发现它其实是个好东西。

在成长过程中,我们必然会遇到各种各样的问题,此时,对待这些问题的态度就很关键了,因为从中可以看出我们的成长等级,而NLP逻辑层次模型就可以作为衡量成长等级的标尺。

第一层:环境。处在这一层的是最低层的成长者,他们遇到问题后的第一反应不是从自己身上找原因,而是把原因归咎到外部环境中,比如感叹自己运气不好、没有遇到好老板、怪老师教得太差……总之凡事都是别人的错,自己没有错。这样的人情绪不稳定,往往是十足的抱怨者。

第二层:行为。处于这一层的人能将目光投向内部,从自身寻找问题。他们不会太多抱怨环境,而是把注意力放在自身的行为上,比如个人努力程度。对于绝大多数人来说,努力是最容易做到的,也是自己可以完全掌控的,所以他们往往把努力视为救命稻草。

这本没什么不好,只是当努力成为唯一标准后,人们就很容易忽略其他因素,只用努力的形式来欺骗自己。比如每天都加班、每天都学习、每天都写作、每天都锻炼……凡事每天坚持,一天不落,看起来非常努力,但至于效率是否够高、注意力是否集中、文章是否有价值、身形是否有变化似乎并不重要,因为努力的感觉已经让他们心安理得了。说到底,人还是容易被懒惰影响的,总希望用相对无痛的努力数量取代直面核心困难的思考,在这种状态下,努力反而为他们营造了麻木自己的舒适区。

第三层:能力。处在这一层的人开始动脑琢磨自身的能力了。他们能主动跳出努力这个舒适区,积极寻找方法,因为有了科学正确的方法,就能事半功倍。但这一步也很容易让人产生错觉,因为在知道方法的那一瞬间,一些人会产生“一切事情都可以搞定”的感觉,于是便不再愿意花更多力气去踏实努力,他们沉迷方法论、收集方法论,对各种方法论如数家珍,而且始终坚信有一个更好的方法在前面等着自己,所以他们永远走在寻找最佳方法的路上,最终成了“道理都懂,就是不做”的那伙人。

第四层:信念和价值观。终有一天他们会明白,再好的方法也代替不了努力;也一定有人会明白,比方法更重要的其实是选择。因为一件事情要是方向错了,再多的努力和方法也没用,甚至还会起反作用,所以一定要先搞清楚“什么最重要”“什么更重要”,而这些问题的源头就是我们的信念和价值观。

一个人若能觉知到选择层,那他多少有点接近智慧了。在生活中,这类人一定愿意花更多时间去主动思考如何优化自己的选择,毕竟选择了错误的人和事,无异于浪费生命。

第五层:自我意识。如果说“信念和价值观”是一个人从被动跟从命运到主动掌握命运的分界线,那么“自我意识”是更高阶、更主动的选择。所谓“自我意识”,就是从自己的身份定位开始思考问题,即“我是一个什么样的人,所以我应该去做什么样的事”。在这个视角之下,所有的选择、方法、努力都会主动围绕自我身份的建设而自动转换为合适的状态。这样的人,可以说是真正的觉醒者了。

第六层:使命。在身份追求之上,便是人类最高级别的生命追求。如果一个人开始考虑自己的使命,那他必然会把自己的价值建立在为众人服务的层面上。也就是说,人活着的最高意义就是创造、利他、积极地影响他人。能影响的人越多,意义就越大。当然,追求使命的人不一定都是伟人,也可能是像我们这样的普通人,只要我们能在自己的能力范围内对他人产生积极的影响即可。有了使命追求,我们就能催生出真正的人生目标,就能不畏艰难困苦,勇往直前。

欢迎分享,转载请注明来源:浪漫分享网

原文地址:https://hunlipic.com/qinggan/7768051.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-09-07
下一篇2023-09-07

发表评论

登录后才能评论

评论列表(0条)

    保存