用层级分析法分析短语和句子等问题

用层级分析法分析短语和句子等问题,第1张

一、用层级分析法反洗下列短语

桌子||(方位)上|(主谓)放了||(述宾)几本|||(定中)刚买的||||(定中)新|||||(定中)书

必须||(状中)说|||(述补)清楚|(述宾)刚才|||(定中)发生的||(定中)事情

那些|(定中)关于|||(介宾)他的||(定中)传说

他的||(定中)欺诈|||(定中)行为|(主谓)终于||(状中)被||||(介宾)公安|||||(定中)人员|||(状中)发现了

他的||(定中)成绩|(主谓)比|||(介宾)我||(状中)好|||(述补)得多

首都|||(同位)北京的||(定中)著名|||(定中)景点|(同位)故宫

他的||(定中)一||||(数量)句|||(定中)话|(主谓)说||(述补)得大家|||(主谓)都||||(状中)笑了

他|(主谓)有|||(述宾)能力||(状中)担任|||(述宾)这个||||(定中)职务

很||(状中)满意地|(状中)朝他||(状中)看了|||(述补)|||(介宾)一眼

二、试把下列主谓句改成主谓谓语句

①我们应当努力掌握现代科学文化知识。

——现代科学文化知识我们应当努力掌握。

②这个人的知识面很广。

——这个人知识面很广。

③他已经完成了任务。

——任务他已经完成了。

④我喜欢游泳,也喜欢打球。

——游泳我喜欢,打球我也喜欢。

三、分析下列多重复句的层次和关系

①孩子是要别人教的,||(并列)毛病是要别人医的,|(让步)即使自己是教师或医生。

②芭蕾舞艺术虽然萌芽于意大利,||(转折)但是形成一种完整的艺术形式却是在法国,|(因果)所以人们把法国称做“芭蕾舞的故乡”。

③如果使海水生长更多的浮动植物,|(假设)那就不但保证了海洋鱼类的饲料,||(递进)还可能为人类提供新的食物资源。

④这个院子,虽然并不气派,||(递进)甚至连一条平坦的路也没有,|||(并列)下雨天到处是水塘和泥坑,|(转折)但却时有漂亮的卧车驶入,||(承接)都是找人事局那位陈科长的。

⑤如果我们的知识分子读了一些马克思主义的书,||(递进)又在同工农群众的接近中,在自己的工作实践中有所了解,|(假设)那么,我们大家就有了共同语言,不仅有爱国主义方面的共同语言,社会主义制度方面的共同语言,||(递进)而且还可以有共产主义世界观方面的共同语言。

⑥早上下过一阵小雨,||(并列)现在虽然放了晴,|||(并列)路上还是滑得很,|(转折)两边地里的秋庄稼,却给雨水冲洗得青翠、晶莹。

⑦北京是美丽的,我知道,|(因果)因为我不但是北京人,||(递进)而且到过欧美,|||(承接)看见过许多西方的名城。

情感分析(Sentiment Analysis)

第一步,就是确定一个词是积极还是消极,是主观还是客观。这一步主要依靠词典。

英文已经有伟大词典资源:SentiWordNet 无论积极消极、主观客观,还有词语的情感强度值都一并拿下。

但在中文领域,判断积极和消极已经有不少词典资源,如Hownet,NTUSD但用过这些词典就知道,效果实在是不咋滴(最近还发现了大连理工发布的情感词汇本体库,不过没用过,不好评价)。中文这方面的开源真心不够英文的做得细致有效。而中文识别主客观,那真的是不能直视。

中文领域难度在于:词典资源质量不高,不细致。另外缺乏主客观词典。

第二步,就是识别一个句子是积极还是消极,是主观还是客观。

有词典的时候,好办。直接去匹配看一个句子有什么词典里面的词,然后加总就可以计算出句子的情感分值。

但由于不同领域有不同的情感词,比如看上面的例子,“蓝屏”这个词一般不会出现在情感词典之中,但这个词明显表达了不满的情绪。因此需要另外根据具体领域构建针对性的情感词典。

如果不那么麻烦,就可以用有监督的机器学习方法。把一堆评论扔到一个算法里面训练,训练得到分类器之后就可以把评论分成积极消极、主观客观了。

分成积极和消极也好办,还是上面那个例子。5颗星的评论一般来说是积极的,1到2颗星的评论一般是消极的,这样就可以不用人工标注,直接进行训练。但主客观就不行了,一般主客观还是需要人来判断。加上中文主客观词典不给力,这就让机器学习判断主客观更为困难。

中文领域的难度:还是词典太差。还有就是用机器学习方法判断主客观非常麻烦,一般需要人工标注。

另外中文也有找到过资源,比如这个用Python编写的类库:SnowNLP 就可以计算一句话的积极和消极情感值。但我没用过,具体效果不清楚。

到了第三步,情感挖掘就升级到意见挖掘(Opinion Mining)了。

这一步需要从评论中找出产品的属性。拿手机来说,屏幕、电池、售后等都是它的属性。到这一步就要看评论是如何评价这些属性的。比如说“屏幕不错”,这就是积极的。“电池一天都不够就用完了,坑爹啊”,这就是消极的,而且强度很大。

这就需要在情感分析的基础上,先挖掘出产品的属性,再分析对应属性的情感。

分析完每一条评论的所有属性的情感后,就可以汇总起来,形成消费者对一款产品各个部分的评价。

接下来还可以对比不同产品的评价,并且可视化出来。如图。

这一步的主要在于准确挖掘产品属性(一般用关联规则),并准确分析对应的情感倾向和情感强度。因此这需要情感分析作为基础。首先要找到评论里面的主观句子,再找主观句子里的产品属性,再计算属性对应的情感分。所以前面基础不牢固,后面要准确分析就有难度。

中文这个领域的研究其实很完善了,技术也很成熟。但需要完善前期情感分析的准确度。

总的来说,就是中文词典资源不好,工作做得不是很细很准。前期的一些基础不牢固,后面要得到准确的分析效果就不容易了。

分析句子:

(1)从句式入手:

1、疑问句,吸引读者,制造悬念。

2、设问句,提醒注意,引发思考。

3、反问句,加强语气。

4、感叹句,抒情强烈。

答题格式:这是个句,表达了(作用)。

(2)、从修辞角度入手。

答题格式:运用的修辞手法,写出了的特点,表达了作者的思想感情。

(3)、从用词角度入手。

答题格式 :“”一词,写出了的特点或内容,表达了作者的思想感情。

分析段落答题格式:

(1)开头语段的作用:

1、开篇点题,点名时间、地点,点明题旨(内容-主旨)。

2、营造气氛,渲染氛围,奠定感情基调;(内容)。

3、引出下文,总领全文,为下文做铺垫,设置悬念,埋下伏笔,照应后文,与下文形成对比,欲扬先抑(结构)。

4、如果首段连续发问,那么首段还兼有引人入胜或发人深省(引起读者思考)的作用;如果开篇连续感叹,那么首段还兼有强烈的抒情作用(内容)。

(2)结尾语段的作用。

1、总结全文,归结主旨,卒章显志;(内容)。

2、暗示主题,强化情感,深化或升华主旨;(内容)。

3、委婉含蓄,意在言外,发人深思;(内容)(言有尽而意无穷,有这样作用的段落,往往这一句很含蓄,一眼看不透,即有点“看不懂”)。

4、呼应标题,呼应开头,首尾圆润,使文章浑然一体。(结构)。

BERT: Pre-training of Deep Bidirectional Transformers for

Language Understanding

将预训练语言模型应用在下游任务中,一般有两种策略:

作者认为影响当前预训练语言模型的 瓶颈是——“模型是单向的” 。如 GPT 选择从左到右的架构,这使得每个 token 只能注意到它前面的 token,这对 sentence 级的任务影响还是次要的,但对于 token 级的任务来说影响就很巨大。例如问答任务,从两个方向结合上下文是至关重要的。

BERT 通过使用受完形填空任务启发的 Mask Language Model (MLM)缓解了先前模型的单向性约束问题。MLM 随机 mask 掉一些输入文本中的 token,然后根据剩下的上下文预测 masked 的 token。除了 Mask Language Model,作者还提出了 Next Sequence Predict 任务,来联合训练文本对表示。

论文中BERT的改进如下:

预训练前的一般语言表征有着悠久历史,本节我们简要回顾一下最广泛使用的方法。

21 基于特征的无监督方法

几十年来,学习广泛适用的词汇表征一直是一个活跃的研究领域,包括非神经系统、神经系统方法。预训练的词嵌入是现代NLP系统的一个组成部分,与从头学习的嵌入相比,它提供了显著的改进(Turian等人,2010)。为了预先训练单词嵌入向量,已经使用了从左到右的语言建模目标(Mnih和Hinton,2009),以及在左右上下文中区分正确单词和错误单词的目标(Mikolov等人,2013)。

这些方法已被推广到更粗糙的粒度,例如句子嵌入(Kiros等人,2015;Logeswaran和Lee,2018)或段落嵌入(Le和Mikolov,2014)。为了训练句子表征,之前的工作已经使用了目标对候选下一个句子进行排序(Jernite等人,2017;Logeswaran和Lee,2018),根据前一个句子的表征从左到右生成下一个句子单词(Kiros等人,2015),或去噪自动编码器衍生的目标(Hill等人,2016)。

ELMo 及其前身(Peters等人,20172018a)从不同的维度概括了传统的单词嵌入研究。它们通过从左到右和从右到左的语言模型中提取上下文敏感的特征。每个标记的上下文表示是从左到右和从右到左表示的 串联 。在将上下文单词嵌入与现有任务特定架构相结合时,ELMo推进了几个主要NLP基准(Peters等人,2018a)的最新技术,包括问答(Rajpurkar等人,2016年)、情感分析(Socher等人,2013年)和命名实体识别(Tjong Kim-Sang和De Meulder,2003年)。Melamud等人(2016年)提出通过一项任务来学习语境表征,即使用 LSTM 从左右语境中预测单个单词。与ELMo类似,他们的模型是基于特征的,而不是深度双向的。Fedus等人(2018)表明,完形填空任务可以用来提高文本生成模型的 稳健性

22 无监督微调方法:

基于特征feature-based 的方法一样,第一种方法只在未标记文本中预先训练单词嵌入参数的情况下才朝这个方向工作。最近,产生上下文标记表示的句子或文档编码器已经从未标记的文本和文本中预训练出来针对受监督的下游任务进行了 微调fine-tuned

这些方法的 优点是 ,很少有参数需要从头学习。至少部分由于这一优势,OpenAI GPT在GLUE基准测试的许多句子级任务上取得了之前的最新成果。从左到右的语言建模和自动编码器目标已用于此类模型的预训练。

注解 :BERT的整体预训练和微调程序。除了输出层之外,在预训练和微调中使用相同的体系结构。相同的预训练模型参数用于初始化不同下游任务的模型。在微调过程中,所有参数都会微调。

23 基于监督数据的迁移学习:

也有研究表明,在大数据集的监督任务中,如自然语言推理和机器翻译可以有效地进行转换。计算机视觉研究也证明了 从大型预训练模型中进行迁移学习的重要性 ,其中一个有效的方法是对使用ImageNet预训练模型进行微调。

本节将介绍BERT及其详细实现。在我们的框架中有两个步骤:预训练和微调。

BERT的一个显著特点是其跨不同任务的统一体系结构 。预训练的体系结构和最终的下游体系结构之间的差异最小。

BERT 的模型架构是 一种多层的双向 transformer encoder ,BERT 在实现上与 transformer encoder 几乎完全相同。

定义:transformer block 的个数为 L ; hidden 大小为 H; self-attentions head 的个数为 A 作者主要展示了两种规模的 BERT 模型:

在这项工作中,我们将层数(即Transformer blocks)表示为L,隐藏大小表示为H,自我注意头的数量表示为A。我们主要报告两种型号的结果:

为了进行比较,选择BERT-base与OpenAI GPT具有相同的模型大小。然而,关键的是, BERT Transformer使用双向自注意力机制self-attention ,而 GPT Transformer使用受限自注意力机制constrained self-attention ,其中每个标记只能关注其左侧的上下文。

为了使 BERT 能处理大量不同的下游任务,作者将模型的输入设计成可以输入单个句子或句子对,这两种输入被建模成同一个 token 序列。作者使用了有 30000 个 token 的 vocabulary 词嵌入。

31 Pre-training BERT :

我们不使用传统的从左到右或从右到左的语言模型来预训练BERT。相反,我们使用本节所述的两个无监督任务对BERT进行预训练。这一步如图1的左半部分所示。

Task #1: Masked LM

标准的语言模型只能实现从左到右或从右到左的训练,不能实现真正的双向训练,这是因为双向的条件是每个单词能直接“看到自己”,并且模型可以在多层上下文中轻松的预测出目标词。

为了能够实现双向的深度预训练,作者选择 随机 mask 掉一些比例的 token ,然后预测这些被 masked 的 token,在这种设置下,被 masked 的 token 的隐向量表示被输出到词汇表的 softmax 上,这就与标准语言模型设置相同。作者将 这个过程称为“Masked LM”,也被称为“完形填空”

○ Masked LM 预训练任务的缺点

在于由于 [MASK] 标记不会出现在微调阶段,这就造成了预训练和微调阶段的不一致。为了解决该问题,作者提出了 一种折中的方案

○ BERT 的 mask策略:

Task #2: Next Sentence Prediction (NSP)

很多下游任务都是基于对两句话之间的关系的理解,语言模型不能直接捕获这种信息。为了训练模型理解这种句间关系,作者 设计了 next sentence prediction 的二分类任务 。具体来说,就是选择两个句子作为一个训练样本,有 50% 的概率是下一句关系,有 50% 的概率是随机选择的句子对, 预测将 [CLS] 的最终隐状态 C 输入 sigmoid 实现

○ Pre-training data

作者选用了BooksCorpus (800M words) 和 English Wikipedia (2,500M words) 作为预训练的语料库,作者只选取了 Wikipedia 中的文本段落,忽略了表格、标题等。为了获取长的连续文本序列,作者选用了 BIllion Word Benchmark 这样的文档级语料库,而非打乱的句子级语料库。

32 Fine-tuning BERT

因为 transformer 中的 self-attention 机制适用于很多下游任务,所以可以直接对模型进行微调。对于涉及文本对的任务,一般的做法是独立 encode 文本对,然后再应用双向的 cross attention 进行交互。Bert 使用 self-attention 机制统一了这两个阶段,该机制直接能够实现两个串联句子的交叉编码。

对于不同的任务,只需要简单地将特定于该任务的输入输出插入到 Bert 中,然后进行 end2end 的fine-tuning。

与预训练相比,微调相对便宜。从完全相同的预训练模型开始,本文中的所有结果最多可以在单个云TPU上复制1小时,或在GPU上复制几个小时。

在本节中,我们将介绍11个NLP任务的BERT微调结果。

41 GLUE:

GLUE (General Language Understanding Evaluation) 是多个 NLP 任务的集合。作者设置 batch size 为 32;训练 3 个 epochs;在验证集上从(5e-5, 4e-5, 3e-5, 2e-5)中选择最优的学习率。结果如下:

结果见表1。 BERT-base和BERT-large在所有任务上都比所有系统表现出色,与现有技术相比,平均准确率分别提高了45%和70% 。请注意,除了注意掩蔽,BERT-base和OpenAI GPT在模型架构方面几乎相同。

对于最大和最广泛报道的GLUE任务MNLI,BERT获得了46%的绝对准确率提高。在官方的GLUE排行榜10中,BERT-lagle获得805分,而OpenAI GPT在撰写本文之日获得728分。我们发现BERT-large在所有任务中都显著优于BERT-base,尤其是那些训练数据很少的任务。

42 SQuAD v11 :

斯坦福问答数据集(SQuAD v11)收集了10万对众包问答对。给出一个问题和一段维基百科中包含答案的文章,任务是预测文章中的答案文本。

如图1所示,在问答任务中,我们将输入的问题和段落表示为单个压缩序列,问题使用A嵌入,段落使用B嵌入。在微调过程,我们只引入一个起始向量S和一个端向量E。单词i作为答案范围开始的概率计算为Ti和S之间的点积,然后是段落中所有单词的softmax:

答案范围结束时使用类似公式。候选人从位置 i 到位置 j 的得分定义为:S·Ti + E·Tj ,最大得分跨度为 j≥ i 被用作预测。训练目标是正确起始位置和结束位置的对数概率之和。我们微调了3个阶段,学习率为5e-5,批量大小为32。

表2显示了顶级排行榜条目以及顶级发布系统的结果。SQuAD排行榜的前几名没有最新的公共系统描述,并且允许在训练系统时使用任何公共数据。因此,在我们的系统中使用适度的数据扩充,首先在TriviaQA上进行微调,然后再对团队进行微调。

我们表现最好的系统在ensembling方面的表现优于排名第一的系统,在ensembling方面的表现优于排名第一的系统+15 F1,在单一系统方面的表现优于排名第一的系统+13 F1得分。事实上,我们的单BERT模型在F1成绩方面优于顶级合奏系统。如果没有TriviaQA微调数据,我们只会损失01-04 F1,仍然远远超过所有现有系统。

其他实验:略

在本节中,我们对BERT的许多方面进行了消融实验,以便更好地了解它们的相对重要性。其他消融研究见附录C。

51 预训练任务的效果

○ 进行了如下消融测试:

○ 结果如下:

52 模型大小的影响

○ 结果如下:

作者证明了 :如果模型经过充分的预训练,即使模型尺寸扩展到很大,也能极大改进训练数据规模较小的下游任务。

53 将 Bert 应用于 Feature-based 的方法

○ feature-based 的方法是从预训练模型中提取固定的特征,不对具体任务进行微调

○ 这样的方法也有一定的优点

作者进行了如下实验:在 CoNLL-2003 数据集上完成 NER 任务,不使用 CRF 输出,而是从一到多个层中提取出激活值,输入到 2 层 768 维的 BiLSTM 中,再直接分类。结果如下:

结果说明:无论是否进行微调,Bert 模型都是有效的。

个人认为 Bert 的意义在于:

由于语言模型的迁移学习,最近的经验改进表明,丰富的、无监督的预训练是许多语言理解系统的一个组成部分。特别是,这些结果使得即使是低资源任务也能从深层单向体系结构中受益。我们的主要贡献是将这些发现进一步推广到深层双向体系结构中,使相同的预训练模型能够成功地处理广泛的NLP任务。

一、概括文章主旨

  

  例1:文段见理解语句例2

  

  文章最后一段说:“我说不出喜欢煤油灯的理由,但我知道灯火在我心中的意义。”综观全文,灯火在作者心中具有什么样的意义?

  

  解析:本题考查概括中心主题的能力。结合全文分析灯火在文中的含义。综观全文,可根据以下语句解读末段:①第二段“‘生命’的意义就是它会让你想起与它共处的那段时光”,第十二段“那样的光晕却是不灭的永恒之火,一直亮在童年的心中”;②第六段“祖孙两人……守着长长的一段祖孙相牵系的深情记忆……所有的怀念都从这样温馨的画面进入、泛起……”;③第五段“夜深的时候……读一点诗词”,第十四段“伴读的祖母……我怅怅然在良好的灯光下写作”,当年的夜读促成了今天的写作。

  

  答案:①灯火让作者不时想起与它共处的那段时光,它是作者人生中的“永恒之火”;②灯火下的祖孙相牵,使作者贫穷的童年生活变得温馨而富有诗意;③作者的成长离不开灯火下的夜读,这是作者人生的重要一步。

  

  技法总结:

  

  散文中情感主旨的归纳常见的是寻找中心句,从主要形象中概括升华,这在前面已经涉及。这里从标题、段落层次及语言修辞的角度进行分析。

  

  1.挖掘标题含意

  

  对文章情感的品味,是离不开具体的语言载体的。标题是文章的眼睛,有的文章标题中隐含着主旨。分析主旨要注意抓住标题中的关键字眼,分析其在文中是怎样表述的,写什么,有哪些特点,象征了社会、人生的哪些方面。

  

  2.归纳段意,分散整合

  

  有时作者的观点态度分散在各处,需要理清文章结构,归纳出各部分意思,然后提炼整合。

  

  温馨提示:领会文章主旨常用的几种具体方法口诀:

  

  标题提示整合段意,关注首尾归纳不忽视,关键词句深挖不停止。

  

  3.进行修辞还原

  

  对文章情感主旨的分析多数能从文中找到中心句,但有时作者的情感倾向或态度隐藏在看似不经意的语言中,特别是对使用了修辞手法的文章、句段,分析评价时要先还原本意,进而揭示作者的真实用意。

  

  二、评价思想和态度

  

  例2:文段见作品结构例1

  

  韩三十八老汉“喜欢看河”又“总是默默无语”,这是为什么?作者这样写的目的又是什么?谈谈你的看法。

  

  解析:本题考查评价文章的思想内容和作者的观点态度。结合韩三十八老汉的人生经历来鉴赏,韩三十八老汉戎马半生,飘荡一生,而大河家就是他的家,黄河就是他的根。关于韩三十八老汉的描述是在文末十至十三段,第十段写他喜欢看河,第十二段写他看河时默默无语,第十三段点出其中的缘由。由文章主旨可知,作者之所以这样写,是为揭示黄河人与黄河的关系,黄河是民族之魂,黄河人与母亲河的命运息息相关。

  

  答案:(1)①黄河是韩三十八老汉的母亲河,是他生命的安全港湾;②壮观的黄河让韩三十八老汉百看不厌,让他想起了自己坎坷的人生;③韩三十八老汉历经险境,已经胸有成竹,波澜不惊。

  

  (2)①揭示黄河与大河家人之间命运与共的关系;②传达作者对自己与黄河、黄土地以及底层人民关系的感悟。

  

  技法总结:

  

  评价文章的思想内容和观点态度要注意以下几点:

  

  1.整体感知,明确文章主旨和作者的写作意图是评价的基础。文章的主旨是指文章的主要意义或目的,整体把握中要抓住文章的主旨,这是评价的根本。要认真阅读和深入分析文章,理清内部的相互关系,取得对作品的全面认识和深刻理解,才能真正避免在评价中出现以偏赅全、主观片面等问题。

  

  2.筛选文中的关键信息。无论写人记事还是发表看法,关键性的语言最能显示文章的思想内涵或作者的观点,可以帮助我们对文章的内容进行评价。

  

  3.评价要具体、客观,不可含糊笼统。分析和评价都必须紧密结合文学作品实际,避免离开作品去进行漫无边际的分析。分析和评价要以正确的思想为理论基础,以辩证法为基本的分析法,并结合文学作品创作特有的艺术规律,对作品进行分析和评价,而不应依据个人的好恶去随意评说。在具体评价时,社会时代背景、作家生平思想、作品创作实际,都是必须考虑的重要因素。另外,对古典文学作品和外国文学作品的分析和评价还要从社会历史的实际出发,而不能用今天的观点去强求古人和外国作家。

  

  [技巧归纳]

  

  做此类题的答题步骤:

  

  第一步,整体感知文本。回答评价题要整体理解文章的内容,分析文章的思路,把握文章的脉络,进而领会文章的主旨。

  

  第二步,理解命题意图。把握试题的命题意图,挖掘隐含在题干中的信息,确定答题的方向。

  

  第三步,确定信息区间。在阅读全文的基础上,按照命题要求检索,找出问题的命题区间、信息区间和答题区间。

  

  第四步,概括整合答案。对答案进行组织,要注意分析筛选出来的内容,梳理自己思考的内容,按照要求概括出题干要求的内容

  

  三、对文本内容进行探究

  

  探究题的提问形式主要是:(1)联系自身,对文中的观点、态度等进行评析探究。(2)联系生活或时代,对文中涉及主旨的语句进行探究。(3)结合全文,探究文章所表现出的深意(深刻意蕴)。一般所谓的“深意”,一来自作者层面,即作者通过文本所要向读者表达的思想或观点。二是来自读者层面,即读者通过阅读从文本中获得的启发。我们解答这类题目时,要做到两个尊重:一是尊重作者,一是尊重文本。所有的探究都不可弃这两者于不顾,另立炉灶。

  

  例3:阅读下面的文字,完成后面的题目。

  

  走进腾格里(节选)

  

  学群

  

  ①这是我第三次走进沙漠。每一次,沙漠总是让我变得跟一个小孩子似的。

  

  ②先是骑在骆驼上往沙漠里走。就这样,沿着沙地的起伏一路走下去,把身后的那个世界远远地甩在沙漠以外,甩掉人身上一切多余的东西。

  

  ③晚餐就在沙地上进行。两只馒头,一瓶水,再加上一点取自沙漠的野菜,就这几样东西。面包、水和盐,人的生活,最基本的无非就这几样东西。几千年几万年,真正支撑起人类历史的,也就是这几样。

  

  ④晚饭之后,夜色渐渐从沙地的低凹处爬上来,漫过沙丘,将天空也浸入其中。这不是一般涂抹在物体上的黑色,这是幽邃深远的晦暗,是亿万光年的未知领域。满天星光在闪烁。多少年不曾见过如此繁浩的星光,仿佛天空把这么多年的星光一齐拿到这里来闪耀。

  

  ⑤暗黑中,身子下面的沙丘仿佛在不断隆起,直到接近天空的高度。我仿佛是在地球的最高处,静静地、静静地面对浩瀚的星空。幽邃的夜空下,整张大地剩下来的就只有宁静,原来这宁静中有着永恒的东西。

  

  ⑥月亮升起来。这曾在千里之外照亮过童年的月亮,在李白的吟咏里传递千年的月亮,有着嫦娥和桂花树的月亮。我们大老远地赶来,来到沙漠中间,就是为了这轮月亮!

  

  ⑦就像沙漠一样简单地面对,面对月亮,面对天空,很多年不曾这样静静地面对。天空是灵魂一样的蓝色,一轮明月就悬在灵魂中央。与身后无垠的宇宙相比,它是多么渺小。可是从那里传过来的光辉,却把大地照亮——对于我们来说,是这么辽阔的大地。月光就像浓情的乳汁,在地面上流淌。这喂养灵魂的乳汁!

  

  ⑧月光牵动人最深处最悠远的东西。早在生命出现之前,月光就已经牵动海潮;早在我们出现之前,月光就已经牵动母性的血液。现在,它是如此深刻地牵动我。我感到,我所要表达的,全都在那月亮上。你没法把你心里的东西说出来,月亮静静地把你要说的全都铺在你面前。你一动,就有一道逶迤的线条跟着你。你每走一步,都把沙漠、把大地的起伏、把遍地月光牵动。

  

  ⑨在我驻足的沙丘上,月光显得特别明亮。明晃晃的沙地上,一只甲虫爬过的痕迹显得格外醒目,六条腿,每一条都拖着一道带痕。在我的眼里这就是一部沙之书,一部自然的圣经。在这里,一只虫子的吟咏,一缕风,一株草,还有这充塞天地间的宁静,都带着哲人的意味。

  

  ⑩月亮是地球的一个梦,是人冻结在天空的一个梦。

  

  沿着沙地的起伏往回走,人类的世界在地平线以下闪烁。城市就像大地上吵闹的星群。我知道,我还得回到那个世界里去,用自来水冲洗身上的汗渍和沙粒,然后把袜子和鞋穿上,用汉堡包、用啤酒填塞肠胃,用灯光和电视照耀空余的生命。我没有办法像那些甲虫一直生活在这里,不能像一根骆驼刺把根扎在这里,甚至不能像一匹骆驼。我只能回到刚刚诅咒过的物资中去。不能留下,就把这里的天空,这里的沙漠,这里的夜装进胸间,带回去,让它照亮我的精神,让灵魂有一个呼吸的地方。

  

  (摘自《生命的海拔》,有删改)

  

  文章第段表达了作者怎样的思想感情?请谈谈你的看法。

  

  参考答案①对城市“物资”生活的不满和批判(“用自来水冲洗身上的汗渍和沙粒”,“用汉堡包、用啤酒填塞肠胃”,“用灯光和电视照耀空余的生命”,“诅咒过的物资”);②对沙漠的不舍和不得不离开的无奈(“像一根骆驼刺把根扎在这里”,“像一匹骆驼”,“把这里的天空,这里的沙漠,这里的夜装进胸间,带回去”,“我还得回到那个世界里去”,“我没有办法……一匹骆驼”,“我只能回到刚刚诅咒过的物资中去”);③对未来生活的希望(“让它照亮我的精神”,“让灵魂有一个呼吸的地方”)。

  

  技法总结:

  

  解答探究类的题目,一般可以从以下三个方面考虑:

  

  (1)知体识文,特征之中识文风。散文大体上可分为:叙事类、人物类、哲理类几种。一般来讲,叙事的文章(小说也是如此),都是由“事”及“理”。即通过对事件的描写,来反映某种时代精神,表达某种希望、道理并给人以某种启迪。人物类散文的主要特征是通过所写的人、景或物来抒发作者的某种情感或志趣。阅读这类散文,抓住人、物的特征,也就抓住了作者赋于人、物之上的主观情感——文章的主旨。

  

  哲理类散文一般通过某种文化现象的兴衰或是一个具有人生哲理意味的事物、情理、人物故事等,表达作者对社会生活或是人生的某种感悟。所以阅读这类文章时,抓变化,找对比,分析能表现作者观点和情感的句子很重要。

  

  (2)高屋建瓴,观照结构炼内容。我们可以从对文章结构的观照来分析作者的行文思路,进而提炼作者的写作内容,抓住作者的写作重点和中心。这种结构除了文章内部的结构,还有外部的结构,比如文章的标题和文后的背景介绍。

  

  (3)条分缕析,关键句中悟深意。透过文中的关键句,来把握作者的感情倾向,这是一个简捷可行、很具操作性的方法,可以达到真正把握文章的主旨的目的。所谓关键句就是:①中心句,文眼句;②表明作者观点立场的句子;③一些抒情、议论的句子。我们可以在一边阅读时一边把这些语句画出来,然后根据答题的需要加以筛选和选择。

  

  如例3,就是对作者思想感情进行探究。答题时要立足表现作者行为的句子,如“用自来水冲洗身上的汗渍和沙粒”,“用汉堡包、用啤酒填塞肠胃”,“用灯光和电视照耀空余的生命”等,透过文学性的语言,发掘作者隐含在字里行间的深层含意,进行合理的想象与联想,结合文本,说出自己的观点。

  

  [技巧归纳]

  

  散文阅读四步骤

  

  解答散文阅读题要分以下四个步骤进行:

  

  1.整体阅读,把握中心意思

  

  拿到一篇文章,不要急着去做题,一定要学会整体阅读。通过阅读,初步把握作品的大致内容,形成对作品的整体印象。

  

  (1)了解大概,把握主旨。阅读时先要看文章标题,弄清楚文章的体裁及描写对象,根据文体特点思考把握主旨的方向。如果是散文,其主旨大多是抒情、明志、言理,可以从“情、志、理”入手把握,了解作者写了什么见闻、经历,抒发了作者怎样的思想感情,寄托了作者怎样的理想、感悟;如果是小说,则要抓住中心人物和中心事件,看它选取了什么生活片断,刻画了什么人物形象,反映了什么社会现实。

  

  (2)抓住线索,逐段筛选信息,概括内容大意。这里所说的“概括”当然不是用准确的语言表述出来,而是要抓住关键语句,边读边思考,对每段内容有个大致印象,想清楚文章哪几段是叙述、描写,哪几段是议论、抒情;哪几部分是实写,哪几部分是虚写。在此基础上理清文章的层次结构和写作思路。

  

  (3)关注注释。有的文章末尾还有注释,这些大都用来交待文章的出处、创作时间及时代背景,这也是理解文章的重要组成部分。阅读时要充分重视,不可视而不见。

  

  如果关注了这些要点,就不难把握文章的主旨。紧扣主旨思考问题,就能迅速找到设题点和答题点,为答题做好第一步工作。

  

  2.审析题干,确定答题区域

  

  审题是文学作品阅读理解中至关重要的一个环节。许多考生不注意审题,在一知半解的基础上盲目答题,结果洋洋洒洒一大篇,却答非所问,不能得分。这应是我们的前车之鉴。

  

  审题时以下几个环节不可忽视:

  

  (1)把握命题意图。要看清楚题目中有几个问题,快速判断每一个小题主要考查的是哪一个知识点,明确“要考什么”,这样就能大大提高解题的准确率。

  

  (2)明确答题范围。文学作品阅读题的设置都具有一定的依赖性,即依据原文出题,哪怕是一些能力极强,要求发挥想象的试题,也不可能脱离原文而单独出题。对题干明确指定了答题的阅读范围的试题,要迅速确定有效阅读区位;对“联系全文”“从全文来看”一类的题目,也要快速找到重要语段。要关注作品前后的勾连,既要避免答题范围过大,宽泛而不严谨,又要防止思虑不周,以偏概全。

  

  3.分析题型,找准答题方向

  

  确定有效阅读区位后,还要分析题型,并扣住题目要求进一步细读文章,搜索相关材料,找出最切题的语句。

  

  (1)理解含义类。多用原文或整合原文语句作答,思考重点为词句的字典义和语境义。

  

  (2)具体表现类。多为归纳内容、概括中心意思和概括观点态度方面的试题。观点句的理解要看它的上下文语境,材料所说明的观点要看它前面的议论句,散文的主旨句往往在抒情议论性语句中。

  

  (3)原因目的类。涉及理解、分析综合和鉴赏评价三个能力层级的所有知识点,答案一般分散于全文,要仔细思考题目与文章中心的关系,透视段与段之间的逻辑关系,进而找出相关语句。

  

  (4)表达作用类。此类试题是高考最常用的形式,其要求一般为“作者这样写的好处是什么?”“作用是什么?”“结合上下文,分析……表达效果”等。其解题思路一般包括三个方面:一是在文章结构方面的作用,如承上启下、构成线索等;二是在表达文章主旨方面的作用,如突出主旨,揭示文章主旨等;三是在刻画人物形象方面的作用,如使人物形象更加鲜明生动,突出人物某一方面的性格特征等。

  

  一般来说,无论是词句运用、题材选取还是表现手法的作用,都要从五个方面进行思考:词句的表层含意是什么?(材料的内容是什么?)运用了什么手法?其深层含意是什么?对表达思想、文章主旨有何作用?有何表达效果?

  

  当然并不是说每一道题的答案都要包括这五个点,要具体题目具体分析,但在思考阶段,这五个方面都应作为重要的思考点。

  

  (5)品味赏析类。“赏析”是个很宽泛的词,可从语言技巧,如用词精当和表现手法两方面答题。而且答案要包括表达效果,如对表达思想感情、表现主旨方面的作用。

  

  4.组织语言,规范简明表述

  

  经过以上三个阶段的思考,答案的轮廓便找到了,接下来就是组织答案。以下几点值得注意:

  

  (1)紧扣题意,选用合理句式。紧扣题意,就是问什么答什么,怎么问怎么答,使“答”与“问”有直接的关联性。选用恰当的句式,就是明确不同题型的答题程式,如比喻、拟人,其答题模式一般是:生动形象地写出了+对象+特征;设问,其答题模式一般是:引起读者对+对象+特性的注意和思考,等等。

  

  (2)紧扣原文,优化整合。文学作品阅读题的答案一般都在原文中,即使需要概括的题目,答案涉及的一些关键词语、句子也在原文中,这就要求组织答案时必须紧扣文本,整合信息。整合信息一般不宜一字不差地摘录原文,而是要根据题目要求变换表达角度,把文章中那些实质一致而表达方式不同的内容加以整理,形成答案。

  

  (3)综合分析,分条表述。评分时一般都是“按点给分”,因此答题时可以从多个角度,条分缕析地组织答案,而且对赋分较高的概括性题目,最好用数字标明每一点,以使要点清晰明白,一目了然。

  

  (4)简洁用语,注意字限。有些题目有字数限制,对这要严格遵守,不可超字。即使没有规定答案的字数,也应表达简洁、准确,当然不能遗漏要点,言而不明,说而不透。

好。

1、深度学习情感文本分析毕业设计针对文本进行句子和段落级的情感倾向性分析,利用算法来判断句子的情感色彩。

2、深度学习情感文本分析毕业设计提高情感分析算法的准确性,不断学习,不断提高和优化算法。

监督学习

目前,基于监督学习的情感分析仍然是主流,除了(Li et al,2009)基于非负矩阵三分解(Non-negative Matrix Tri-factorization),(Abbasi et al,2008)基于遗传算法(Genetic Algorithm)的情感分析之外,使用的最多的监督学习算法是朴素贝叶斯,k最近邻(k-Nearest Neighbor,k-NN),最大熵和支持向量机的。而对于算法的改进主要在对文本的预处理阶段。

基于规则/无监督学习

和基于监督学习的情感分析相比,基于规则和无监督学习方面的研究不是很多。除了(Turney,2002)之外,(朱嫣岚 et al,2002)利用HowNet对中文词语语义的进行了情感倾向计算。(娄德成 et al,2006)利用句法结构和依存关系对中文句子语义进行了情感分析,(Hiroshi et al,2004)通过改造一个基于规则的机器翻译器实现日文短语级情感分析,(Zagibalov et al,2008)在(Turney,2002)的SO-PMI算法的基础上通过对于中文文本特征的深入分析以及引入迭代机制从而在很大程度上提高了无监督学习情感分析的准确率。

跨领域情感分析

跨领域情感分析在情感分析中是一个新兴的领域,目前在这方面的研究不是很多,主要原因是目前的研究还没有很好的解决如何寻找两个领域之间的一种映射关系,或者说如何寻找两个领域之间特征权值之间的平衡关系。对于跨领域情感分析的研究开始于(Blitzer et al,2007)将结构对应学习(Structural Correspondence Learning,SCL)引入跨领域情感分析,SCL是一种应用范围很广的跨领域文本分析算法,SCL的目的是将训练集上的特征尽量对应到测试集中。(Tan et al,2009)将SCL引入了中文跨领域情感分析中。(Tan2 et al,2009)提出将朴素贝叶斯和EM算法的一种半监督学习方法应用到了跨领域的情感分析中。(Wu et al,2009)将基于EM的思想将图排序(Graph Ranking)算法应用到跨领域的情感分析中,图排序算法可以认为是一种迭代的k-NN

欢迎分享,转载请注明来源:浪漫分享网

原文地址:https://hunlipic.com/qinggan/7517323.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-09-06
下一篇2023-09-06

发表评论

登录后才能评论

评论列表(0条)

    保存