分手后一跟他谈到感情问题他就躲避不回是什么意思

分手后一跟他谈到感情问题他就躲避不回是什么意思,第1张

  经常在网上看到有网友会问,分手了要怎么样去挽回、女孩子不理我要怎么去表达……其实,感觉问题很多时候是要看感觉的,而感觉这个东西往往是说不清道不明的,只有彼此才能够体会的。

  在这里根据我自己这么多年的感情经验给大家提供一点帮助:首页要搞明白你们之前的感情是否还有可能恢复;你们感情是因为什么问题而闹到今天要分手的一步的;你们的感情跟双方的家庭是否有关系;彼此的性格;

  1、分手原因分类:

  闹到要分手这一步了,经历过这么多事情,你感觉你们的感情是否还可以恢复,如果真的你们合好了,你们还能回到以前的状态。这个是你要想清楚的,不要今天和好了,过2天又要闹分手,这样来来回回的话,真的没有必要;

  2、闹分手,肯定是因为有具体的事情,搞清楚是因为什么事情。是家常的小打小闹,还是彼此间谁出现了原则性问(外遇、小三等),把事情搞清楚,这样才能知道,有没有挽回的余地;

  3、闹分手是不是彼此的家庭方面问题,是男方或者女方父母不同意,如果是这方面的问题,彼此必须先要站在一条起跑线上,彼此一起努力。讨好老人开心,相信只要你们的感情是真实的,是坚信不移的,你们的感情一定会被双方家长接受的。

  4、回头看看你们在一起的这段时间,看看彼此的性格是否合拍。感情是两个人的事情,必须两个人一条心想在一起,这样才行。一个人的感情是徒劳的。不是俗话说的好“强扭的瓜不甜”,也就是这个道理。

  5、最后一方面就是现实原因了,现在的社会谈到结婚就是买房买车,看看是不是因为这个问题闹分手的,如果是这样的话,彼此好还谈谈的,男孩子要给女孩子信息,人家跟你会看到希望,女孩子如果真的喜欢男孩子也要适可而止,互相退让,互相理解,毕竟感情才是最重要的。

例题如下。如何描述两连续变量之间的关系。

线性相关系数的计算

相关系数的统计推断(t检验法)

spss实现步骤,输入数据集

线性相关分析:点击 Analyze    -> Correlate    -> Bivariate

在弹出的对话框中选入待分析变量,点击“OK”

得出结果,进行分析。P<005。按α=005的检验水准,拒绝H0,接受H1,可以认为血清胆固醇与三酰甘油之间存在线性关系。

本次实验将加载两个数据,一个是已经标注好的用户评论数据,另外一个是用户评价主题句,通过标注过的用户评论数据进行基于集成模型情感极性模型训练,然后利用模型对主题句进行情感极性推理,最后通过数据聚合可视化得出主题情感极性。

使用 Pandas 加载在线数据表格,并查看数据维度和前 5 行数据。

数据属性如下表所示

加载我们之前通过主题词典提取出来的主题句。

数据属性如下表所示

用户评论分词

jieba 分词器预热,第一次使用需要加载字典和缓存,通过结果看出返回的是分词的列表。

批量对用户评价进行分词,需要一些时间,并打印第一行情感极性训练集的分词结果。

批量对用户评价主题句进行分词,并打印第一句用户主题句分词结果。

依据统计学模型假设,假设用户评论中的词语之间相互独立,用户评价中的每一个词语都是一个特征,我们直接使用 TF-IDF 对用户评价提取特征,并对提取特征后的用户评价输入分类模型进行分类,将类别输出为积极的概率作为用户极性映射即可。

用户评论向量化

TF-IDF 是一种用于信息检索与数据挖掘的常用加权技术,当某个词在文章中的TF-IDF越大,那么一般而言这个词在这篇文章的重要性会越高,比较适合对用户评论中的关键词进行量化。

数据集合划分

按照训练集 8 成和测试集 2 成的比例对数据集进行划分,并检查划分之后的数据集数量。

我们在系列实验的开始使用朴素贝叶斯模型来训练情感分析模型,下面我们新增逻辑回归模型作为对比模型。逻辑回归(Logistic Regression)是一种用于解决二分类问题的机器学习方法,在线性回归的基础上,套用了一个 sigmod 函数,这个函数将线性结果映射到一个概率区间,并且通常以 05 分界线,这就使得数据的分类结果都趋向于在 0 和 1 两端,将用户评论进行向量化之后也可以用此方式预测用户情感。本实验直接对标注过的用户情感数据进行训练,并验证单一模型和集成模型在情感分析性能上的差异。

模型加载

通过传入原始的标签和预测的标签可以直接将分类器性能进行度量,利用常用的分类模型评价指标对训练好的模型进行模型评价,accuracy_score 评价被正确预测的样本占总样本的比例,Precision 是衡量模型精确率的指标,它是指模型识别出的文档数与识别的文档总数的比率,衡量的是模型的查准率。Recall 召回率也称为敏感度,它是指模型识别出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率,表示正样本在被正确划分样本中所占的比例,f1_score 值是精确率与召回率的调和平均数,是一个综合性的指数。

我们分别对不同模型使用相同的数据集进行训练和测试,以此来比较单模型之间的差异,并打印模型运行时间供大家参考,批量处理不同的模型需要一些时间进行计算,清耐心等待。

通过求得的指标进行模型评价,我们发现使用相同的数据进行模型训练,朴素贝叶斯模型和逻辑回归模型性能基本持平,相差很微弱,逻辑回归稍稍占一些优势。

Stacking 堆栈模型训练

集成学习是地结合来自两个或多个基本机器学习算法的优势,学习如何最好地结合来自多个性能良好的机器学习模型的预测结果,并作出比集成中的任何一个模型更好的预测。主要分为 Bagging, Boosting 和 Stacking,Stacking 堆栈模型是集成机器学习模型的一种,具体是将训练好的所有基模型对整个训练集进行预测,然后将每个模型输出的预测结果合并为新的特征,并加以训练。主要能降低模型的过拟合风险,提高模型的准确度。

开始对两个模型进行集成训练,训练的时间要比单一模型时间久一些,清耐心等待。

评测结果收集。

结果分析

将结果存入 Dataframe 进行结果分析,lr 表示逻辑回归,nb 表示朴素贝叶斯,model_stacking 将两个单模型集成后的模型。从结果来看集成模型准确度和 f1 值都是最高的,结合两个模型的优势,整体预测性能更好,鲁棒性更好。

样例测试

通过测试样例发现,分类器对正常的积极和消极判断比较好。但是当我们改变语义信息,情感模型则不能进行识别,模型鲁棒性较差。作为早期的文本分类模型,我们使用 TFIDF 的特征提取方式并不能很好的解决语义问题,自然语言是带有语序和语义的关联,其词语之间的关联关系影响整句话的情感极性,后续我们继续试验深度情感分析模型研究解决此类问题。

加载民宿主题数据。

模型预测

将情感分析模型推理的结果写入 DataFrame 中进行聚合。

单主题聚合分析

挑选一个主题进行主题情感分析。

对民宿“设施”进行描述统计,此次我们使用主题词典的出来的用户关于民宿“设施”主体的讨论条数为 4628 条,平均用户情感极性为 040 表示为整体呈现不满意的情况,有超过一半的关于“设施”的民宿评论中表现用户不满意的情况,重庆民宿需要在“设施”进行改善,以此提高用户满意度。

单主题情感极性可视化

我们开始进行“设置”主题下的用户主题情感进行可视化,首先加载画图模块。

对“设施”主题下的用户情感极性进行可视化,我们利用集成模型对主题句进行情感极性预测,如下所示。

欢迎分享,转载请注明来源:浪漫分享网

原文地址:https://hunlipic.com/qinggan/3838813.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-08-18
下一篇2023-08-18

发表评论

登录后才能评论

评论列表(0条)

    保存