帕金森病亦称为“震颤麻痹”,属于神经系统变性疾病,在老年人中比较普遍,50岁之前的患病人群较少,60岁左右是本病比较普遍的发病年龄。
帕金森病最主要的病理改变是中脑黑质多巴胺能神经元的变性死亡,由此而引起纹状体DA含量显著性减少而致病。
引起帕金森病的确切病因比较复杂,比如遗传因素、环境因素、年龄老化、氧化应激等都有可能会参与多巴胺能神经元的变性死亡过程,所以说是多个基因和环境因素彼此作用而犯病。
包括两类典型症状,即运动症状和非运动正症状。
、遗传因素研究发现,帕金森在一些家族忠诚聚聚现象,约10%,帕金森患者有家族史,成不完全外显的常染色体显性遗传。
二、环境因素,这是帕金森患病的一重要因素,在一项研究结果中,强调的就是环境因素生活方式及其与遗传易感性之间可能存在的交互作用。
三、脑力劳动在相关的研究中发现一些脑力劳动的人患有帕金森的几率要远高于非脑力劳动的人,脑力劳动也是引起帕金森的原因。
四、年龄老化,主要发生于中老年四十岁前发病减少随着年龄增长,帕金森患病率逐渐增高
最新情感电视剧有哪些,免费高清资源在线观看
剧名:老家伙 百度网盘下载观看254k
剧名:请不要在病房里念佛 百度网盘下载观看3jpc
剧名:天国与地狱 百度网盘下载观看98jc
剧名:白色月光 百度网盘下载观看4v5c
剧名:我在香港遇见他 百度网盘下载观看al2w
剧名:那些我爱过的人 百度网盘下载观看4iq2
剧名:你是我的城池营垒 百度网盘下载观看k4qz
剧名:异乡人 百度网盘下载观看a3h8
neg=pdread_excel('negxls',header=None,index=None)
pos=pdread_excel('posxls',header=None,index=None) #读取训练语料完毕
pos['mark']=1
neg['mark']=0 #给训练语料贴上标签
pn=pdconcat([pos,neg],ignore_index=True) #合并语料
neglen=len(neg)
poslen=len(pos) #计算语料数目
cw = lambda x: list(jiebacut(x)) #定义分词函数
pn['words'] = pn[0]apply(cw)
comment = pdread_excel('sumxls') #读入评论内容
#comment = pdread_csv('acsv', encoding='utf-8')
comment = comment[comment['rateContent']notnull()] #仅读取非空评论
comment['words'] = comment['rateContent']apply(cw) #评论分词
d2v_train = pdconcat([pn['words'], comment['words']], ignore_index = True)
w = [] #将所有词语整合在一起
for i in d2v_train:
wextend(i)
dict = pdDataFrame(pdSeries(w)value_counts()) #统计词的出现次数
del w,d2v_train
dict['id']=list(range(1,len(dict)+1))
get_sent = lambda x: list(dict['id'][x])
pn['sent'] = pn['words']apply(get_sent)
maxlen = 50
print "Pad sequences (samples x time)"
pn['sent'] = list(sequencepad_sequences(pn['sent'], maxlen=maxlen))
x = nparray(list(pn['sent']))[::2] #训练集
y = nparray(list(pn['mark']))[::2]
xt = nparray(list(pn['sent']))[1::2] #测试集
yt = nparray(list(pn['mark']))[1::2]
xa = nparray(list(pn['sent'])) #全集
ya = nparray(list(pn['mark']))
print 'Build model'
model = Sequential()
modeladd(Embedding(len(dict)+1, 256))
modeladd(LSTM(256, 128)) # try using a GRU instead, for fun
modeladd(Dropout(05))
modeladd(Dense(128, 1))
modeladd(Activation('sigmoid'))
modelcompile(loss='binary_crossentropy', optimizer='adam', class_mode="binary")
print 'Fit model'
modelfit(xa, ya, batch_size=32, nb_epoch=4) #训练时间为若干个小时
classes = modelpredict_classes(xa)
acc = np_utilsaccuracy(classes, ya)
print 'Test accuracy:', acc
可以试一试
w = [] #将所有词语整合在一起
for i in d2v_train:
wextend(i)
newList = list(set(w))
print "newlist len is"
print len(newList)
dict = pdDataFrame(pdSeries(w)value_counts()) #统计词的出现次数
print type(dict)
print len(dict)
欢迎分享,转载请注明来源:浪漫分享网
评论列表(0条)