地信1001年终工作总结
地信1001班年终工作总结
时光飞逝,转眼间大一一年的学习生活已经告一段落,我们从刚开始的懵懂到现在变得逐渐成熟。在这一年中,我们在辅导员曹老师的指导下,积极开展班级工作建设,并根据本班同学的优点与爱好,开展一些班级活动,并且要求大家在玩的同时努力学习。其间,有一定的成果,但是同时也存在许多不足,现总结如下:
一.积极开展学习活动,提高同学们学习兴趣。
1.本学期中,班委时常提醒同学们勿荒费学业,号召同学们发扬刻苦学习的精神,营造良好的学习氛围,期间,组织过几次班级的自测,这方面主要有学习委员孙勇福来负责,他尽了自己最大的努力,效果还不错。
2.班长于开班会时表彰一些学习比较优异的同学,树立了学习标兵和榜样,这对提高大家的学习动力会有一定的帮助。
3.代班经常为同学们解决各种学习上的困难,并组织一些学习的时间为同学们指导专业课知识,如在每周抽时间为大家讲解C++知识,大家感觉效果良好,都赞成把这种好的方法继续下去。二.积极开展班级建设,特别是班级思想作风建设和班委建设。1.对平时喜欢逃课的同学,班委成员及时的提醒,并经常郁思想波动较大的同学谈心交流,这方面工作主要由心理委员张艳来负责,她完成的比较好。
2.第二学期初就建立了班级QQ群和飞信群,便于及时传达信息,对于接收不到的同学,同时其他方式通知,保证每个同学及时收到学院的通知。
3.地信一班的班委成员与兄弟班级负责人经常沟通,学习经验,取彼之长,补己之短,促进了团支部班委会更好的发展,这方面,团知识宋勤和组织委员李晨昕工作做得不错。三.各种活动加强同学之间的友谊和班级凝聚力。
1.积极参加学校体育节活动。在今年的体育节上,我们班运动员参加人数是最多的,虽然最后由于少写了通讯稿的原因,没有获得精神文明班级,但扪心自问,我们的精神世界是饱满而充实的,体育节给了大家展示团结,树立班风的机会。特别是作为运动员的同学,在比赛中互相勉励,共同进步,是我深为感动。大家平日里能聚在一起的机会并不多,这样一起参加活动的机会更是少之又少,但我看到了团结,看到了大家的凝聚精神。
2.三人制篮球赛。第二次参加三人制篮球赛,以唐荣博为首的运动员们做了充分的准备。在去年的三人制篮球赛中,我们与测绘四班强强联手,最终拿到了第一的桂冠,而这次,大家更是踌躇满志,力争第一。但是比赛遇到了高年级的强队,出师不利,在接下来的几场比赛中,几次重大的失误将我们班推向了决赛资格的边缘。最后一场,大家30分钟竭力打拼,最终以微弱的劣势惜败。遗憾之余,我又深感欣慰,有这么一群敢想敢干,青春洋溢的青年,我们一定能做出成绩。3.建党70周年大合唱。今年的大合唱参加人数甚少,甚至没法凑成一个合唱队,一方面大家慢慢对活动失去了新鲜感,另一方面,感觉学院的宣传力度不到位。最后,曹老师做了思想工作,我们还是参加了大合唱,毕竟,作为测绘学院的一分子,我们该为学院尽一份力。4.同学们积极参加了各种社团活动,包括三农学社,数学建模协会等,既丰富了课余生活,有提高了综合素质。
5.期中的时候,我们组织了自己的农家乐之行,大家在一起包饺子,谈天说地,增进了感情,丰富了课余的生活。
四.实习锻炼了大家。为期16天的实习可以说是上学期留下最深刻印象的活动。作为刚学习专业课不久的“新兵蛋子”,去参加大型的野外实习就注定了这会是一场艰苦的“旅行”。
我们由全老师带领,在蓝田县汤峪镇进行了野外实际测图。由于专业课学习得不扎实,开始的时候,大家都是摸着石头过河,一边尝试,一边积累经验。顶着红热的太阳,站在没有一棵可以遮蔽的树的玉米地里,我们真正切身体会了测绘工作者的艰辛。
因为一个小小的失误,我们一条导线返测了4次,后来我们学到了严谨。
因为小小的偷懒导致闭合差超限,我们又重测过一次,后来我们学会了负责。
因为各人技术差异的问题,我们的进度很慢,后来发现问题,改进,我们学会了合作。
因为和老师沟通的不够,结果领到了错误的任务,我们白干了两天,后来,我们学会了沟通。
因为各人的脾气不同,我们有了一些小摩擦,后来沟通,解决问题,我们学会了宽容。
......
实习留给我们太多的回忆,教会了我们很多,它将会给我们以后从事其他职业奠定一个基础。
我的一点想法:
这一年多来,作为班长,我学到了很多东西,尤其是在与人打交道这方面获益匪浅。班级的同学来自五湖四海,各自的家庭也不十分相同,所以交流上有时会存在“理解上的偏差”。这就要求我面对不同的对象,要采取最合适的方式来沟通,了解他们。也只有了解了底下所有同学们的想法,才能恰当的开展班级工作组织和管理班级。从这个角度来看,我认为自己额表现是合格的,虽然我有时会有像老师说的处理问题比较不强硬,但我基本上做到了和每位同学保持好关系,并作出友善的姿态倾听他们的意见,完成了老师和学院的任务。
我的另一大收获就是学到了不少关于组织活动的经验。一年中各种文艺活动都需要动员同学们去参加,除此之外的一些演出活动也给了一些锻炼。经过一年多的工作,我现在与以前最大的不同就是:我乐于去做一个组织者,积极参与到管理和组织活动中。
这一年多的时间里,班级的气氛是融洽的,没有发生什么打架之类的事件,并且大家平时在班会上的踊跃发言可以佐证。但是另一方面,我认为在某些方面我的管理工作不够严格,尤其日常生活中没有使得大家的平时表现得到量化的评价,我没有做好各个班委的协调工作,这是还需改进的地方。
从我的本职工作来讲,这一年中,我们既看到了新的希望,也看到了不好的苗头,首先我从日常生活中看到,越来越多的同学对学习的精力投入要更大一些。他们不仅仅认真学习课堂知识,还充分利用图书馆、方便的互联网等资源来补充完善自己的知识体系。我想在这学期期末的评比中,我们地信1001班还是一支有竞争力的队伍!但在看到好的一面的同时也不能忽视暴露出的问题。我认为现在有一批同学的学习态度错位严重:平时不上课,期末天天通宵,60分万岁。在这样一个竞争激烈的年代,60分的成绩能干什么?对于这种现象我的认识:这些同学还比较幼稚,没有开化。但是说服教育的工作不能由我们班委会来做,我认为应该有辅导员您来进行一些劝说工作,讲讲道理。帮助他们认清现实。
另一个不容乐观的问题就是:大家对学校安排的活动抵触情绪比较严重,很多时候,同学们需要经过较长时间的说服才愿意去参加活动。这个问题我认为主要是两个方面造成的:一方面,是我们班委会教育工作做的不够好,没有充分的提倡教育奉献的精神。另一方面:学校在安排某些活动时欠考虑,导致活动的进程和事前宣传的不一致,进而破坏了学生们各自的生活安排,产生抵触情绪。这个问题我想采取的方法是:自愿优先,分组轮流:即如果有人愿意主动的参与到活动中,我们鼓掌欢迎,但是如果自愿者数量不足,那采取分组轮流制:即按学号或者其他方式,轮流代表班级参加活动。
这些就是我的一点心得体会,说永远比做容易,我们现在要做的,及时脚踏实地,一步一个脚印的走下去。
测绘科学与技术学院地理信息系统1001班委会
扩展阅读:信研1001班师敏104972102821
武汉理工大学模式识别导论
题目:模式识别综述完成人:师敏班级:1001班专业:电路与系统学制:2.5年学号:104972102821
模式识别综述
摘要:本文主要介绍了模式识别中常用的模糊k-均值及最小均方误差两种算法。介绍了模糊k-均值算法的基本思路及步骤和最小均方误差验证可分性及分类算法的原理和方法。并使用MATLAB软件编写程序实现了具体的例子,给出了实验结果并对结果进行了分析。
关键词:模糊k-均值最小均方误差可分性
0引言
聚类是数据分析中的一项重要技术【1】,是众多科学领域和工程技术中的一项基础性工作。聚类分析被广泛应用于生物学、天体物理学、模式识别、决策支持、数据挖掘、图像处理、最优化问题等。所谓聚类是把d维特征空间中N个数据点分成k个不同的类,使类内数据点的相似度高、不同类之问的数据点的相似度低【2-5】。这里的相似在特征空间中表现为距离近,所以距离可以用来对2个数据点进行相似性测度。在模糊聚类分析法中,模糊集合相当于模糊类,模式之间的相似性通常用模糊关系、隶属度来表示。模糊聚类分析的具体方法很多,而且新方法不断出现,本文讨论的是模糊k-均值算法。最小均方误差(LeastMeanSquareError,LMSE)算法的推导利用了梯度概念,它除了对线性可分的模式类收敛外,对线性不可分的情况也可以在算法的迭代过程中明确的表示出来,避免造成空等现象白白浪费时间。这个独特的性能使这种算法成为设计模式分类器的有用工具。
1模糊k-均值算法
模糊k-均值算法在聚类过程中每次得到的类别边界仍然是模糊的,每类聚类中心的修改都要用到所有的样本,此外聚类准则也体现了模糊性。模糊k-均值算法聚类的结果仍然是模糊集合,但是如果实际问题需要一个明确的界限,也可以对结果进行去模糊化,通过一定得规则将模糊聚类转化为确定性分类。1)基本思路
模糊k-均值算法的基本思路是先设定一些类及每个样本对各类的隶属度,然后通过迭代不断调整隶属度至收敛。收敛条件是隶属度的变化量小于规定的阈值。2)实现步骤
(1)假定要聚为K个类,由人为决定K个类中心,1本个数。
(2)根据先验知识确定样本对各模式类的隶属度i,j0,建立初始隶
,属度矩阵U0其中矩阵的行号i为类别编号,列号j为样本ij0KN,N为样
编号。表示第j个元素对第i类的隶属度。对隶属度矩阵的第j列而
ij言,它表示第j个元素分别对各模式类的隶属度,因此矩阵的每列元素之和等于1。
(3)求各类的聚类中心miL,L为迭代次数。
NmiLj1ijLNijmXmj,i1,2,K
Lj1式中参数m2,是一个控制聚类结果模糊程度的常数,即模糊化指数。可以看出各聚类中心的计算必须用到全部的N个样本,这是与非模糊k-均值算法的区别之一。在k-均值算法中,某一类的聚类中心只由该类样本决定,不涉及其他类。
(4)计算新的隶属度矩阵UL1,矩阵元素的计算方法【6】为ij1XmL11Xm2jiK2jll11m11m1,j1,2,N,i1,2,K
ml,l1,2,K为每个聚类的中心,ijL1是第j个样本对于第i类的隶
属度函数。
(5)回到第三步,重复至收敛。收敛条件为maxijL1ijL
i,j其中为规定的参数。
当算法收敛时就得到了各类的聚类中心以及表示各样本对各类隶属程度的隶属度矩阵,模糊聚类到此结束。这时准则函数J达到最小。
当需要给出确定的分类结果时,可以根据隶属度矩阵,按照隶属原则进行划分,即若
ijL1maxpjL1,j1,2,,N1pK
则Xjwi类
3)实验分析实例:
设有九个一维样本[-5.0,-4.5,-4.1,-3.9,2.5,2.8,3.1,3.9,4.5],取参数m2,利用模糊k-均值算法把她们聚为两类。
用MATLAB软件编写程序如下:
clearall%初始化参数值
D=[-5.0,-4.5,-4.1,-3.9,2.5,2.8,3.1,3.9,4.5]%聚类样本k=2;%聚类中心数b=2;%模糊化指数J=100;%模糊聚类主程序
[i,j]=size(D)%得到数据样本规格,j为数据个数,i为样本的维度。
%初始化隶属度矩阵member=rand(j,k)
forii=1:j%归一化隶属度函数矩阵membertemp1=0;foriii=1:k
temp1=(member(ii,iii))+temp1end
foriiii=1:k
scal_member(ii,iiii)=member(ii,iiii)/temp1endend
member=scal_member%归一化后的隶属度矩阵
%计算k个模糊聚类中心的位置ccwhileJ>0.01form=1:ksum1=0sum2=0forn=1:j
sum1=sum1+D(n)*power(member(n,m),b)sum2=sum2+power(member(n,m),b)end
cc(m)=sum1/sum2%计算聚类中心end
%更新隶属度矩阵forvv=1:jsum4=0foruu=1:k
sum4=sum4+power(1/(D(vv)-cc(uu))^2,1/(b-1))endforuv=1:k
new_member(vv,uv)=(power(1/(D(vv)-cc(uv))^2,1/(b-1)))/sum4endend
%计算终止条件指标,以聚类中心隶属度函数变化率很小为终止目标。index_mat=new_member-membersum5=0fornum=1:k*j
sum5=sum5+(index_mat(num))^2endJ=sum5
member=new_memberend
%输出聚类结果
disp("聚类中心结果为")fornum2=1:kdisp(cc(num2))end
disp("每个样本对于每个聚类中心的隶属度为")member
实验结果如下:聚类中心结果为
3.3543-4.3722
每个样本对于每个聚类中心的隶属度为member=0.00560.9944
0.00030.99970.00130.99870.00420.99580.98480.01520.99410.00590.99880.00120.99570.0043
0.98360.0164
实验结果分析:
实验数据为D=[-5.0,-4.5,-4.1,-3.9,2.5,2.8,3.1,3.9,4.5],(1)模糊化指数m和模式类别数k分别为mb2,k0.01。
2。i1,j9。(2)初始隶属度矩阵为member=0.58660.4134
0.41580.58420.59520.40480.04630.95370.36760.63240.58020.41980.52970.47030.54830.4517
0.53470.4653
可知倾向于X1,X3,X6,X7,X8,X9为一类,X2,X4,X5为一类。(3)计算聚类中心cc=
0.2941-0.9492
(4)计算新的隶属度矩阵new_member=
0.36930.63070.35420.64580.33960.66040.33110.66890.70970.29030.69120.30880.67560.32440.64390.35610.62670.3733
此时J=0.7313,不满足收敛条件,回到第(3)步继续迭代运算。得新的聚类中心为cc=1.9214-2.4332。,如此迭代了三次,最终满足了收敛条件,迭代结束。得到如上的实验结果。从结果中按照隶属原则进行划分得:X1,X2,X3,X4为一类,X5,X6,X7,X8,X9为一类。从实验数据可以看出该分类结果是正确的。
2最小均方误差(LMSE)验证可分性及分类算法的设计与实现1)LMSE验证可分性算法的基本原理LMSE算法【7】是对准则函数引进最小均方误差这一条件而建立起来的,这种算法的主要特点是在训练过程中判定训练集是否线性可分,从而对结果的收敛性做出判断。
LMSE算法把对满足式XWT0的求解改为对满足XWB的求解,
式中Bb1,b2,,bN是各分量均为正值的矢量,故这两个公式是互相等价的。
LMSE算法的出发点就是选择一个准则函数J,使其达到极小值时,XWB可以得到最小二乘近似解。依据这样的思路,可将准则函
数定义为
JW,X,B12XWB21W2i1NTXibi2
时。准则函数
可以看出,JW,X,B有唯一的极小值0,发生在XW的值等于WTBXi与bi误差的平方之和,此时i1,2,,N,我们的目标是
使这个误差的平方和最小,因此称这一准则导出的算法为最小均方误差算法。
2)LMSE算法的迭代计算过程
设初始值B1,需使其的每一分量都为正值,括号中的数字代表迭代次数k1。
W1XB1#ekXWkBk#
ekWk1WkcXBk1Bkcekek式中,X#XTX1XT称为X的伪逆,X为Nn1阶长方阵,X#为在上面的过程中Wk1和Bk1互相独立,因此n1N阶长方阵。
两者计算的先后次序对计算结果没有影响。3)模式类别可分性的判别
可以证明,当模式类别线性可分,且校正系数c满足0c1时,该算法收敛,可求得解W。因为理论上不能证明到底需要迭代多少步才能达到收敛,所以在执行时可以监视出现解的过程,从而判断是否收敛。通常的方法是每次迭代计算后检查一下XWk的各分量和误差向量ek,从而可以判断是否收敛。具体分为以下几种情况:
①如果ek0,表明XWkBk0,有解。
②如果ek0,表明XWkBk0,隐含着有解。若继续迭
代,可使ek0。
③如果ek0,也就是说ek的所有分量为负数或零,但不全
部为零,表明模式类别线性不可分,停止迭代,无解。此时若继续迭代,数据将不再发生变化,不能再调整。
从上面的过程可以清楚地看出,当ek0后,若继续迭代下去,
B,W和e都不会再发生变化。因此只有当ek中有大于零的分量时,
才需要继续迭代,一旦ek的全部分量只有0和负数,则立即停止。
实际上,对一线性不可分模式,要达到ek全部分量都为非正,需要迭代很多次,往往早在ek全部分量都达到非正值以前就能看出其中有些分量向正值变化得极慢,这时已能估计出造成线性不可分的某些样品,及早采取对策【8】。
下面以一个实例来说明这种情况。假设有4个训练样品,共分为TTTT两类:显然它们是线性可分的。用MATLAB1:0,0,0,1;2:1,0,1,1。
软件编程采用LMSE算法来验证其可分性。
w1=[00;01]"w2=[10;11]"
x=[001;011;-10-1;-1-1-1]xsharp=inv(x"*x)*x"B=[1111]";c=1;W=xsharp*Be=x*W-Bife0fori=1:4
W=W+c*xsharp*abs(e)B=B+c*(e+abs(e))e=x*W-Bi=i+1;endife00X11101011111X的规范逆矩阵为X#XTXXT111232#11121112T1112
取B11,1,1,1T和c1得W1XW11,1,1,10TXB12,0,1。因为
,因而W1即为所求的解,这时
e1XW1B10。判别函数为dx12x11。
4)LMSE分类算法原理
LMSE算法以最小均方误差作为准则,因均方误差为
1因而准则函数为JW,XErXW2iiTEriXWiXTiX
22准则函数在riXWiTX0时得JWi,XJ的最小值。
准则函数对Wi的偏导数为
TEXrXWXiiWi
T带入迭代方程Wik1WikiXkriXkWikXk
对于多类问题来说,M类问题应该有M个权函数方程,对于每一个权函数方程来说,如Xki,则riXk1否则rjXk0,j1,2,,M,ji5)LMSE分类算法实现【9】
①设各个权矢量的初值为0,即W00W10W900。②输入第k次样品Xk,计算dikWiTkXk。③若Xki,则riXk1,否则riXk0。T④计算Wik1,Wik1WikkXkriXkWikXk其
中k1k。
⑤循环执行第②步,直到属于wi类的所有样品都满足条件:
diXdjXji
下面用一个实例来说明该算法的进行过程。给定两类样品:
w1:0,0,0,1,0,0,1,0,1,1,1,0w2:0,0,1,0,1,0,0,1,1,1,1,1TTTTTTTT
现在用MATLAB软件编写程序来实现LMSE算法计算判别函数。¨
functiony=lmseclassify(sample)loadtempletpattern;w=zeros(26,10);flag=1;num=0;num1=0;d=[];m=[];r=[];whileflagflag=0;num1=num1+1;forj=1:40fori=1:10num=num+1;
r=[0000000000];r(i)=1;
pattern(i).feature(26,j)=1;fork=1:10
m=pattern(i).feature(:,j);d(k)=w(:,k)"*m;endfork=1:10ifk~=i
ifd(i)fork=1:10
w(:,k)=w(:,k)+m*(r(k)-d(k))/num;endendendifnum1>200flag=0;endend
sample(26)=1;b=[];fork=1:10
h(k)=w(:,k)"*sample";end
[maxval,maxpos]=max(h);
y=maxpos-1;
实验结果如下:
W0.1350.2380.3050.721实验结果分析:
在进行迭代运算之前,各样品的特征向量经过增1:
1:0,0,0,1,1,0,0,1,1,0,1,1,1,1,0,12:0,0,1,1,0,1,0,1,0,1,1,1,1,1,1,1TTTTTTTT
取W10,k1k。LMSE算法判别函数实现步骤如下:
T①令X10,0,0,1,X11,11,rX11,因此
TW2W11X11W1X10,0,0,1
TT②
X21,0,0,1,X21,212,rX20,0,0,1W3W21X21W2TT,因此
2X20,0,0,1
TT③④
X31,0,1,1,X31,rX31,因此W4W30,0,0,1TT
X41,1,0,1,X41,rX41,因此W5W40,0,0,1T⑤
X50,0,1,1,X52,rX50W6W55X50WTT因此
T140,0,,5X555
经过19次迭代后,得到可以满足要求的结果为
W200.135,0.238,0.305,0.721T
因此判别函数为:dXWTX
参考文献:
0.50.135x10.238x20.305x30.2210【1】苏瑞.基于层次的模糊K均值聚类算法研究[J].安阳师范学院学
报,201*,(02).
【2】DomanyE.SuperparamagneticC1usteringofDataTheDefinitive
SolutionofanⅢPosedProblem[J].PhysicaA,1999,(263):158169.
【3】BlattM,WisemanS,DomanyE.SuperparamagneticClusteringof
Data[J].PhysicalReviewLetters,1996,(76):32513255.
【4】BlmtM,WisemanS,DomanyE.C1usteringDatathroughanAnalogyto
thePottsModel[A].AdvancesinNeuralInformationProcessingSystem[C].MITPress,1996.
【5】BlattM,WisemanS,DomanyE.DataClusteringUsingaModelGranular
Magnet[J].NeuralComputation,1997,(9):18051842.
【6】叶萍.基于隶属度改进的模糊K-均值算法[J].长春工程学院学
报,201*,(0l).
【7】杨淑莹.图像模式识别VC++技术实现[M].北京:清华大学出版社;北京
交通大学出版社,201*.7
【8】齐敏,李大健,郝重阳.模式识别导论[M].北京:清华大学出版社,201*.6【9】杨淑莹.模式识别与智能计算-Matlab技术实现[M].北京:电子工业出版
社,201*.1
友情提示:本文中关于《地信1001年终工作总结》给出的范例仅供您参考拓展思维使用,地信1001年终工作总结:该篇文章建议您自主创作。
来源:网络整理 免责声明:本文仅限学习分享,如产生版权问题,请联系我们及时删除。