硕士学位论文:基于web日志的用户聚类研究

发布时间:2019-09-23 20:27

硕士学位论文:基于web日志的用户聚类研究

 

 

摘要:互联网发展到今天已经成为了人们生活中不可缺少的一部分了,而互联网从某种意义上讲也可以看作是一个庞大的数据库,并且涉及到各个领域。那么在这个庞大的数据库中,数据挖掘技术有什么用武之地呢?本文通过对互联网上数据挖掘的简单综述,说明现在互联网上数据挖掘的一些趋势和相关技术,并且着重分析一下其中一种互联网上数据挖掘的应用方向相关的技术——Web使用记录的挖掘,也就是Web 硕士学位论文日志数据挖掘。它通过挖掘服务器的日志文件,抽取感兴趣的用户的聚类情况,并分析和研究日志记录的规律,进一步分析这些数据可以帮助理解用户的行为以及用户的网络行为数据所具有的意义,从而改进站点的结构及性能,构造自适应网站,或者通过统计和关联分析为用户提供个性化的服务,发现潜在的用户群体。

关键词:Web日志;Web日志挖掘;数据预处理;Apriori算法;数据挖掘;关联规则

Based on web diary user cluster research
Major: Electronic and communication engineering
Name:
Supervisor:

ABSTRACT

The Internet developed already becomes the people to live today an essential part, but the Internet also might regard as in a sense was a huge database, and involved to each domain.Then in this huge database, what opportunity the data mining technology has? This article through to the Internet on the data mining simple summary, shows on the present Internet data mining some tendencies and the correlation technology, and emphatically analyzes on one kind of Internet the data mining application direction correlation technical - - Web note for use excavation, also is the Web diary data mining.It /through excavates the server the journal file, the extraction is interested user's visit pattern, and analyzes and the research diary recording rule, further analyzes these data to be possible to help the significance which the understanding user the behavior as well as user's network behavior data has, thus improves the stand the structure and the performance, the structure auto-adapted website, or provides personalized through the statistics and the connection analysis for the user the service, discovers the potential user community.
Key word: Web diary; Web diary excavation; Data pretreatment; Apriori algorithm; Data mining; Connection rule

目录
摘要 I
ABSTRACT II
目录 II
第1章 绪论 2
1.1 XXX发展现状 2
1.2 本文的主要工作及内容组织结构 2
1.3 本章小结 2
第2章 XXX技术和方法 2
2.1 XXX技术 2
第3章 主要工作 2
3.1 YYY系统设计 2
3.2 插入章的方法 2
3.3 插入节的方法 2
3.4 图表的引用方法 2
3.5 插入公式的方法 2
3.6 还是不会怎么办? 2
3.7 本章小结 2
第4章 实验分析 2
4.1 实验环境 2
4.2 实验结果分析 2
4.3 本章小结 2
第5章 总结与展望 2
5.1 本文总结 2
5.2 后续工作 2
参考文献 2
致 谢 2
原创性声明 2

第1章 绪论
进入二十一世纪,随着计算机技术、通信技术和网络技术的飞速发展,电子商务的发展也有了越来越好的技术平台,许多企业、公司、学校都建立了自己的网站,这是他们的门户和电子商务进行的所在。Internet的广泛应用使Web挖掘应运而生,Web数据挖掘是当前电子商务最前沿的研究领域,是把Internet和数据挖掘结合在一起的一种新兴技术。Web数据挖掘是知识发现的特定步骤,也是最核心的部分。Web日志挖掘是Web挖掘的重要内容,也是我们研究的一个重要课题,其技术和方法在电子商务中有着巨大的应用空间和应用价值。如发现有价值的信息、寻找潜在客户和提供个性化服务等,另外通过Web日志挖掘我们可以发现用户的兴趣并根据兴趣创造改造或创建新的主页;将用户归类,对不同类型的用户提供不同的链接,为用户推荐他们可能感兴趣的网页等个性化服务,有助于开展有针对性的电子商务活动,建立智能化Web站点,促使各种商业门户网站、网络中心等信息服务机构的信息服务水平发生质的飞跃。

1.1 WEB日志挖掘的研究背景及意义
近年来,随着Internet网络的高速发展,世界变成了一个地球村,人与人之间可以随时随地交往,随着Internet在流量、规模和复杂度等方面的飞速增长,网络已成为一个巨大的、广泛的、全球性的信息服务中心。据统计数据表明,目前,世界上每年Web服务器数量都以超过30%的数量增长,而Web页面以60%的比例增长着,在我们每个用户面前汇成了一个信息的海洋。Web中包括了Web页面丰富的内容、链接信息,以及用户访问的日志信息,为数据挖掘提供了丰富的研究资源。然而,面对如此庞大的Internet数据流,大多数用户力不从心,容易迷失在网络的海洋中。
如何有效地分析用户的需求,帮忙用户寻找他们感兴趣的的资源信息,就成了一项重要的研究课题。于是,Web数据挖掘就开始走上了这个历史的舞台。
1995年,第一届知识发现和数据挖掘国际会议在美国召开,标志着知识发现和数据挖掘的研究进入了一个崭新的阶段。随后,数据挖掘在全球迅速升温,各大学开始设置了相关专业或研究方向。同时,数据挖掘应用也逐渐展开,目前在很多行业,如金融、电信、体育、保险、零售等,都有数据挖掘的成功应用。
数据挖掘是从大量的数据中,抽取出潜在的、有价值的知识的过程。数据挖掘综合了多个学科技术,有着很多的功能,当前的主要功能如下:
  1. 分类:按照分析对象的属性、特征,建立不同的组类来描述事物。例如:保险公司根据以前的数据将客户分成了不同的类别,以后就可以根据这些来区分新购买保险的客户,以推出相应的保险方案。
  2. 聚类:识别出内在的规则,按照这些规则把这些对象分成若干类。例如:将购买者分为高度风险购买者,中度风险购买者,低度风险购买者。
  3. 关联规则和序列模式的发现:关联是某种事物发生时其他事物会发生的这样一种联系。例如:每天购买香烟的人也有可能购买啤酒,机率有多大,可以通过关联的支持度和可信度来描述。
  4. 预测:把握分析对象发展的规律,对未来的趋势做出预见。例如:对未来保险行业发展的判断。
需要注意的是:数据挖掘的各项功能不是独立存在的,而是相互联系于挖掘中,相互发挥作用的。
1.2 本文的主要工作及内容组织结构
本文的主要工作是提出了WEB日志数据挖在平常生活中的应用,以及方便了网站的信息调查,而且在软件方面,结合了WEKA和SQL等进行组合分析。
本文的结构安排如下:
第一章为绪论,介绍数据挖掘的背景意义及现状。第二章介绍了数据挖掘的主要作用及使用功能及一些分类。第三章开始对实例进行分析,并着重对数据进行WEB日志预处理。第四章是对WEB日志数据的分析作进一步探讨,对分析研究的方法及使用算法作详细的解释,并得出结论。第五章分析结果,并结合分析结果对本文的主要工作点作总结。
1.3 本章小结
现今Internet资料流量之巨大已经到了令人咂舌地步,就实际限制而言,便遇到了诸如巨量的纪录,高维的资料增加的传统分析技术上的困难,搜集到的资料仅有少量用来分析,以及资料搜集过程中并不探讨特性等问题,这就让我们不得不利用数据挖掘技术,下一章我们将对数据挖掘技术进行分析与探讨。
 

第2章 WEB日志数据挖掘技术和方法
Web数据挖掘是将数据挖掘的思想和方法应用到Web页面内容、页面之间的结构、用户访问信息等各种Web数据中,从中抽取隐含的、以前未知的、具有潜在应用价值的信息。
  Web日志挖掘即Web使用记录挖掘,是从用户的访问记录中抽取具有意义的模式。其数据源来源于服务器的日志、用户注册数据、跟踪文件的数据记录、用户访问期间的事务、书签数据、用户查询和鼠标移动点击的信息等等。Web日志记录挖掘应用的技术主要有路径分析、关联规则分析、序列模式分析、聚类分析、统计分析等。Web使用记录挖掘可以发现潜在的用户、并根据用户需要改进电子商务网站的建设、增加个性化服务等。


2.1 Web日志数据挖掘技术
地随着计算机应用的越来越广泛,每年都会积累大量的数据,运用数据挖掘技术在这些数据当中我们可以找出很多有用的东西来。数据挖掘就是从大量繁杂的数据中获取隐含中其中的信息,比如说对顾客分类,聚类,潜在顾客识别等,现在应用领域很广的,设计,零售,金融,银行,医疗,政府决策,企业财务,商业决策。
Web日志文件是日志挖掘的数据源,是Web服务器上用于记录用户访问页面情况的文件。任何时候当一个用户连接到一个站点时,服务器就会在日志文件中记录他们的所有操作,日志记录最主要的是记录了访问者的身份、浏览时间、浏览内容、网站的流量等。目前日志文件以多种数据格式存储在Web服务器上。常见的日志数据格式日志记录的格式主要分为两种:通用日志格式(Common Log Format—CFL)和扩展日志格式(Extended Log Format)。通常日志文件都包括访问者的IP或域名、浏览器类型、访问时间、访问方式(GET/POST)、访问页面协议以及错误代码等信息。
以下是2009年5月19日从某高校服务器上所获取的一部分日志信息:
#Software: Microsoft Internet Information Services 5.0
#Version: 1.0
#Date: 2009-05-19 00:00:02
#Fields: date time c-ip cs-username s-ip s-port cs-method cs-uri-stem cs-uri-query sc-status cs(User-Agent)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new55.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new44.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new1.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new2.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new3.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new4.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new5.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:02 119.131.59.164 - 192.168.254.8 80 GET /newimages/new_menu_6_y.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:11 203.208.60.36 - 192.168.254.8 80 GET /sj/doc/bmfa/xgc_xzrws_db.doc - 304 Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html)
2009-05-19 00:00:17 119.131.59.164 - 192.168.254.8 80 GET /images/zyxx1.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:17 119.131.59.164 - 192.168.254.8 80 GET /images/zyxx.gif - 304 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
2009-05-19 00:00:30 220.181.19.164 - 192.168.254.8 80 GET /newsimg/3055.gif - 200 Sogou+Pic+Spider/3.0(+http://www.sogou.com/docs/help/webmasters.htm#07)
2009-05-19 00:00:33 218.93.189.6 - 192.168.254.8 80 GET /wyx/images/music/pop/l_03.wma - 200 NSPlayer/10.0.0.4054+WMFSDK/10.0
2009-05-19 00:00:44 219.234.81.66 - 192.168.254.8 80 GET /default.asp - 200 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1)
2009-05-19 00:00:44 203.208.60.36 - 192.168.254.8 80 GET /NewsView.asp ID=3733 200 Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html)
2009-05-19 00:00:46 119.131.59.164 - 192.168.254.8 80 GET /wyx/index.asp - 200 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1;+CIBA)
根据上表,我们可对实验数据中的服务器日志文件的具体格式解释如下(选取第一条):
Date and Time:指名了访问的日期和时间,访问时间记录了服务器响应用户请求发出文件的时间。这次访问发生在2009年5月19日凌晨0点00分00秒。
c_ip:访问用户的 IP 地址或者用户使用的代理服务器 IP 地址;,从第一条记录可知,发出请求的主机的IP地址为119.131.59.164。
userName:用户名,由于通常用户没有进行注册,故一般都为占位符所替代。
cs_method:主机发出的请求浏览网页的指令内容,包括请求方式和请求的页面。请求方式一般有GET、POST或者HEAD三种。GET指从Web服务器请求了一个对象;POST表示向服务器发送信息;HEAD指只取一个对象的头。页面记录了本地文件系统的一个页面或者响应请求的可执行文件等。
s_ip:访问服务器主机的信息和服务器端口号s_port:客户端访问网站的端口号,服务器的端口号为304。
cs_uri_stem:访问者请求的资源,即相对于服务器上根目录的途径。
userAgent:用户使用的浏览器以及操作系统的版本。该记录显示,使用的浏览器为Mozilla/4.0,操作系统版本为Windows NT 5.1。
Status:服务器返回的状态代码。一般而言,以2开头的状态代码表示成功,以3开头表示由于各种不同的原因用户请求被重定向到了其他位置,以4开头表示用户端存在某种错误,以5开头表示服务器遇到了某个错误。
query:协议类型。


2.2 WEB日志挖掘过程
Web日志挖掘主要是对用户访问Web时在服务器上留下的访问记录进行的挖掘,即对用户访问Web站点的存取方式进行挖掘,以发现用户访问站点的浏览模式、页面的访问频率等信息。这种数据挖掘是一种很重要的信息获取方式,它挖掘的数据一般是在用户和网络交互的过程中抽取出来的第二手的数据。这些数据包括:Web服务器日志记录、代理服务器的日志记录、客户端的日志记录、用户简介、注册信息等等。
Web日志挖掘可以分为四个阶段:数据源的获取、数据预处理、数据挖掘和对挖掘出来的模式进行分析。

2.3 数据预处理
数据预处理是Web数据挖掘中一个十分关键的步骤,根据不同的业务,不同的情况,将海量的原始数据中抽取需要的数据,并且对于不完整的数据还需要做些处理使之完整。数据预处理包括依赖域的数据净化、用户识别、会话识别和路径补充等,对日志进行预处理的结果直接影响到挖掘算法产生的规则与模式。因此,预处理过程是保证Web日志挖掘质量的关键。
数据预处理是数据挖掘的重要一环之一,而且必不可少。要使挖掘内核更有效地挖掘出知识,就必须为它提供干净、准确、简洁的数据。然而,实际系统中收集到的数据通常存在着这样那样的问题:
1 、杂乱性;原始数据是从各个实际应用系统中获取的,由于各应用系的数据缺乏统一标准和定义,数据结构也存在着较大的差异,因此各系统间的数据有着较大的不一致性,往往不能直接拿来使用。
2 、重复性;重复性是指对于同一个客观事物在数据库中存在其两个或两个以上完全相同的描述。由于应用系统实际使用中存在的一些问题,几乎所有应用系统中都存在数据的重复和信息的冗余现象。
3 、不完整性;由于实际系统设计时存在的缺陷以及一些使用过程中人为因素所造成的影响,数据记录中可能会出现数据属性丢失或不确定的情况,还可能缺少必须的数据而造成数据不完整。实际使用的系统中,存在大量的模糊信息,有些数据设置还具有一定的随机性质。
数据预处理过程包括:数据清理、用户识别、会话识别、路径补充、事务识别等几方面。Web日志挖掘中数据预处理常用的手段,其目的就是尽量使得域处理后的数据比较真实和完整,为后面的数据挖掘与分析打好基础。


图2-1 Web日志挖掘的预处理过程

数据清理:根据需求删除Web日志中与挖掘算法无关的数据,即与数据挖掘不相关的冗余项,由于用户的一次请求可能会让浏览器自动下载多个附属文件,例如一些图片、图标等,一般这些请求对于日志挖掘来说没有什么意义,例如后缀名为gif,jpg,bmp,css,swf等的日志文件,还要删除那些请求访问失败的记录,而目的不只是要消除错误、冗余和数据噪音。
用户识别:方法主要有三种,基于cookie的技术、基于IP地址的用户识别和基于网络拓扑结构的路径分析。方法一通过在Web日志文件中添加更多的附加信息如用户机器名、内部IP来标识用户,从而能识别通过同一代理服务器上网的不同的访问用户。方法二是指不同的IP地址代表不同的用户。方法三要求根据网络拓朴结构分析Web日志文件中的用户请求,构造用户浏览网页的路径,通过一些启发式规则来识别用户。
会话识别:可以通过日志记录的引用页面信息项以及两条相邻日志记录间的时差关系来确定一条日志记录是否是一个会话的首记录或是否属于一个已有会话。
路径补充:将日志文件中没有的,但又反映了用户行为的数据补充进来,这就是路径补充所做的工作,解决的方法类似于用户识别中的方法。如果当前请求的页与用户上一次请求的页之间没有超文本链接,那么用户很可能使用了浏览器上的“后退”按钮调用缓存在本机中的页面。检查引用日志确定当前请求来自哪一页,如果在用户的历史访问记录上有多个页面都包含与当前请求页的链接,则将请求时间最接近当前请求页的页面作为当前请求的来源,若引用日志不完整,可以使用站点的拓扑结构代替。通过这种方法将遗漏的页面请求添加到用户的会话文件中。
事务识别:其的目的是在用户会话识别的基础上,依据数据挖掘任务的需求将用户会话做分割或合并的处理,以利于特定知识的发现。由于事务识别的输出结果是实施Web挖掘的数据来源,其质量直接影响到Web 挖掘的准确性和精确性,所以其算法的选择十分重要。
在数据的预处理方面目前有以下两个研究难点:
1、由于代理的使用以及出于用户个人隐私的保护,为了网站用户访问模式的分析挖掘,如何收集更多的个人信息,又能保护用户个人隐私如何收集到尽量完整的网站访问日志,即能保证服务器的工作效率和服务质量,有关数据收集的专门工具和技术的研究,及收集机制都需要更好的发展,所以预处理是其中的关键。
2、事务识别的进一步研究,服务器日志数据不论是抽象的还是具体的,都不能直接进行挖掘分析,且不同Web服务器日志中数据的粒度大不相同,这就需要把单独的数据事件集成为事务,再进行相应的数据挖掘,但这方面的技术仍需进一步的深入研究。

2.4 关联规则挖掘
关联规则挖掘是数据挖掘中最活跃的研究方法之一,同时也是数据掘研究的主要模式之一。在用户访问日志挖掘研究中,人们希望通过关联规则的挖掘找到用户访问页面之间的联系,这种联系关系有助于改进缓存策略,来达到提高服务质量的目的。
数据关联是数据库中存在的一类重要的可被发现的知识。若两个或多个变量的取值之间存在某种规律性,就称为关联。关联可分为简单关联、时序关联、因果关联。关联分析的目的是找出数据库中隐藏的关联网。有时并不知道数据库中数据的关联函数,即使知道也是不确定的,因此关联分析生成的规则带有可信度。关联规则挖掘发现大量数据中项集之间有趣的关联或相关联系。而判断关联程度高低的,最常用的就是:支持度和置信度。
支持度:“看过页面A,也看过页面B的人数(或者行为次数)”或“总的人数(或者总的行为数)”。
硕士学位论文置信度:“看过页面A,也看过页面B的人数(或者行为次数)”或“看过页面A的人数(或者行为次数)”。
关联规则的挖掘可以分为两个步骤:
(1)找出所有频繁项集,这些项集的频繁度不低于预定义的最小支持度;
(2)由频繁项集产生关联规则,这些规则必须满足最小置信度的要求。
Agrawal等在1993年设计了一个基本算法Apriori,提出了挖掘关联规则的一个重要方法一这是一个基于两阶段频集思想的方法,关联规则挖掘算法的设计可以分解为两个子问题:
(1)找到所有支持度大于最小支持度的项集,这些项集称为频集。
(2)使用第1步找到的频集产生期望的规则。
Apriori算法的核心思想是采用逐层递推的方法,首先扫描数据库,产生1频繁项目集;再由apriori_gen函数利用Lk-1中的成员连接、剪枝后产生候选项目集Ck,通过扫描事务数据库计算每个候选项目集的支持度,大于最小支持度的项目集并入k频繁项目集Lk中;直到不再产生候选项目集结束;最后合并全部频繁项目集。
(1)Apriori算法用于事务数据库中的事务之上,而分类是用于属性值集上的,所以新算法在处理过程中,应该把一行记录的所有属性=值对看成是一个事务。
(2)对于有缺省属性值的记录,可以把其当作是长度不一的事务来处理,而不必把该记录删去,或是用其他可能的值来代替缺省值。
(3)分类规则实际上是用Apriori算法挖掘出来的,目进行一定条件约束后所得到的关联规则。这单的条件约束是:①最小支持度和最小可信度限制;②在可能成为分类规则的关联规则中,必须含有表示类别的属性值;③如果有2个不同关联规则拥有相同的condset,那么算法按照支持度和可信度的大小顺序选取分类规则。
(4)分类规则中也含有缺省规则,是用来为不被其他分类规则满足的样本指定一个缺省的类。


2.5 聚类分析研究
聚类(Clustering ),也叫聚集,是把一组个体按照相似性归成若干类别,即“物以类聚”。它的目的是使得属于同一类别的个体之间的距离尽可能的变小,而不同类别上的个体间的距离尽可能的变大。我们把这种距离称为相似度,它是根据描述对象的属性值来计算的。聚类方法包括统计方法、机器学习方法、神经网络方法和面向数据库的方法。
作为一个数据挖掘功能,聚类分析能作为一个独立的工具来获得数据分布的情况,观察每个簇的特点,集中对特定的某些簇做进一步的分析。
目前主要的聚类算法可以划分为如下几类:分裂法(partitioning methods),层次法(hierarchical methods),基于密度的方法(density-based methods),基于网格的方法(grid-based methods),基于模型的方法(model-based methods)。
根据不同聚类需要,可以使用其中一种或几种想结合运算,生出矩阵进行分析。

2.6 本章小结
本章着重介绍了WEB日志数据挖掘的过程,介绍了数据预处理,关联规则挖掘以及聚类分析研究,并且结解释apriori算法,其中数据预处理与用户聚类分析研究,是课题的关键,这主要在第四章结合实例上使用到。

 


 

第3章 Web挖掘实例主要工作

3.1 Web日志数据挖掘系统设计
在这一章中,要尽可能详细把自己的研究开发工作展示出来。包括;系统总体结构、各模块功能、算法改进、实现流程、变量定义、数据结构等等。也要包括一些分析对比。但不要介绍已有的一些基本技术、基本方法、基本概念,因为这些内容应该在第二章已经介绍过了。要使得这一章集中在描述你自己的工作、自己的设计、自己的思考、自己的改进、自己的成果。
3.2
3.3

3.4
论文中的图要顺序编号,如图 3 1

 

图 3 1 XXX系统架构图[4]
(用“插入-引用-题注-标签(图)”的办法插入图的编号。)
论文中的表也要顺序编号,如表 3 1所示。用“插入-引用-交叉引用-引用类型(表)-引用内容(只有标签和编号)”的办法插入对表的引用。表的编号要在表的上方。表中的文字也不能小于小五号字体,否则打印出来后看不清楚。
表 3 1 测试结果



3.5

3.6
 

3.7 本章小结
 

第4章 实验分析
先用一段说明本章的实验目的和取得的实验结论。这一章的长度大约10-15页。
4.1 实验环境
要把实验环境、实验条件、参数选择等讲清楚。目标是他人可以重复你的实验。
4.2 实验结果分析
要有图、表数据等实验结果。最好是与同类技术、同类方法进行实验对比。重要的是,一定要有实验分析,要明确指出实验的结果和结论,对实验中的一些现象,特别是那些让人奇怪的现象,要分析其产生的原因。不要只列出一些图、表和数据等而不加说明和分析。
4.3 本章小结
再次指明本章的主要实验结果、这些结果的应用意义等。指明自己所做的工作。

 

第5章 总结与展望
5.1 本文总结
总结取得的成果和这些成果的意义、应用前景等。特别要再次说明自己的贡献是什么。
5.2 后续工作
说明本论文的不足,进一步可改进的地方等。要实事求是。

 

参考文献
(参考文献的篇数大约30-45篇。参考文献一定要按照标准格式写,即
[序号] 著者.题名.期刊名,出版年份,卷号(期号):页码.
[序号] 著者.书名.版次(第一版不注).出版地:出版者,出版年份.页码.

 

致 谢

感言…。
感谢老师…。
感谢同学…。
感谢朋友和家人。
 

原创性声明
本人郑重声明:

所呈交的学位论文,是本人在导师的指导下,独立进行研究工作所取得的成果。除文中已经注明引用的内容外,本论文不包含任何其他个人或集体已经发表或撰写过的作品成果。对本文的研究作出重要贡献的个人和集体,均已在文中以明确方式标明。本人完全意识到本声明的法律结果由本人承担。


学位论文作者签名:
日期: 年 月 日

 


 

如果您有论文代写需求,可以通过下面的方式联系我们
点击联系客服

提交代写需求

如果您有论文代写需求,可以通过下面的方式联系我们。