数据分析中要注意的统计学问题
数据分析是一门数学类的学科。数据分析中涉及的统计问题有很多。下面是小编为大家带来的数据分析中要注意的统计学问题。欢迎阅读。
一、均值的计算
在处理数据时,经常会遇到对相同采样或相同实验条件下同一随机变量的多个不同取值进行统计处理的问题。此时,往往我们会不假思索地直接给出算术平均值和标准差。显然,这种做法是不严谨的。
这是因为作为描述随机变量总体大小特征的统计量有算术平均值、几何平均值和中位数等多个。至于该采用哪种均值,不能根据主观意愿随意确定,而要根据随机变量的分布特征确定。
反映随机变量总体大小特征的统计量是数学期望,而在随机变量的分布服从正态分布时,其数学期望就是其算术平均值。此时,可用算术平均值描述随机变量的大小特征;如果所研究的随机变量不服从正态分布,则算术平均值不能准确反映该变量的大小特征。在这种情况下,可通过假设检验来判断随机变量是否服从对数正态分布。如果服从对数正态分布,则几何平均值就是数学期望的值。此时,就可以计算变量的几何平均值;如果随机变量既不服从正态分布也不服从对数正态分布,则按现有的数理统计学知识,尚无合适的统计量描述该变量的大小特征。此时,可用中位数来描述变量的大小特征。
因此,我们不能在处理数据的时候一律采用算术平均值,而是要视数据的分布情况而定。
二、直线相关与回归分析
这两种分析,说明的问题是不同的,既相互又联系。在做实际分析的时候,应先做变量的散点图,确认由线性趋势后再进行统计分析。一般先做相关分析,只有在相关分析有统计学意义的前提下,求回归方程才有实际意义。一般来讲,有这么两个问题值得注意:
一定要把回归和相关的概念搞清楚,要做回归分析时,不需要报告相关系数;做相关分析的时候,不需要计算回归方程。
相关分析中,只有对相关系数进行统计检验(如t检验),P0.05这种无统计学意义的结论;而当样本量很大,如500,即使r=0.1,也会有P
三、相关分析和回归分析之间的区别
相关分析和回归分析是极为常用的2种数理统计方法,在环境科学及其它研究领域有着广泛的用途。然而,由于这2种数理统计方法在计算方面存在很多相似之处,因此在应用中我们很容易将二者混淆。
最常见的错误是,用回归分析的结果解释相关性问题。例如,将“回归直线(曲线)图”称为“相关性图”或“相关关系图”;将回归直线的R2(拟合度,或称“可决系数”)错误地称为“相关系数”或“相关系数的平方”;根据回归分析的结果宣称2个变量之间存在正的或负的相关关系。
相关分析与回归分析均为研究2个或多个变量间关联性的方法,但2种方法存在本质的差别。相关分析的目的在于检验两个随机变量的共变趋势(即共同变化的程度),回归分析的目的则在于试图用自变量来预测因变量的值。
实际上在相关分析中,两个变量必须都是随机变量,如果其中的一个变量不是随机变量,就不能进行相关分析。而回归分析中,因变量肯定为随机变量,而自变量则可以是普通变量(有确定的取值)也可以是随机变量。
很显然,当自变量为普通变量的时候,这个时候你根本不可能回答相关性的问题;当两个变量均为随机变量的时候,鉴于两个随机变量客观上存在“相关性”问题,只是由于回归分析方法本身不能提供针对自变量和因变量之间相关关系的准确的检验手段,因此这又回到了问题二中所讲的,如果你要以预测为目的,就不要提相关系数;当你以探索两者的“共变趋势”为目的,就不要提回归方程。
回归分析中的R2在数学上恰好是积矩相关系数r的平方。因此我们不能错误地理解R2的含义,认为R2就是 “相关系数”或“相关系数的平方”。这是因为,对于自变量是普通变量的时候,2个变量之间的“相关性”概念根本不存在,又谈什么“相关系数”呢?
四、相关分析中的问题
相关分析中,我们很容易犯这么一个错误,那就是不考虑两个随机变量的分布,直接采用 积矩相关系数描述这2个随机变量间的相关关系(此时描述的是线性相关关系)。
关于相关系数,除有 积矩相关系数外,还有秩相关系数和秩相关系数等。其中,积矩相关系数可用于描述2个随机变量的线性相关程度,或秩相关系数用来判断两个随机变量在二维和多维空间中是否具有某种共变趋势。
因此我们必须注意的是, 积矩相关系数的选择是由前提的,那就是2个随机变量均服从正态分布假设。如果数据不服从正态分布,则不能计算 积矩相关系数,这个时候,我们就因该选择或秩相关系数。
五、t检验
用于比较均值的t检验可以分成三类:第一类是针对单组设计定量资料的;第二类是针对配对设计定量资料的;第三类则是针对成组设计定量资料的。后两种设计类型的区别在于事先是否将两组研究对象按照某一个或几个方面的特征相似配成对子。无论哪种类型的t检验,都必须在满足特定的前提条件下应用才是合理的。
若是单组检验,必须给出一个标准值或总体均值,同时,提供一组定量的观测结果,应用t检验的前提条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必须在这样的前提下所计算出的t统计量才服从t分布。
t检验是目前在科学研究中使用频率最高的一种假设检验方法。t检验方法简单,其结果便于解释。简单、熟悉加上外界的要求,促成了t检验的流行。但是,由于我们对该方法理解得不全面,导致在应用过程中出现不少问题,有些甚至是非常严重的错误,直接影响到结论的可靠性。
常见错误:不考虑t检验的应用前提,对两组的比较一律用t检验;将各种实验设计类型一律视为多个单因素两水平设计,多次用t检验进行均值之间的两两比较。以上两种情况,均不同程度地增加了得出错误结论的风险。而且,在实验因素的个数大于等于2时,无法研究实验因素之间的交互作用的大小。
正确做法:当两样本均值比较时,如不满足正态分布和方差齐性,应采用非参检验方法(如秩检验);两组以上的均值比较,不能采用t检验进行均值之间的两两比较。
因此我们必须注意,在使用t检验的时候,一定要注意其前提以及研究目的,否则,会得出错误的结论。
六、常用统计分析软件
国际上已开发出的专门用于统计分析的商业软件很多,比较著名有SPSS( for )、SAS( )、BMDP和等。其中,SPSS是专门为社会科学领域的研究者设计的(但是,此软件在自然科学领域也得到广泛应用);BMDP是专门为生物学和医学领域研究者编制的统计软件。
当然,excel也能用于统计分析。单击“工具”菜单中的“数据分析”命令可以浏览已有的分析工具。如果在“工具”菜单上没有“数据分析”命令,应在“工具”菜单上运行“加载宏”命令,在“加载宏”对话框中选择“分析工具库”。
特别推荐一款国产软件——DPS,其界面见附图。其功能较为强大,除了拥有统计分析功能,如参数分析,非参分析等以外,还专门针对一些专业编写了专业统计分析模块,随机前沿面模型、数据包络分析(DEA)、顾客满意指数模型(结构方程模型)、数学生态、生物测定、地理统计、遗传育种、生存分析、水文频率分析、量表分析、质量控制图、ROC曲线分析等内容。有些不是统计分析的功能,如模糊数学方法、灰色系统方法、各种类型的线性规划、非线性规划、层次分析法、BP神经网络、径向基函数(RBF)等,在DPS里面也可以找到。
怎样选择数据分析方法
从工业革命的传统过程考察,大量的统计方法和技术伴随机器工业和科学实验的进步发展起来。像美国贝尔实验室的工程师休哈特提出的统计质量控制方法、道奇和罗米格首创的计数标准型抽样检验方法、费歇尔的正交实验设计、皮尔逊的相关分析和费希尔的回归分析等,都是在工农业生产和科学实验的数据基础上发展起来的,也有一些方法来源于医学和生物统计学的研究和物理化学实验的数据分析活动中,比如卡方检验、蒙特卡洛随机模拟等。这些方法不是来自单纯的演绎逻辑意义上的推导过程,而是从工农业生产和科学实验的实践中发展起来的,虽然受制于获取数据和手工计算能力的约束,但方法论的创新还是极大地推动了质量统计技术的进步和实际应用的发展。
目前,在质量改进活动中使用统计方法已经相当普及,许多改进项目甚至开始独立设计统计模型方法及相应的检验工具,统计学作为质量改进的基础方法论得到了广泛的发展和应用。促进这些方法走向实践的主要原因是什么?
(一)数据导向。
所谓数据导向,即“有什么数据,选择什么方法”,从质量过程生成的统计数据出发,选择和设计相应的统计方法,有时也根据这些数据设计一些QC课题或者其他质量改进项目。这种导向的特点是有什么数据,就做什么改进,而不是从质量现状或质量改进的关键技术、关键环节、成本、安全及交货期等出发。例如,国内某著名乳品企业采用先进的乳制品生产、消毒、存储和包装设备,每日自动产生大量的过程统计数据和质量检验数据,加上营销部门提供的销售数据和电子商务网站形成的客户订购、投诉和评价数据,构成了复杂的数据系统,实际上已经成为企业大数据系统的雏形。但是,该企业始终没有设计出适应企业自身需求的数据分析系统,也无法使这些数据在系统的质量改进和控制中起到积极的作用,浪费了大量的数据资源和改进管理的机会。
(二)模型导向。
模型导向是指为实证某个新设计或新发现的.统计模型而进行的质量改进过程,这些统计模型的成功应用有些可以获得良好的改进效果,有些则无法适应真正的改进目标。从改革开放30多年中质量管理技术的进步过程来看,我们一直在追赶发达国家的管理手段和技术方法,从20世纪80年代的全面质量管理、90年代的质量标准化管理到2000年代后的六西格玛管理和卓越绩效管理,似乎都体现了方法论上的盲目性,只顾追赶别人的脚步,不知道是否适合自身的发展。
从微观角度审视,一些企业的质量管理技术人员,在质量方法的选择上追求模型的“高大上”,简单参考和引进国外的先进数学模型,用眼花缭乱的数学公式代替了扎扎实实的现场调查和改进过程,把质量管理活动变成了新统计模型的实验室。
(三)工具导向。
统计软件是质量统计的重要工具,从SPC的应用过程可以看到,休哈特博士设计的均值极差控制图就是典型的工具导向的一个应用。由于当时的计算能力和工具不足,因此在作业现场计算方差比较困难,所以休哈特博士采用了计算更为简易的极差来替代方差,用以表征质量过程的波动性。
专业的统计软件是质量改进方法的重要推动力量,一些世界知名厂商也陆续推出面向质量管理的专用模块和程序,这些软件包括SAS、SPSS、
、、等。进入新世纪以来,大数据逐渐成为统计软件工具必须面对的重要对象,数据挖掘(Data )和商业智能( )等方法成为统计软件的主流方法,同时这些方法也被大量应用到质量管理活动中。于是,以统计软件工具为导向的一大批质量管理成果开始出现在各种场合,比如六西格玛黑带项目、可靠性项目、多变量统计过程控制(MSPC)、实验设计( of )等。
与模型导向一样,工具导向的质量改进也是被动的,无法真正面向质量生产的过程,即便是成功的数据分析也只能是统计模型和软件的新例证,而不能成为质量改进的新成果。
(四)案例导向。
案例导向的质量改进过程,来自商学院工商管理硕士(MBA)案例教学实践中,来自企业、院校和研究所的MBA似乎更喜欢来自成功案例方法的质量改进过程。但商业模式和管理经验并不总是可重复和可再现的,质量改进也是如此,商业案例只是对成功管理活动的总结和提炼,而不是输出管理规则和盈利模式。因此,基于成功的商学院案例或者六西格玛成功案例实施的质量改进方法进程中,有很大一部分是无法完成改进目标和任务的。
(五)任务导向。
所谓的任务导向是目前很多企业采用的一种中规中矩的质量统计方法,就是根据企业生产计划和调度要求,提出某项生产或管理任务,从完成任务的目的考虑,采用常规的统计方法或者技术来完成任务,甘特图的使用就是任务导向的一个典型例子。
企业在进行绩效考核的时候,一般多采用多变量线性模型进行综合评价,用来合成多项指标的考核分值,这类统计方法已经成为主流的绩效评价方法,从卓越绩效模式的评价到中小企业的员工绩效考核,大多采用此法,这就是任务导向的方法选择。这些方法是无法进行真正的质量改进的,只是一种较优的质量统计方法选择。
(六)问题导向。
质量统计方法的基本功能是描述、解释和探索,是基于过程或结果的统计数据而进行的有目的的质量改进活动,用以解决企业经营管理过程中出现的各种问题。因此,问题导向的质量统计方法主要是指以质量管理活动中出现的问题为核心改进目标,从问题的现状调查、研判、因果关系判别以及对策、实验和检验等基本目标出发,量身定制或者重新创建新的数据管理或质量改进统计方法,做到因地制宜、对症下药,达到追本溯源、药到病除的效果,这才是真正的应用统计价值所在,也是质量统计方法追求的科学、合理和高效的真正动力。
现实中,一些QC项目和六西格玛项目,就是为了做项目而刻意寻找项目,而不是面向企业生产经营和管理实践活动本身,他们根据比较好的一些质量特性,逆向设计统计方法,模拟和推断出可能的数据改进方法和计算模型,从而达到项目要求或评奖要求,实际上放弃了统计方法对于质量改进的真正贡献,也放弃了科学改进的真正目的,违背了质量改进的最初目的和终极价值。
二、问题导向的质量改进统计方法选择
问题导向的质量改进过程中,要一切从问题的现状出发,拟定合理目标,设计跟进数据集,选择合适的统计方法,带着问题逐步深入才能得到满意的改进效果。
问题导向的质量改进一般应遵循三个基本原则,一是厘定问题,单一目标;二是自顶向下,逐步求精;三是优选方法,单入单出。在这个原则下,质量改进的过程可以分为以下步骤:
(一)提出问题。
和一般的改进过程一样,面向问题的改进过程主要是对于质量问题的定义和选择,这些问题不是上级决定的,也不是财务目标中挑出来的,而应该来自质量经营和管理的实践中出现的质量问题和可能造成不良的机会。因此质量改进的动因本身就具有补偿性质量的能力,如果不出现问题,质量管理的重点则应放在质量保证能力建设和预防性质量的提升方面。
(二)描述问题并抽象成统计模型。
精确定义质量生产和使用过程中出现的问题,并力图把这个问题抽象成为统计模型。比如对于推土机首次故障时间的确认,就可以根据统计建模的经验和方法,考虑通过构建指数模型来计算一批推土机销售以后首次故障时间的期望均值,并以此通过假设检验来设定首次故障时间,并最终实现质量的全面提升。
(三)获得过程和结果的数据。
统计模型方法依赖大量数据和检验,因此模型方法所需要的数据必须和问题产生的过程保持一致,也就是说,必须回到问题发生的现场去收集整理数据并获得数据口径、背景和计算方法的要求。这些数据可以客观地描述、解释和探索质量过程中的细节,可以由此回溯和推断问题出现的可能性、因果性以及相关性,真正地做到“让数据说话”、“让模型作证”和“让结果指向”。
(四)分析建模和验证。
根据得到的数据和所选的统计方法创建统计模型,对问题进行深入的分析和解剖,得到解决问题的基本方向和思路,并设计出解决问题的路径和方法,对这些方法进行实地实验和验证,力求得出解决问题的全局性对策。
(五)方法选择的导向性。
有些问题的出现和解决,似乎有定数,比如因果图就经常被用来解决质量改进中的可能性关联问题。有些研究者更愿意采用复杂的数理统计模型来完成该改进任务,但我们的建议是选择最适合的方法,而不是最先进或者最豪华的方法。面向问题是质量改进的第一动力,因此统计方法的选择只有依照这个原则来进行,才有可能真正起到质量改进的作用,也从而实现质量提升的最终目标。
三、统计数据的来源和统计方法的适应性
(一)数据来源。
传统的企业统计数据来源于三个方面,即企业统计台账、生产记录和检验记录,这些数据是工业生产过程的人工记录,需要对质量生产过程进行人工干预才可以获得,有些数据因此产生了较大的误差和偏移,以至于很多统计方法无法接近真实过程。
目前,我国已进入工业化后期,国际先进的制造技术和设备被大量引进,其中包括具备强大数据生产能力的数控设备、网控设备和电子自动检测装置等,这些先进的电子设备可以大量测定、检验和记录数据,生成连续性、大规模和高精度的同步数据集,此即企业大数据的雏形。在一些先进的制造企业,技术人员已经可以直接从设备上导出大量的数据用以完成SPC、MSA、DOE等经典统计模型的拟合和研判,可以实现真正的大数据同步质量分析、检验和预警目标。
因此,当前企业主要的数据来源有四个方面,一是企业管理数据,包括企业管理统计台账、绩效考据数据、经营管理数据、投资和财务数据、营销数据等;二是企业生产过程数据,包括来自电子设备和网络设备中自动记录和筛选的数据;三是质量检验和验收的数据;四是来自供应链和客户调查的数据。这些数据大部分是连续生产的,主要是定量数据,也包含一些定性数据,这些数据构成企业经营管理活动的新资源。
(二)统计方法选择的基本原则。
问题导向的统计方法选择一般以数据为基础,有的方法要求的数据量比较少,因而容易在实践中使用,比如SPC、DOE等,而有的统计方法则要求更多的数据量和数据质量,比如时间序列和可靠性统计分析方法等。因此,选择统计方法时,应考虑所需要的数据在多个方面的特征和要求。
一是数据的易得性,要能够很容易和低成本地采集数据,对于网控设备来说,还应考虑网络联通问题;二是数据的统计口径、测量设备和测定方法要保持一致,这样的数据才具备基本的分析基础和分析能力;三是大数据的连续性采集能力,一些现场数据的采集必须满足连续性的要求,才可以辅助实施和分析,采用管理学意义上的价值,比如统计过程控制和抽样检验的数据等;四是保持数据采集的可重复性、可复现性和可控制性,大量统计数据的误差只有通过较为严格的方差分析和参数检验、分布模拟可能付诸建模分析和质量改进,因此要保证数据的采集技术不会带来较大的误差影响。
【数据分析中要注意的统计学问题】相关文章:
推广中要注意的数据分析10-17
统计学在教学中的分析10-06
团队中的冲突问题分析09-12
网站推广中的数据分析常识11-13
解析json数据实例分析问题11-10
日语口语中需要注意的问题08-23
素描考试中需要注意的问题09-26
室内色彩设计中要注意的问题10-12
采购管理中需要注意的问题08-25