当前位置:
文档之家› 构建政府统计数据质量管理体系的思考
构建政府统计数据质量管理体系的思考
构建政府统计数据质量 管理体系的思考
主要观点
➢ 准确性≠数据质量:政府统计数据质量内涵十分 广泛
➢ 政府统计数据质量管理体系是政府统计体系的重 要组成部分。
➢ 政府统计数据管理体系总体框架和运行
总体框架包括统计数据质量控制技术体系和政府统计 数据质量保证体系两方面。
实施过程包括建立、实施、评审、及认证等3 个阶段 和17个步骤。
有的认为,统计数据质量指反映客观实际所达到的准确 程度,同时,还有时效性和适用性等要求。统计数据质 量与统计工作质量是两个不同的概念,统计数据为社会 服务的优劣程度是衡量统计工作质量的标准,不能作为 衡量统计数据本身质量的涵义。
有的认为,质量包括三方面的涵义:客观性、一致性与 目的性。
统计数据质量环图
➢ 欧盟统计局的,欧洲统计实践规范(ESCoP)等
目前一些专项研究
➢ Lyberg和Biemer《调查测量与过程质量》 1995年, ➢ Ferrer和Saygin《统计数据隐私》是对被调查者隐私
及数据库保密的专项研究, ➢ 联合国统计委员会,《数据编辑》专门是针对数据
处理的管理与控制, ➢ 欧盟统计局,《模型质量报告》对质量报告与声明
统计数据质量研究三个阶段进程
➢ 第一阶段(20世纪初-30、40年代),统计数据质量研 究是围绕调查数据的准确性,沿着两条思路展开的。
调查数据准确性与抽样误差 调查数据准确性与非抽样误差
➢ 第二阶段(20世纪40年代-70年代),统计数据质量的 研究是围绕建立统计调查误差综合模型以及由此展开的 专项研究展开的。
➢ 政府统计数据管理体系:
统计数据质量控制技术体系 统计数据质量保证体系
➢ 结束语
准确性≠政府统计数据质量
➢ 统计数据质量是质量一般涵义与统计工 作及其结果具体相结合而产生的范畴。
➢ 人们对统计数据质量的认识经历了由浅 入深的过程。
统计数据质量研究的三个阶段 统计数据质量研究的主要内容 对统计数据质量涵义的界定
➢ 《统计百科全书》
数据质量为“满足数据用户需求及预期程度” ,其内涵分解为目的 性、准确性、时效性、一致性与可比性、有用性及清晰性。
➢ 国际货币基金组织(IMF)
一个先决条件及保证诚信、方法健全性、准确性、可靠性、适用性 、可得性。
➢ 加拿大统计局(Statistics Canada)
目的性、准确性、及时性、可得性、可释性、一致性。
第二阶段(20世纪40年代-70年代)
调查误差模型是以整体的方式测定抽样误差和非抽样误差的影响
数据 准确 性与 综合 调查 误差 模型 研究
调查模型的研究最早始于40年代, 1946年汉森(Hansen)和赫维茨(Hurwitz)提出了无回答问题。
60年代,汉森和赫维茨等首次提出完整的调查误差模型。即 均方误差=测量误差+抽样误差+测量误差和抽样离差的协方差+偏差的平方
➢ 欧盟统计局(Eurostat)
目的性、准确性、及时性、可得性与清晰性、可比性、一致性、完整性 。
国内代表的观点
➢ 国内对统计数据质量内涵理解也有不同意见:
有的认为,统计数据质量指数据本身质量与统计数据为 社会服务的优劣程度。仅讨论统计数据质量涵义是不够 的,应把它放到统计工作的质量中来讨论。
(Oak Ridge统计数据质量专题研讨会)
复审、 设计及事前检验
收集 审查与编辑
质量评估 问题定位
分析
估算
或重新调查
目前有关国家、组织的研究
➢ 加拿大统计局,“数据质量手册” ➢ 国际货币基金组织,“数据质量评估框架
(DQAF)”
➢ 国际货币基金组织(IMF),统计数据发布通
用系统GDDS、SDDS
➢ 第三阶段(20世纪70年代-现在),统计数据准确性的 研究继续深化,同时,质量的涵义扩大,对统计数据质 量研究发展到如何建立有效的保证、控制、评估体系。
一是统计数据准确性的研究得以深化 二是统计数据质量管理及控制成为政府统计研究的热点
统计 数据 准确
性
第一阶段(20世纪初-30、 40年代)
抽样调查与普查的争论(20世纪初期)
准确性与 抽样误差
抽样调查地位的确立(Kiar、Bowley)
Neyman的“可测的抽样设计” (奠定抽样技术基础,数据质量的里程碑)
准确性与非 抽样误差
Bowley (1915)有关就业和贫困问题的调查中的研究
30、40年代 美国普查局人口普查时对非抽样误差的研究 , 印度政府粮食产量估计时对非抽样误差的研 究。
在估计方法上,提出了广义回归估计量、校正估计量。 提高了设计精度,也有利于减少非抽样误差(如无回答误差和抽样 框误差)。
在方差估计上,出现了复杂样本的方差估计技术。
如:①平衡半样本方法,②刀切法与自助法等再抽样方法,③线性化 方法等
第三阶段:20世纪70年代-现在
统计数据质量由准确性 发展到更广泛的内涵,
国外的代表性观点 国内的代表性观点
上世纪70年代“石油危机”后,促使人 们
对政府统计数据质量进行综合的控制。 Dalenius(1983),数据质量综合控制包括调查 设计控制和调查实施控制。调查实施控制分为预 防控制和过程控制。
统计数据质量管理及控 制体系研究成为热点
1988年4月美国田纳西Oak Ridge统计数据质量专题 研讨会上,提出统计数据质量环一般内容并就统计 数据质量控制达成共识。
60、70年代后,旨在找出均方误差中占较大份额的组成部分,及减少的方法 (对子样本重复计量、交叉子样本的方法以及二者相结合的方法)
同期,也出现一些专项研究: 60年代,Warner提出对敏感性问题调查的随机化方法
Hale Waihona Puke 第三阶段:20世纪70年代-现在
数据 准确 性的 研究 得以 深化
在准确推断上,出现了模型化推断理论以及模型辅助设计思想。
美国、意大利、瑞典的农业普查中都进行了尝试
目前有关国家、组织的研究和一些专项研究
“统计数据质量“代表观点
➢ Dalenius 1983 年提出“质量测量向量”为:
Q(.)=(准确性、成本、保密性、相关性、时效性、详细性…),以此来测定
一项调查的适用性。
➢ 联合国统计局于1980年对官方统计资料提出的八项要求,实际也是对 统计数据质量特性的一个规定。
做了专门研究, ➢ Charlton,“欧盟编辑 (Euredit)”课题,针对缺失数