第二节 项目参数的条件估计(第1页)
第二节项目参数的条件估计
所谓参数的条件估计,就是在某些参数已经确定的条件下,估计模型中的未知参数。在认知诊断评价理论模型中,参数的条件估计有两种情形:一种是在被试属性掌握模式等参数已经确定的条件下,估计模型中的项目参数;另一种情形就是,在项目参数已经确定的条件下,估计被试属性掌握模式等参数。
项目参数的条件估计方法主要有两种:一种就是基于已经确定的被试参数条件,利用样本作答反应数据,直接求取基于项目反应函数的似然函数极大值点对应的项目参数,称为经典条件估计;另一种是基于边际分布的极大似然估计方法,称为边际极大似然估计(marginalmaximumlikelihoodestimation,MMLE)。本节只介绍边际极大似然估计及其EM算法。
一、边际分布
边际极大似然估计仍然是在极大似然估计方法的架构之下估计项目参数,但是在提供被试参数作为已知信息时,结合了贝叶斯统计思想。边际极大似然估计是以边际分布(marginaldistribution)为基础的。因此,我们首先需要明白边际分布的概念。首先看一下表7-1。
表7-1边际分布示意表
表7-1包含了两个离散型变量:变量ξ和变量η。pij为两个变量的联合分布列,而联合分布列的右侧一列,即pi·是由第i行pij对j相加得到,它表示变量ξ的分布列,相应地,在联合分布列的低端一行,即p·j是由第j列pij对i相加得到,它表示变量η的分布列。通过这种表示方式,变量ξ和η各自的分布列就在联合分布列(ξ,η)的边上,因而,人们就形象地称变量ξ和η各自的分布列是联合分布列(ξ,η)的边际分布。
由以上可以知道,如果已经知道二维变量的联合分布列,那么,单个分量的边际分布列也就可以根据联合分布列得到。当然,已知所有单个变量的分布列,却并不能唯一确定两个变量的联合分布列,这一点,从表7-1中也是容易直观地看出来的。
现在回到项目参数的估计问题上来。假设已获得n个被试在m个项目上的测验作答得分矩阵U,共包括r种不同的被试作答反应模式(respoern,由于有些作答反应模式可能重复出现,因此r不一定等于n),记第1种作答反应模式为ul(l=1,2,…,r)。那么,对于属性掌握模式为αv(v=1,2,…,2K;K为测验属性个数)的被试,其得到作答反应模式为ul(作答反应模式个数不一定等于属性掌握模式个数,因为有些属性掌握模式对应的作答反应模式可能没有实际出现)的概率为:
如果借鉴贝叶斯统计思想,把得到作答反应模式ul的被试属性掌握模式αv看作来自一个已知分布的随机变量,而不是某个固定的常数。这时,由于随机变量可以取各种不同的值,当然,根据该随机变量的已知分布,各种取值的概率是不一样的(均匀分布除外),而且各种取值对于得到某个具体的作答模式ul的概率也是不一样的。假设该已知分布的密度函数为g(αv),这也就是属性掌握模式αv的先验分布,于是,就可以得到来自随机变量的某个属性掌握模式αv在作答反应模式ul上的概率函数为:
进一步地,可以得到关于某作答反应模式ul的边际概率函数(unarginalprobability)如下:
然而,由于属性掌握模式αv的概率分布是离散的,因此,根据αv的先验分布g(αv)对所有可能的属性掌握模式的条件似然函数进行加权累加,这相当于基于单维连续变量的条件似然函数的积分过程。于是式(7-10)重写为:
其实,即使是连续变量的积分,在计算机实现的过程中,也总是会转换为加权累加的形式。比如,对项目反应理论中的连续变量——被试能力水平进行积分时,在计算机实际实现过程中,无穷积分一般就会采用基于有限积点(quadraturepoints)和相应积点系数(ts)或权重(weight)的高斯-厄米特(Gauss-Hermite)数值积分算法进行近似估计。对于正态密度函数,经验上一般会在某个合理范围内,采集40个积点,包括20个正积点、20个负积点,对积分进行近似计算。于是,式(7-10)总是可以转换成如式(7-12)所示的用高斯-厄米特数值积分算法进行的近似估计:
其中,Xk为在连续变量上选择的代表性积点,在此例中代替具体的θ取值,q为积点个数,A(Xk)为积点对应的系数或权重,且有:
其实,从几何解释的角度,定积分就是求概率函数曲线在某个区间内与横轴所围成的区域面积,如图7-2所示。
图7-2函数的定积分解析图
对于连续型随机变量来说,其概率函数曲线也是连续的,这时,概率函数曲线在某个区间内与横轴所围成的区域面积的求取,就可以通过以下方式得到:首先,把这个区间分成有限个更小的区间;然后,求取这些小区间的面积,并累加后得到整个面积的值。如果这些小区间的间距足够小,那么,这个区间横轴的中值就可以作为该区间的代表值(积点),这个区间的面积就可以作为这个代表值的权重(积点系数)。这个区间的面积经常可以通过查相关变量的函数分布表来得到,从而用这些积点和积点系数代替积分过程进行运算。
二、边际极大似然估计及其EM算法
有了以上这些认识基础之后,我们就可以开始对边际极大似然估计进行具体的介绍。接下来的内容将分成两个部分:首先,介绍边际极大似然估计及其EM算法的提出;其次,结合认知诊断评价理论中的DINA模型,解释边际极大似然估计及其EM算法在DINA模型项目参数估计中的应用。
按照被试参数作为已知条件的呈现模式,可以把估计项目参数的方法分为两种:①把被试看作来自某个已知分布总体的代表性随机样本,于是可以通过基于对该已知分布进行积分的方式来估计项目参数;②把被试看作一个未知分布的随意(arbitrary,注意不是随机)样本,按照联合极大似然估计的方式同时估计被试参数和项目参数。在这两种方法中,第二种方法在实际应用中可能存在很大问题。在参数估计中,项目参数被认为是结构参数(structuralparameter),根据某个测试规划命制好的测验一般不会随意改动,其结构和参数是相对固定的,可以当作稳定参照的工具,测验的项目数量一般也是固定的且规模较小。而被试参数被认为是讨厌参数(er),如果被试是一个随意样本,那么,每增加一个被试就会增加一个随意参数,导致项目参数无法获得稳定的一致性估计,这就违反了项目反应理论参数不变性的特性。基于第一种方法的极大似然估计,称为边际极大似然估计,它能够保证关于项目参数的一致性估计,因此成为现在参数估计中应用较广的方法之一。
要实现参数的边际极大似然估计,首先需要构建基于边际分布的似然函数。
鲍克和列波曼首次使用基于边际分布的极大似然估计方法,来估计双参数正态肩型模型(nivemodel)的项目参数。在对被试作答数据进行分析时,主要关注被试在所有题目上的整体作答反应模式(respoern),以及在各种作答反应模式上的被试分布状态,或者叫作答模式分布,认为相同作答模式的被试的能力水平也是相同的,不同的作答模式的被试的能力水平也是不同的,被试能力与作答模式之间理论上应该是对应关系。从样本的角度看,这种方法关注在每种作答模式上有多少个被试,以及整个被试作答模式的分布状态。当然,作为具体计算时的项目反应模型仍然是基于单个项目的。作为二值记分题目类型,每个题目的作答结果只有两种可能:对(得1分)和错(得0分)。这样,被试在M个题目上的所有作答模式一共就有2M种可能。但是,对于某批被试在某次具体测验上的作答结果来说,最终的样本得分矩阵可能出现以下情形:有些作答模式根本没有出现,而有些作答模式则出现许多次。在建构基于作答模式的似然函数时,应该要注意这种情形的存在。
在测验作答得分矩阵U的基础上,可以获得被试作答模式样本分布状态。假设某种作答模式的观察次数为rl(l=1,2,…,r),相应地,该作答模式的实际样本观察比例为P(ul)=rlN。就像前面在分析某个作答反应模式ul的被试时,将αv看作一个已知分布的随机变量一样,现在从另外一个角度来分析整个测验的作答得分模式。假设把全部N个作答被试看作他们所代表总体的一个随机样本,那么,期望落于某种具体作答模式的被试比例就应该是P(ul)=E[p(ul)],即观察比例的期望,这个期望比例其实来自前面已经讲到的关于作答模式ul的边际分布,即式(7-10)。实际作答样本中相应模式的期望作答被试次数就应该是:
在以上分析的基础上,可以对当前得分矩阵建立如下式子:
这个式子表示的就是基于边际分布的联合似然函数。式(7-10)中,被试参数信息已经通过其已知概率分布函数加权累加的形式作为已知条件给出,因此,这个式子中的未知参数就只有项目参数了。
建立了如式(7-15)所示的似然函数后,接下来的工作就是找到能够使似然函数值达到极大值点所对应的项目参数估计值。这个问题的解决同样可以转化为求解似然函数对未知参数的一阶导并令其为0的方程根问题,而这个问题又同样可以通过牛顿-拉夫逊迭代的方法加以解决,当参数的迭代校正值小于某个预先设定的估计误差时,得到的参数估计值就是能够使似然函数值达到最大的项目参数的最终估计值。具体的解决过程可以阅读我们在下面即将要介绍的鲍克和阿特金基于该方法的参数估计改进实现方案。