梧桐文学

第二 CDCAT中常用认知诊断模型(第3页)

天才一秒记住【梧桐文学】地址:https://www.wtwx.net

经过以上化简,融合模型完成了对统一模型的再参数化,使得新模型不但是可识别的,而且还保留了统一模型的可解释性。

融合模型已经有了一些实际应用研究,如Hartz(2002)首先将其应用于PSAT测验的评估,Jang(2009)将其用于阅读理解测验的研究。

在国内,车芳芳(2010)最先将融合模型用于初中代数的认知诊断研究。

五、RRUM模型

Hartz(2002)在用融合模型分析PSAT测验的数据时发现,对于多数题目,融合模型的表达式里的最后一项Pci(θj)存在的意义并不大,于是可以将其去掉,以进一步简化模型。

由此,他提出了“缩减的再参数化统一模型”

(ReducedReparameterizedUnifiedModel,RRUM)。

RRUM模型将答对一道题的概率建模为被试的KS和题目参数的函数,那就是:题目的难度参数和区分度参数,其中后者描述了一个特定属性的掌握情况将在多大程度上影响答对这道题的概率。

通过对每个题目的每个属性都分配一个区分度参数,融合模型和RRUM模型允许各种KS的被试答对题目的概率各不相同,因此它们比下文即将提到的DINA模型要有更大的灵活性,但它们也比DINA模型更复杂。

RRUM模型的表达式是

这里的难度参数π*i是掌握了第i题所考查的全部属性的被试答对这个题目的概率。

π*i较大的题目,说明它所考查的属性能有效解释被试对该题的反应。

区分度参数r*ik指,被试未掌握αk却答对了第i题的概率与掌握了αk并答对该题的概率之比。

在一道题中,某个属性的区分度参数越小,就说明该属性在该题目中越重要。

下面用一个例子说明RRUM模型中被试正确作答概率的计算。

设第i个题目考了两个属性,π*i=0.8,r*i1=0.2,r*i2=0.3,那么根据公式(6.2.3)可以计算出:

若被试j对这2个属性都没有掌握,则答对该题的概率是

Pji=π*i·r*i1·r*i2=0.8×0.2×0.3=0.048。

若被试j只掌握了属性1,则答对该题的概率是

Pji=π*i·r*i2=0.8×0.3=0.24。

若被试j只掌握了属性2,则答对该题的概率是

Pji=π*i·r*i1=0.8×0.2=0.16。

若被试j对这2个属性都掌握了,则答对该题的概率是:Pji=π*i=0.8。

为了研究方便,令αl(l=1,2,…,L且L=2K)为被试j可能拥有的KS。

于是,在RRUM模型下,KS为αl的被试,答对第i题的概率是

这样,全体j个被试在第i题上的正确作答概率就被归为L种情况,在实际计算中可以大大减少运算量。

&emplin(2007)用MCMC算法实现了对RRUM模型的参数估计。

Feng,Habing和Huebner(2014)则提出了相对简便一些的EM算法,并对ECPE测验的数据进行了分析。

六、DINA模型

根据心理计量学手册(DiBello,Roussos,&Stout,2007),决定性输入噪音“与”

门模型(Deterministioisy‘And’Gate,DINA)的历史可以追溯到Macready和Dayton(1977)的思想。

Haertel(1984,1989)正式提出了这个模型,将其命名为限制性潜在类别模型(Restrit),而此后的Jusma(2001)将它的名字改为DINA模型。

该模型因为仅涉及“失误”

和“猜测”

两参数,真正实现了对认知诊断模型的简化。

其中,ηji是一个二分变量,表示被试j是否掌握了第i题所考查的全部属性。

gi表示第i题的猜测参数(GuessParameter),指的是“未掌握该题所测全部属性”

本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!

如遇章节错误,请点击报错(无需登陆)

新书推荐

斯坦索姆神豪九零后天师一睁眼,我穿成两个熊孩子后娘桃桃乌龙满级大佬从斗罗开始重生后我成了全大陆最横的崽狂探我的重返2008我真不知道原来我家这么有钱斗破乾坤,龙王求亲请排队重生之惊羽夫人每天都被套路从水浒开始的好汉之旅星际第一女将极品赘婿八零之珠光宝气公子实在太正义了棋魂:随身阿尔法狗穿成反派的病美人妹妹[穿书]洪荒之太清问道袖藏天光破茧一剑倾国空间农女:团宠娇妻甜又飒权游:睡龙之怒