
4.4 证据理论在图像融合中的应用举例
假定我们可以获取学生在听课时的图像信息,如何判断学生听课的专注度,这是一个很富挑战性的课题。假定针对一个学生进行判别时,将人体识别框架设定为Ω={左顾右盼,埋头,端坐,不确定},分别用h1、h2、h3和U来表示,将人体的x轴质心变化、y轴质心变化、面积变化和角度变化作为四个独立的证据体:M={X,Y,S,θ}。
当人体处于端坐状态时,这四个证据体的数值基本保持不变;当人体左顾右盼时,人体的质心坐标和方向会不断发生变化;当人埋头时,人体的y轴质心坐标会发生变化,同时人体的面积也会显著减小。
这三种人体行为的图像表示,如图4.2所示。

图4.2 三种人体行为的图像表示
a)端坐b)左顾右盼c)埋头
结合D-S证据理论,在设定的人体辨识框架Ω下,可以得到下面的信息融合模型:

其中,X代表x轴质心坐标变化;Y代表y轴质心坐标变化;S代表面积变化;θ代表角度变化。K是归一化因子,它的定义如下:

针对实验过程中收集到的证据体,首先对视频中所提取到的特征的每个证据体进行时间域上的划分,将整个视频分为n个部分,每个部分可以计算出这四个证据体的变化是否超出了设定的阈值,由此可以得到每个证据体在这个时间段上的概率分配函数,之后将四个证据体进行融合,可以得到三种坐姿的概率分配m(k),也就得到了在这个时间段中人体的坐姿情况。在实验中,使用m1(h1k)、m2(h2k)、m3(h3k)、m4(h4k)分别表示x轴质心坐标变化、y轴质心坐标变化、面积变化以及角度变化这四个证据体的值,k表示第k个统计单元,其中1≤k≤n。
对每个证据体得到的信息进行时域范畴的融合,可以得到:

其中,K是归一化因子。

然后,对四个信息源的时域融合信息进行空间上面的融合,得到最后的时空融合结果:

其中,K是归一化因子。

在此,取l=4,最后得到的融合结果是学生在听课这一段时间中的行为评价结果,可以用该结果作为学生学习状态评价的一个初步依据。
学生行为分析与推理决策模型的实验流程图如图4.3所示。

图4.3 学生行为分析与推理决策流程图