360 likes | 705 Views
Bayesian Tangent Shape Model For Face Alignment. 准备知识. ASM 算法 EM 算法. ASM(1/7). 一个物体的几何描述分为两部分: 相似变换(旋转、缩放、平移) 形状. ASM(2/7). ASM 的任务: 得到姿态参数 得到形状的低维表示,即参数 b ASM 匹配的基本过程: 搜索 在马氏距离下搜索与相应灰度梯度分布模型最匹配的特征点 调整 对搜索得到的形状进行调整,以确保获得的形状是可用的. ASM(3/7). ASM 模型: 要完成 ASM 搜索与匹配的过程,必须要有相应的统计模型做支撑
E N D
准备知识 • ASM算法 • EM算法
ASM(1/7) • 一个物体的几何描述分为两部分: • 相似变换(旋转、缩放、平移) • 形状
ASM(2/7) • ASM的任务: • 得到姿态参数 • 得到形状的低维表示,即参数b • ASM匹配的基本过程: • 搜索 • 在马氏距离下搜索与相应灰度梯度分布模型最匹配的特征点 • 调整 • 对搜索得到的形状进行调整,以确保获得的形状是可用的
ASM(3/7) • ASM模型: • 要完成ASM搜索与匹配的过程,必须要有相应的统计模型做支撑 • ASM模型分为: • 每个标注点的灰度梯度分布模型 • 点分布模型
ASM(4/7) • 每个标注点的灰度梯度模型的构建 • 取标注点 的profile,并计算得到该profile的归一化的灰度梯度向量 • Profile灰度采样: • 梯度 • 归一化 • 若训练集中有M个形状,每个形状有N个标注点,那么对于每个标注点 ,有协方差矩阵 ,这N个协方差矩阵就构成 了灰度梯度模型
ASM(5/7) • 点分布模型的构建 • 对于单个形状,每个标注点的坐标为 • 将所有标注点的坐标串接起来,就得到一个形状向量 • 若训练集中有M个形状,那么我们就有M个形状向量 • 于是就可以训练形做PCA,得到能描述 训练集形状变化的特征值与特征向量, 即得到了点分布模型
ASM(6/7) • ASM搜索 • 对沿标注点 的profile线的每个像素点 取梯度向量 • 搜索点为:
ASM(7/7) • ASM调整 • 假定经过一步搜索之后得到形状 • 将形状进行PCA投影得到参数b • 利用b重新计算形状
EM(1/3) • 问题: • 如果数据样本的各种特征都是完整的,那么我们可以直接利用最大似然估计来求得使对数似然函数最大化的参数。 • 但如果数据样本的特征并不是完整的,例如 ,那么最大似然估计就会失效, EM正是解决根据可能丢失特征的样本来学习分布参数问题的方法。
EM(2/3) • 核心思想: • 根据已有的数据来递归估计似然函数。 • 给定一个样本集 ,假定其中的一些特征丢失了,即 , 表示丢失的特征。则这些不同的特征可以用两个集合表示即 和 。 • 似然函数
EM(3/3) • 算法 begin initialize do E步:计算 M步: until return end
Abstract • 本文提出了一种基于切形状估计的贝叶斯推断方法,即BTSM。 • 相似变换系数与形状参数均通过最大后验估计获得。 • 切形状的更新由两个形状向量的加权完成,即观察形状向量在切空间的投影以及由形状参数通过PCA重建所构成的形状向量。 • 形状参数通过乘上一噪声变化比率进行调整,这样可将截断函数转换成连续函数。
切空间(1/4) • 一个集合的形状分布是一个高度非线性的黎曼流形。 • 如果将形状集合对齐到平均形状 (相似变换,procrustes算法),那么形状集合就位于平均形状附近。 • 若对齐后的形状集合位 于平均形状附近,那么 Procrustes距离是欧式距 离的一个很好的估计。
切空间(2/4) • 由于切空间的任意向量均可由 线性表示,于是切空间 维度为 ,即该切空间的补空间由向量 张成。
切空间(3/4) • 于是可求切空间的协方差矩阵 • 由于任意Xi均可由 线性表示,共有四个0特征值对应特征向量为
ShapeAnalysis的贝叶斯阐述 • 包括两个模型: • 一个表示了在切空间中的先验形状分布 • 另一个为图像空间中的似然模型 • 基于这两个模型可以推导出模型参数的后验分布
切空间先验模型 • 对传统的PCA应用概率扩展,可得:
切空间先验模型 • 经过简单的代数变换,可得: • 通过增加各向同性的高斯噪声,将PCA与概率联系起来,于是就可以计算模型参数b的后验。
自适应似然模型 • 要将图像的特征(即profile)整合到贝叶斯框架中,就需要有一个似然 ,但是I与X并不在同一坐标系中,并且 通常是非线性的。于是用 代替 ,(y即profile搜索所得的Shape,称为观察形状向量。
自适应似然模型 • 观测形状向量y与真正形状之间的距离可以被模型化为一个自适应的高斯:
Posterior • 现在我们有 • (1) • (2) • 将(1)代入(2),两边同乘
Posterior • 因为 和 是独立的,所以 • 由于 是相互独立的,又
EM—E步 • 给定数据集(x,y),模型参数的后验为以下二式的积: 求最大似然的期望
EM—E步 上式中的参数 均为上次迭代的参数
实验 • 稳定性提高 • 准确性提高