论文笔记:Exploiting Vector Fields for Geometric Rectification of Distorted Document Images
1 广告
[1] 利用向量场实现扭曲文档图像的几何校正(https://openaccess.thecvf.com/content_ECCV_2018/papers/Gaofeng_Meng_Exploiting_Vector_Fields_ECCV_2018_paper.pdf)
通过向量场实现扭曲的文档图像的几何校正过程。 该论文详细描述了一种非深度学习的方法用于消除图像中的扭曲现象,在2018年的ECCV会议上获得了广泛的关注

本文提出了一种对手持相机捕获的扭曲文档图像进行几何校正的无分段方法。该方法利用图像的本征向量场来恢复三维页面形状。基于卷曲页面形状为一般圆柱曲面的假设,通过对矢量场的加权多数投票,估计出相机和三维形状模型的相关参数。然后通过欧拉方法求解常微分方程,得到曲面的空间准线。最后,通过将估计的3D页面表面压扁到平面上,可以纠正图像中的几何畸变。我们的方法可以利用失真文档图像中可用的不同类型的视觉线索来估计其向量场,以恢复3D页面形状。与最先进的方法相比,最大的优势是它是一种无段的方法,不需要提取弯曲的文本行或文本块,这仍然是一个非常具有挑战性的问题,特别是对于扭曲的文档图像。因此,我们的方法可以自由地应用于具有极其复杂的页面布局和严重的图像质量退化的文档图像。通过大量实验验证了该方法的有效性。
关键词: 文档图像处理,几何校正,矢量场,三维形状恢复,OCR
2 引言
近年来,在数字化纸质文件处理过程中,便携式相机的应用热度持续攀升。
到目前为止,在解决这一具有挑战性的难题方面已投入大量精力。现有解决方案主要可分为两类:一类是基于图像处理的方法(引用文献范围),另一类是基于物理建模的方法(引用文献范围)。前者主要依赖于从图像中提取局部特征(如弯曲的水平文本行或文档边缘)进行局部矫正(引用文献),而全局矫正则通过整体变换实现(引用文献)。这些方案通常能够生成接近完美校正的效果,并对OCR处理非常友好。然而这种方法仍存在缺陷:由于缺乏对页面物理形状的理解 未达到完全消除失真的目标。
后来的研究逐渐转向更为注重细节分析的方向,并取得了显著进展[参考文献: ①至⑦]。研究者通过构建三维页面表面模型与相机模型相结合的方式对文档图像进行解析与建模处理,在这一过程中着重关注并校正几何畸变现象的影响机制。不同研究的核心区别在于其在三维重建方面所采用的具体算法与理论基础。早期的一些研究主要依赖于shape-from-shading技术[参考文献: ⑥、⑨]来推断文档的三维形状特征,在这种情况下该类方法特别适用于扫描得到的文档图像,在这种场景下光照条件较为理想。然而,在真实环境中复杂的照明条件使得这类方法难以捕捉到手持摄像机下的真实场景效果。
更可靠的页面形状恢复方法是采用3D扫描仪[9,20,15]或从不同角度采集的多幅图像[11,18]这两种方式。这些方案的优势在于能够处理具有复杂几何变形的文档图像。不过,在实际应用中由于需要配置额外设备并处理大量图像使得它们在研究中并不十分受欢迎相比之下基于单一文档图像的方法依赖于提取视觉特征如弯曲行文来恢复三维页面形态这些方法的一个局限性在于必须先识别并分离弯曲行文区域这一步骤对于非专业人员来说往往极具挑战性尤其是在处理严重变形的文档时更是如此此外这些方案还容易受到页面布局复杂性的困扰特别是在文本稀疏或背景占主导面积的情况下表现尤为明显
本文阐述了一种基于曲面图像本征向量场的几何校正方法。假设页面呈现为一般的圆柱形曲面,则通过基于向量场加权多数投票的方式恢复相机参数及页面形状信息。经由平滑估计的页面表面完成图像矫正工作后可获得较为理想的校正结果。该方法是一种无需提取弯曲水平文本行或文本块的无段式方法,在面临诸多技术难点的情况下仍未能得到彻底解决[1,21]。因此我们提出的这种方法对于文档布局以及各类图像质量退化表现均展现出很强的鲁棒性特性这些退化现象通常出现在相机捕获的文档图像中包括严重失真不均匀阴影混乱背景以及严重模糊和噪声干扰等图1展示了我们方法对手持摄像机捕获单个扭曲文档图像所实现的矫正效果以及重建的三维页面形态图示
3 方法
3.1 向量场和假设
文档图像中的向量场源自相机[22]透视投影后的卷曲表面现象。常规地讲,在打印过程中呈现的一般文档内容如文本块、图形元素或表格信息都是按照一组平行且相互平行的基础线条进行布局印刷的。这些基础线条虽然无法直接观察到它们的存在但可以通过分析文档[21]中的具体信息加以推断确定其位置与走向方式一旦页面被扭曲后投射至图像平面基础线条也随之变形形成一个歪斜的空间矢量网络其中每个点处的方向代表了相应基础曲线在该区域的具体走向趋势因此这种空间矢量网络不仅记录了原始三维页面形态特征还完整保存了相机工作参数所包含的关键信息
为了从向量场恢复三维页面形态信息, 我们需要首先设定若干基础假说。第一假说是: 卷曲页被假定为一种通用圆柱形表面(GCS)。这种设定特别适合用于模拟一本翻开的厚装帧书籍中的页面形态, 这一方法已被现有文献采用过(如[14])。第二假说是: 通用圆柱面刻线与基准线保持正交关系。这种正交性假说在模型参数估算过程中扮演了关键角色,并将在后续章节详细阐述。第三假说是: 页面表面被假定为光滑状态。基于此假说, 我们能够有效应对显著噪声和异常值对GCS空间基准的影响
3.2 模型参数估计
基于上述假设前提条件,在相机参数与页面形状之间建立了关键联系。观察到圆柱面表面的刻线呈现出一组相互平行的直线特征。经过相机透视投影作用后,则会交汇于一个共同的消失点(v_0, v_1)坐标位置上。类似地,在分析圆柱面上沿同一边缘分布的曲线基线上切向量时也会发现它们彼此平行的特点。经过透视投影变换后,则这些切向量将会汇聚至同一个消失点(x, y)坐标位置上。基于基线与刻线正交性的假设基础之上,则可得每个(x, y)坐标满足相应的消失线方程表达式:v_{0} x + v_{1} y + f^{2} = 0 \tag{1}其中f代表相机焦距长度参数。图2展示了投影视觉中消失点与切向量之间的几何关系图景:即基线上切向量对应的消失点必须位于同一条直线上才能满足几何约束条件这一事实依据上展开讨论随后我们将应用这一理论模型来估计系统参数并从文档图像中的矢量场中重构三维页面形态特征

基于积分变换的方法用于向量场估计 在文档图像分析中 向量场被定义为其基线上的单位切矢量集合 因此 在计算图像局部方向方面 矢量场的估计相当于对图像进行局部方向重建 该问题在扫描文档图像倾斜估计的研究中具有重要地位 并且全局偏角为[2]的情况已被广泛研究 本研究引入了中间积分图像来辅助计算每个像素处的不同角度投影 并利用Radon变换的方法实现了对局部方向的有效估计 为了提高计算效率和准确性 在每个像素处有效地进行局部投影计算 尽管由于局部投影带来的稀疏性和噪声特性 但通过加权多数投票的方法 我们能够实现模型参数的有效鲁棒估计

在投影刻线中找到交汇处 (v_0, v_1) 是确定消失点的过程。通过应用Radon变换技术,在图像中识别潜在存在的投影刻线,并将这些线条作为候选选项进行投票。
考虑带有弯曲的一般圆柱面的情况,在经过透视投影后的位置上观察到的特点是该曲面上仅有的直线形态会以笔直的方式呈现于图像中。通过分析文档图像中的多个视觉特征如边缘框、文本块以及图片框内的竖直线或字符竖笔划等信息能够有效地识别出这些直线形态的存在与否。为了识别潜在存在的线条特征,在处理过程中采用了Radon变换方法以提高检测效率与准确性。
Radon变换是图像沿一组直线的线积分。设\mathcal{R}(\rho, \theta)为图像边缘映射的Radon变换,其中(\rho, \theta)定义一条直线,沿直线计算边缘映射的线积分。我们计算直线被投影的可能性,作为Radon变换沿\rho轴的局部方差,即:
\mathfrak{L}(\rho, \theta)=\int_{\rho-\delta}^{\rho+\delta}(\mathcal{R}(\tilde{\rho}, \theta)-m(\rho, \theta))^{2} d \tilde{\rho} \tag2
其中\delta是计算局部方差的窗口大小,m(\rho, \theta)是沿\rho轴的Radon变换的局部平均值,定义为:
m(\rho, \theta)=\frac{1}{2 \delta} \int_{\rho-\delta}^{\rho+\delta} \mathcal{R}(\tilde{\rho}, \theta) d \tilde{\rho} \tag3
在球面上采用加权多数投票法来估计消失点。为此,我们首先在平面投影下引入(v_0, v_1)的球坐标。平面投影将球面上的点映射到平面上的唯一点,如图4所示。(v_0, v_1)对应的球坐标表示为(\alpha, \beta),其中\alpha和\beta为两个角,满足:
\left\{\begin{array}{l} v_{0}=d \tan \alpha \cdot \cos \beta \\ v_{1}=d \tan \alpha \cdot \sin \beta \\ \alpha \in\left[0, \frac{\pi}{2}\right), \beta \in[0,2 \pi) \end{array}\right. \tag4
其中d是球的直径。使用球坐标的好处是它们是有界的。因此,我们可以将它们离散在一个给定的范围内,并根据预测裁决的可能性进行投票。

投票机制如下:针对每一个由(ρ,θ)表征的候选预测刻度线,在其对应的满足预测刻度方程的所有(α,β)配对上进行投票;具体而言,在式(2)所描述的概率分布下计算各候选配对的可能性值,并将其作为该配对对应的票仓权重;在式(5)的基础上实现了从L(ρ,θ)空间到票仓空间V(α,β)之间的转换映射关系;随后通过统计票仓空间V(α,β)中得票最高的配对来确定消失点的最佳估计值;图5展示了投影刻度消失点估计的具体示例;一旦确定了消失点位置,则可恢复图像中所有投影方向上的刻度线信息。

已知(v_0, v_1)的估计,我们可以根据式(1)投票确定相机的焦距f。为此,我们首先对一系列投影裁决进行抽样。对于每个投影刻线,我们随机选择几对前景点,例如p和q,那么切线的消失点可以很容易地计算为p和q处的切线交点,即:
\left\{\begin{array}{l} x=\frac{\rho_{p} \cos \theta_{q}-\rho_{q} \cos \theta_{p}}{\sin \left(\theta_{q}-\theta_{p}\right)} \\ y=\frac{\rho_{p} \sin \theta_{q}-\rho_{q} \sin \theta_{p}}{\sin \left(\theta_{q}-\theta_{p}\right)} \end{array}\right. \tag6
其中(x, y)是切线的消失点,θ_p和θ_q分别是切向量在p和q处与x轴的夹角。ρ_p和ρ_q的计算公式如下:
\begin{array}{l} \rho_{p}=y_{p} \cos \theta_{p}-x_{p} \sin \theta_{p} \\ \rho_{q}=y_{q} \cos \theta_{q}-x_{q} \sin \theta_{q} \end{array} \tag7
其中(x_p, y_p)和(x_q, y_q)分别为图像中p和q的坐标。

在式(1)中引入了原点与消失线之间的符号距离变量ρ,并定义为:
\rho=\frac{x v_{0}+y v_{1}}{\sqrt{v_{0}^{2}+v_{1}^{2}}} \tag8
我们不直接将票投向函数f,并根据式(6)估计出的坐标(x,y),赋予ρ这个值的好处在于:
它能够规避由(x,y)或(v_0,v_1)趋于无穷大时带来的符号翻转问题。
这种情况下一个小数值的变化可能会导致(x,y)与(v_0,v_1)中的符号发生颠倒。
焦距f被最终确定为:
f=\sqrt{\left|\rho^{*}\right| \sqrt{v_{0}^{2}+v_{1}^{2}}} \tag{9}
其中符号\rho^*代表具有最高票数的那个\rho。如图6所示,在投影刻度线上通过多数投票法确定了实例中的焦距值。此外,在图表中我们还标注并描绘了切线消失点及其对应的估计消失线位置。
3.3 页面表面三维重建
- 估计单位切向量。
- 一般情况下, 沿着一条称为准线的曲线, 直线(即尺子)被平移生成圆柱面。
- 通过计算空间基线上单位切向量的方向, 可以推导出准线的方向信息。
基于我们所做的假设,在空间基线中确定的方向向量是由其图像上的消失点唯一确定的。这些消失点则符合公式(1)所定义的方向线方程。由此可知,在这种情况下我们可以引入一个参数φ来表示每个方向向量,并且这个参数φ对应于方向向量与消失线L之间的角度(如图7所示)。

参数\phi代表每个预期线条是估计的主要投票点处的一条线条。对于投影线条上的每一个点p,我们首先确定其切线与消失线L相交的位置为坐标(x, y)(如图7所示)。随后确定\phi值,并执行投票过程。
考虑到矢量场的稀疏性和噪声的影响,在页边距或摄影区域中的投影刻线估计可能会受到干扰并出现误差。基于页面表面呈现光滑特性的这一前提条件,在细化估计时我们采用了平滑化方法。为此目的,在处理投影裁决序列ℓ_k(1≤k≤n)时我们采用了抽样方法。为此目标,在对每个预测结果进行分析后我们将它们与已知数据点进行对比以获得最优拟合曲线;针对每个预测得到的结果其对应的\phi_k则通过多数投票法获得;相应地得出的最大投票数被定义为w_k;为了实现这一目标我们可以将优化问题转化为寻找一条最佳拟合曲线的过程即求解以下一维优化模型:$$
\min {\phi(t)} \sum{k=1}^{n} w_{k} g_{\tau}\left(\left|\phi\left(t_{k}\right)-\phi_{k}\right|\right)+\lambda\left|\frac{\mathrm{d}^{2} \phi\left(t_{k}\right)}{\mathrm{d} t{2}}\right|{2}, \tag{10}
其中,$g_{\epsilon}(·)$被称为鲁棒影响函数,并在其形式上被定义为:
g_{\epsilon}(x)=\begin{cases} x^{2}, & \text{当 } x^{2} \leq \epsilon \ \epsilon, & \text{其他情况 } \end{cases} \tag{11}
通过应用半二次分裂技术[23],我们可以显著地解决了上述优化问题。如图8(a)所示,则用于展示单位切向量估计的结果。在本案例中发现,在书籍表面沿书脊线存在不光滑现象时,则采用了人工将估计得到的书脊点$\phi$分割成两个独立的部分,并对每一部分进行单独拟合。  准线恢复和三维页面重建 一旦估计出空间基线的单位切向量,我们就可以在相机的光学中心$O$和消失线$L$确定的平面上得到一个三维准线。三维准线可以通过求解以下常微分方程来估计:
\left{\begin{array}{l} \frac{\mathrm{d} \mathbf{C}(s)}{\mathrm{d} s}=\mathbf{t}(s)\left|\frac{\mathrm{d} \mathbf{C}(s)}{\mathrm{d} s}\right| \ \mathbf{C}\left(s_{0}\right)=\left(u_{0}, v_{0}\right) \end{array}\right. \tag{12}
三维空间中由参数$s$所定义的准线$\mathbf{C}(s)$与其在任一点处的单位切向量$\mathbf{t}(·)$之间存在明确对应关系。这种切向量的方向仅依赖于对应角度$\phi$。在曲线上的指定位置$(u_0, v_0)$作为该位置处的初始条件时,在点$s_0$处可以通过欧拉算法系统地计算出该微分方程组的数值解。图9展示了基于欧拉法对准线进行数值积分的具体过程。  在确定准线后,在判断方向上进行平移准线操作即可完成三维页面表面重构工作。 图8©和(d)展示了图3(a)中图像恢复后的空间基准线以及重建后的三维页面表面。 一旦确定了三维页面表面信息,则可利用网格扭曲变形处理来纠正图像中的几何畸变问题。 这可通过将估计的3D页面表面扩展至一个平面上来构建相应的网格处理结构。 在此过程中可使平面与图像间的对应关系得到建立。 然后被三次样条拟合方法所获得的就是该区域内的脱扭曲函数表达式。 ### 4 实验 #### 4.1 实时捕获图像的结果 为了验证我们方法的有效性与鲁棒性, 我们采用了手持摄像头与智能手机摄像头对真实捕获的文档图像进行了多组实验. 图10展示了从打开的书籍和文件中捕捉到的部分具有代表性的样本图片. 这些文档图像呈现出复杂的页面结构, 包含多个列以及丰富的非文本元素, 如大幅区域图形、公式以及复杂的背景图案. 此外, 文档内容由多种语言编写, 拍摄角度不同导致视角失真与模糊现象存在差异. 对于基于传统文本行识别的方法(例如[14])而言, 这类图像往往具有较高的难度, 因为它们涉及复杂的扭曲版块排列. 而我们的方法无需分割弯曲的文本行即可实现对复杂页面结构的有效处理. 实验结果表明, 我们的方法在这些场景中表现优异  该研究团队在DFKI数据集[24]上进行了进一步测试。该二进制数据集全部由英文二进制文档图像构成,并特意设计用于评估弯曲文档图像的校正方法。图11展示了我们方法在该数据集上的校正效果示例。这些图像源自不同书籍的不同页面,并且都包含丰富的文档内容信息。所有页面几乎都被扭曲成圆柱形结构,并且非常适合评估我们的方法性能。实验结果显示,我们提出的方法能够有效地去除图像中的多种失真现象  #### 4.2 与Kim等人的方法比较 Kim等人基于类圆柱页面形状模型开展了几何校正工作,并采用了连通分量分析方法将字符划分为行单元与块单元。随后提取了字符行的基准线,并估算三维页面模型的关键参数。图12展示了我们算法与现有方法在矫正效果上的对比结果。主要原因有两个:首先Their method requires manual input of camera focal length which will lead to significant energy loss if the focal length is not accurately provided by the camera itself.The second reason is that accurate partitioning of text lines and blocks in twisted document images is highly challenging.Therefore our proposed approach based on connected component analysis demonstrates better performance in handling such complex scenarios as shown in Figure 13 where we can effectively recognize most of the text lines even when they are interspersed with empty lines or have irregular spacing between them compared to traditional OCR systems that struggle with similar issues  #### 4.3 DFKI数据集比较 我们对DFKI数据集上的多种先进处理方法进行了系统性对比分析,并与现有的SEG[26]、SKEL[27]以及CTM[28]等典型算法进行了深入探讨。其中SE G[26]通过将每个独立单词分割并旋转至直线状态来纠正局部文字偏斜问题;而SKEL[27]则聚焦于从文本图像中提取出整体轮廓线条,并以此为基础构建变形映射关系;CTM [28]则采用了形态学手段来提取弯曲特征线条,并借助圆柱几何模型实现对原始图像的空间校正;此外基于snake模型的方法也在此框架下展开了深入研究工作。实验结果显示,在图13中我们清晰地展示了各算法在标准测试集上的性能对比情况;而图14则通过箱形图形式直观地反映了各算法在OCR准确率方面的差异分布情况   结果显示,在处理复杂场景方面存在显著局限性 ### 5 结论 在本文中 具体实验结果如表 1 所示 ### 参考文献 1. Liang, J., Doermann, D., Li, H.: Camera-based analysis of text and documents: a survey. International Journal of Document Analysis and Recognition 7(2-3) (2005) 84–104 2. Nagy, G.: Twenty years of document image analysis in pami. IEEE Transactions on Pattern Analysis and Machine Intelligence 22(1) (2000) 38–62 3. Brown, M.S., Tsoi, Y.C.: Geometric and shading correction for images of printed materials using boundary. IEEE Transactions on Image Processing 15(6) (2006) 1544–1554 4. Stamatopoulos, N., Gatos, B., Pratikakis, I., Perantonis, S.J.: Goal-oriented rectification of camera-based document images. IEEE Transactions on Image Processing 20(4) (2011) 910–920 5. Tsoi, Y.C., Brown, M.S.: Geometric and shading correction for images of printed materials: a unified approach using boundary. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Volume 1. (2004) 240–246 6. Ulges, A., Lampert, C.H., Breuel, T.M.: Document image dewarping using robust estimation of curled text lines. In: Proceedings of the 8th International Conference on Document Analysis and Recognition. (2005) 1001–1005 7. Zhang, Z., Tan, C.L.: Straightening warped text lines using polynomial regression. In: ICIP’02. Volume 3. (2002) 977–980 8. Zhang, Z., Tan, C.L.: Correcting document image warping based on regression of curved text lines. In: Proceedings of the 7th International Conference on Document Analysis and Recognition (ICDAR). (2003) 589–593 9. Brown, M.S., Sun, M., Yang, R., Yun, L., Seales, W.B.: Restoring 2d content from distorted documents. IEEE Transactions on Pattern Analysis and Machine Intelligence 29(11) (2007) 1904–1916 10. Cao, H., Ding, X., Liu, C.: A cylindrical surface model to rectify the bound document image. In: Proceedings of International Conference on Computer Vision (ICCV). (2003) 228–233 11. Hyung, I.K., Kim, J., Nam, I.C.: Composition of a dewarped and enhanced document image from two view images. IEEE Transactions on Image Processing 18(7) (2009) 1551–1562 12. Liang, J., DeMenthon, D., Doermann, D.: Flattening curved documents in images. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Volume 2. (2005) 338–345 13. Liang, J., DeMenthon, D., Doermann, D.: Geometric rectification of cameracaptured document images. IEEE Transactions on Pattern Analysis and Machine Intelligence 30(4) (2008) 591–605 14. Meng, G., Pan, C., Xiang, S., Duan, J., Zheng, N.: Metric rectification of curved document images. IEEE Trans. on Pattern Analysis and Machine Intelligence 34(4) (2012) 707–722 15. Meng, G., Xiang, S., Pan, C., Zheng, N.: Active rectification of curved document images using structured beams. International Journal of Computer Vision 122(1) (2017) 34–60 16. Tan, C.L., Zhang, L., Zhang, Z., Xia, T.: Restoring warped document images through 3d shape modeling. IEEE Transactions on Pattern Analysis and Machine Intelligence 28(2) (2006) 195–208 17. Tian, Y., Narasimhan, S.: Rectification and 3d reconstruction of curved document images. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR). (June 2011) 377–384 18. You, S., Matsushita, Y., Sinha, S., Bou, Y., Ikeuchi, K.: Multiview rectification of folded documents. IEEE Transactions on Pattern Analysis and Machine Intelligence (2017) 19. Zhang, L., Yip, A.M., Brown, M.S., Tan, C.L.: A unified framework for document restoration using inpainting and shape-from-shading. Pattern Recognition 42(11) (2009) 2961–2978 20. Meng, G., Wang, Y., Qu, S., Xiang, S., Pan, C.: Active flattening of curved document images via two structured beams. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. (2014) 3890–3897 21. Meng, G., Huang, Z., Song, Y., Xiang, S., Pan, C.: Extraction of virtual baselines from distorted document images using curvilinear projection. In: IEEE International Conference on Computer Vision. (2015) 3925–3933 22. Schneider, D., Block, M., Rojas, R.: Robust document warping with interpolated vector fields. In: Proceedings of the Ninth International Conference on Document Analysis and Recognition. Volume 1. (2007) 113–117 23. Nikolova, M., Ng, M.K.: Analysis of half-quadratic minimization methods for signal and image recovery. SIAM Journal on Scientific computing 27(3) (2005) 937–966 24. Shafait, F., Breuel, T.M.: Document image dewarping contest. In: Proceedings of the 2nd Int. Workshop on Camera-Based Document Analysis and Recognition, Curitiba, Brazil (Sep. 2007) 181–188 25. Kim, B.S., Koo, H.I., Cho, N.I.: Document dewarping via text-line based optimization. Pattern Recognition 48(11) (2015) 3600 – 3614 26. Gatos, B., Pratikakis, I., Ntirogiannis, K.: Segmentation based recovery of arbitrarily warped document images. In: The 9th International Conference on Document Analysis and Recognition, Curitiba, Brazil (Sep. 2007) 989–993 27. Masalovitch, A., Mestetskiy, L.: Usage of continuous skeletal image representation for document images dewarping. In: The 2nd Int. Workshop on Camera-Based Document Analysis and Recognition, Curitiba, Brazil (Sep. 2007) 45–52 28. Fu, B., Wu, M., Li, R., Li, W., Xu, Z.: A model-based book dewarping method using text line detection. In: The 2nd Int. Workshop on Camera-Based Document Analysis and Recognition, Curitiba, Brazil (Sep. 2007) 63–70 29. Bukhari, S.S., Shafait, F., Breuel, T.M.: Dewarping of document images using coupled-snakes. In: The 3rd Int. Workshop on Camera-Based Document Analysis and Recognition, Barcelona, Spain (July 2009) 34–41
