腐蚀膨胀预处理
腐蚀:通过减少前景对象(例如白色字符)的边缘,腐蚀可以用来减小或消除细小的干扰线。如果干扰线较细,腐蚀可以有效地“消除”这些线条,同时保留较粗的字符。
膨胀:在腐蚀之后,膨胀可以用来恢复字符的完整性,因为腐蚀可能会削弱字符的部分结构。膨胀能够扩展字符的边界,使其恢复到原来的粗细。
import cv2
import numpy as np
# 读取验证码图片
img = cv2.imread('captcha.png', 0)
# 定义腐蚀和膨胀的内核大小
kernel = np.ones((3, 3), np.uint8)
# 先腐蚀再膨胀
eroded = cv2.erode(img, kernel, iterations=1)
result = cv2.dilate(eroded, kernel, iterations=1)
# 显示原图和处理后的图像
cv2.imshow('Original', img)
cv2.imshow('Processed', result)
cv2.waitKey(0)
cv2.destroyAllWindows()
可以根据实际情况调整腐蚀和膨胀的内核大小(如 kernel),以及迭代次数。测试不同的参数可以达到最佳效果。如果干扰线较粗,可能需要更大内核或增加腐蚀的次数。
腐蚀和膨胀是形态学图像处理中的两种基本操作,它们主要用于处理二值图像(黑白图像),也可以用于灰度图像。它们背后的原理基于集合论,并应用一个称为结构元素的矩阵对图像进行操作。以下是它们的工作原理:
1. 腐蚀(Erosion)
腐蚀的作用是“缩小”前景(通常是白色像素)的区域,使物体边界收缩。每个像素的值会变成它周围像素的最小值(最“黑”的像素),这意味着如果某个像素周围有黑色像素,腐蚀操作会将该像素也变成黑色。
原理:腐蚀操作滑动一个结构元素(通常是一个小的正方形或圆形内核)遍历图像。当结构元素完全放置在前景上时,中心像素保持前景值,否则被侵蚀变为背景(黑色)。这意味着干扰线(通常较细)更容易被消除,因为它们的面积小,很快就会变成背景。
效果:腐蚀用于移除细小的物体(如干扰线),以及减少前景物体的厚度。
2. 膨胀(Dilation)
膨胀是腐蚀的逆过程,它的作用是“扩展”前景区域,使物体边界扩张。每个像素的值会变成它周围像素的最大值(最“白”的像素),这意味着如果某个像素周围有白色像素,膨胀操作会将该像素也变成白色。
原理:膨胀操作滑动结构元素遍历图像。当结构元素的任何部分接触前景时,它将使中心像素变为前景(白色)。这可以让前景(如字符)变得更厚和完整。
效果:膨胀常用于恢复经过腐蚀后的前景,填充图像中的小洞或连接断开的部分。
3. 腐蚀和膨胀的结合——开运算(Opening)
开运算是先腐蚀后膨胀的组合,通常用于消除图像中的小对象或噪声。
原理:开运算可以有效去除细小的干扰线,腐蚀会先去掉细线,随后膨胀操作会确保字符的主要结构不会被过度削弱。
总结
腐蚀:减小前景物体,去除细小噪声。
膨胀:增大前景物体,填补小孔洞。
通过先腐蚀再膨胀,细小的干扰线可以被消除,同时保持字符的主要轮廓完整。这种方法尤其适用于验证码的预处理,以增强字符识别的准确性。
上一篇: [PyTorch] 轻松安装 PyTorch:兼容性问题解析
下一篇: 运行首航程序
推荐阅读
-
腐蚀膨胀预处理
-
输电线路缺陷影像检测数据集,导线松股、杆塔腐蚀两类,分别为 581 张和 1407 张,标注为 xml 和 txt 格式 1988 张
-
PostgreSQL:PG 数据库表膨胀的粗略研究
-
CSS 预处理器 LESS
-
【C语言】一文带你读懂C语言预处理器、宏、预处理指令
-
【动手学计算机视觉】第三讲:图像预处理之图像分割
-
【C语言】预处理
-
玩转图像处理!带你了解形态学中的腐蚀、膨胀、开闭运算和连通分量
-
湿法腐蚀:半导体光刻工艺中的关键步骤
-
【摩尔线程+Colossal-AI强强联手】MusaBert登上CLUE榜单TOP10:技术细节揭秘 - 技术实力:摩尔线程凭借"软硬兼备"的技术底蕴,让MusaBert得以从底层优化到顶层。其内置多功能GPU配备AI加速和并行计算模块,提供了全面的AI与科学计算支持,为AI推理和低资源条件下的大模型训练等场景带来了高效、经济且环保的算力。 - 算法层面亮点:依托Colossal-AI AI大模型开发系统,MusaBert在训练过程中展现出了卓越的并行性能与易用性,特别在预处理阶段对DataLoader进行了优化,适应低资源环境高效处理海量数据。同时,通过精细的建模优化、领域内数据增强以及Adan优化器等手段,挖掘和展示了预训练语言模型出色的语义理解潜力。基于MusaBert,摩尔线程自主研发的MusaSim通过对比学习方法微调,结合百万对标注数据,MusaSim在多个任务如语义相似度、意图识别和情绪分析中均表现出色。 - 数据资源丰富:MusaBert除了自家高质量语义相似数据外,还融合了悟道开源200GB数据、CLUE社区80GB数据,以及浪潮公司提供的1TB高质量数据,保证模型即便在较小规模下仍具备良好性能。 当前,MusaBert已成功应用于摩尔线程的智能客服与数字人项目,并广泛服务于语义相似度、情绪识别、阅读理解与声韵识别等领域。为了降低大模型开发和应用难度,MusaBert及其相关高质量模型代码已在Colossal-AI仓库开源,可快速训练优质中文BERT模型。同时,通过摩尔线程与潞晨科技的深度合作,仅需一张多功能GPU单卡便能高效训练MusaBert或更大规模的GPT2模型,显著降低预训练成本,进一步推动双方在低资源大模型训练领域的共享目标。 MusaBert荣登CLUE榜单TOP10,象征着摩尔线程与潞晨科技联合研发团队在中文预训练研究领域的领先地位。展望未来,双方将携手探索更大规模的自然语言模型研究,充分运用上游数据资源,产出更为强大的模型并开源。持续强化在摩尔线程多功能GPU上的大模型训练能力,特别是在消费级显卡等低资源环境下,致力于降低使用大模型训练的门槛与成本,推动人工智能更加普惠。而潞晨科技作为重要合作伙伴,将继续发挥关键作用。