图像重建] 基于三维离散余弦变换实现图像的快速压缩重建与 Matlab 代码
1 简介
离散余弦变换(Discrete Cosine Transform, 简称 DCT)是一种正交变换[39],DCT 变换使信号的能量集中。图像变换到 DCT 域后的能量集中在低频部分,低频分量携带能量多,是图像的概貌信息;高频分量携带能量少,是图像的细节信息,在视觉效果可以接受的情况下,对变换系数进行量化,在编码时舍弃掉一些小的系数,从而达到压缩的目的。正交变换之所以能够压缩数据,主要有以下性质:
(1)熵保持性,即只通过正交变换的正变换和反变换,图像能完全还原,概貌和细节信息都不会丢失。
(2)能量保持性,正交变换可以将图像的能量重新进行分配,使得大部分能量集中在较少的几个系数上,但总体的能量不变。这样就可以在图像质量允许的情况下,舍弃能量很小的一些系数,对能量较小的系数分配较少的比特,对能量较大的一些系数分配较多的比特,从而达到压缩的目的。
(3)去相关性。使空间高度相关的数值变为相关性较弱的系数,进而降低空间数值之间的冗余。K-L 变换是完全的正交变换,但由于其复杂度高,没有快速算法,而且不适合计算机实现,因此人们经常用 DCT 这种近似正交变换来代替 K-L 变换。因此本章先简单介绍二维离散余弦变换的方法、应用,分析其变换特点,在此基础上详细介绍三维离散余弦变换原理、运算规则,阐述不同三维离散余弦变换方法,将不同三维离散余弦变换方法应用于不同的彩色半调图像,采用现有的扫描方式和基于概率统计的方法扫描变换系数,分析变换后系数的能量分布规律。
二维 DCT 变换可以去除图像像素间的相关性,因此国内外学者围绕二维DCT 变换技术进行了大量的研究,但二维 DCT 变换不能去除彩色图像通道间的相关性,三维离散余弦变换(three-dimensional discrete cosine transform , 简称3D-DCT 变换)技术应运而生,它可以将彩色图像作为一个整体进行处理,同时去除彩色图像的行、列像素间和各分量间的相关性,大大减少了冗余信息,3D-DCT 变换[44~48]能够对三维信号的横行、竖行、纵序(即彩色图像行、列、纵 深)的信息都进行变换,3D-DCT 变换的正交性可以将彩色图像空间的分散能量集中在频率域的少数几个系数上。
2 部分代码
function yx=IDCT3D(X)% it is the implementation of Eq2 in the paperN=size(X,1);MYK=ones(1,N);MYK(1)=1/sqrt(2);for n1=0:N-1 for n2=0:N-1 for n3=0:N-1 sm=0; for k1=0:N-1 for k2=0:N-1 for k3=0:N-1 sm=sm+ MYK(k1+1)*MYK(k2+1)*MYK(k3+1)*X(k1+1,k2+1,k3+1)*... cos(pi/(2*N)*(2*n1+1)*k1)*cos(pi/(2*N)*(2*n2+1)*k2)*cos(pi/(2*N)*(2*n3+1)*k3); end end end yx(n1+1,n2+1,n3+1)=sm; end endend
3 仿真结果
4 参考文献
[1]伍柏秋. 一种基于3D_DCT变换的彩色图像压缩方法[J]. 微型机与应用, 2013(24):43-45.
博主简介:擅长智能优化算法、神经网络预测、信号处理、元胞自动机、图像处理、路径规划、无人机等多种领域的Matlab仿真,相关matlab代码问题可私信交流。
部分理论引用网络文献,若有侵权联系博主删除。
推荐阅读
-
[姿势估计] 实践记录:使用 Dlib 和 mediapipe 进行人脸姿势估计 - 本文重点介绍方法 2):方法 1:基于深度学习的方法:。 基于深度学习的方法:基于深度学习的方法利用深度学习模型,如卷积神经网络(CNN)或递归神经网络(RNN),直接从人脸图像中学习姿势估计。这些方法能够学习更复杂的特征表征,并在大规模数据集上取得优异的性能。方法二:基于二维校准信息估计三维姿态信息(计算机视觉 PnP 问题)。 特征点定位:人脸姿态估计的第一步是通过特征点定位来检测和定位人脸的关键点,如眼睛、鼻子和嘴巴。这些关键点提供了人脸的局部结构信息,可用于后续的姿势估计。 旋转表示:常见的旋转表示方法包括欧拉角和旋转矩阵。欧拉角通过三个旋转角度(通常是俯仰、偏航和滚动)描述头部的旋转姿态。旋转矩阵是一个 3x3 矩阵,表示头部从一个坐标系到另一个坐标系的变换。 三维模型重建:根据特征点的定位结果,三维人脸模型可用于姿势估计。通过将人脸的二维图像映射到三维模型上,可以估算出人脸的旋转和平移信息。这就需要建立人脸的三维模型,然后通过优化方法将模型与特征点对齐,从而获得姿势估计结果。 特征点定位 特征点定位是用于检测人脸关键部位的五官基础部分,还有其他更多的特征点表示方法,大家可以参考我上一篇文章中介绍的特征点检测方案实践:人脸校正二次定位操作来解决人脸校正的问题,客户在检测关键点的代码上略有修改,坐标转换部分客户见上图 def get_face_info(image). img_copy = image.copy image.flags.writeable = False image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) results = face_detection.process(image) # 在图像上绘制人脸检测注释。 image.flags.writeable = True image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR) box_info, facial = None, None if results.detections: for detection in results. for detection in results.detections: mp_drawing.Drawing.detection = 无 mp_drawing.draw_detection(image, detection) 面部 = detection.location_data.relative_keypoints 返回面部 在上述代码中,返回的数据是五官(6 个关键点的坐标),这是用 mediapipe 库实现的,下面我们可以尝试用另一个库:dlib 来实现。 使用 dlib 使用 Dlib 库在 Python 中实现人脸关键点检测的步骤如下: 确保已安装 Dlib 库,可使用以下命令: pip install dlib 导入必要的库: 加载 Dlib 的人脸检测器和关键点检测器模型: 读取图像并将其灰度化: 使用人脸检测器检测图像中的人脸: 对检测到的人脸进行遍历,并使用关键点检测器检测人脸关键点: 显示绘制了关键点的图像: 以下代码将参数 landmarks_part 添加到要返回的关键点坐标中。
-
图像重建] 基于三维离散余弦变换实现图像的快速压缩重建与 Matlab 代码