用于图像处理的 Hadamard 和 Hough 变换
最编程
2024-03-08 12:21:09
...
一、Hadamard变换
1、基本原理
Hadamard变换相当于在原来的图像矩阵左右分别乘以一一个矩阵,这两个矩阵都是正交矩阵,称为Hadamard变换矩阵。Hadamard变换矩阵中所有的元素都是+1或-1。在MATLAB软件中,可以通过函数hadamard()产生Hadamard变换矩阵。该函数的详细调用情况如下:
2、matlab实现
close all;
clear all;
clc;
% 通过函数hadamard()产生Hadamard变换矩阵
% 调用格式为H=hadamard(n)该函数产生阶数为n的Hadamard变换矩阵H
% 注意变换矩阵H满足H'*H=n*I,其中I为n阶单位矩阵
a=hadamard(2);
b=hadamard(4);
% 验证性质H'*H=n*I
c=a'*a;
d=b'*b;
disp(a);
disp(b);
disp(c);
disp(d);
% 对图像进行Hadamard变换
I=imread('cameraman.tif');
I=im2double(I);
h1=size(I,1);% 图像的行
h2=size(I,2);% 图像的列
H1=hadamard(h1);
H2=hadamard(h2);
J=(H1*I*H2)/sqrt(h1*h2);% Hadamard变换公式
subplot(121),imshow(I);
title('原始图像');
subplot(122),imshow(J);
title('Hadamard变换的结果');
命令行窗口:
1 1
1 -1
1 1 1 1
1 -1 1 -1
1 1 -1 -1
1 -1 -1 1
2 0
0 2
4 0 0 0
0 4 0 0
0 0 4 0
0 0 0 4
实现效果:
二、Hough变换
1、基本原理
Hough变换是图像处理中从图像中识别几何形状的基本方法之一。由Paul Hough于1962年提出,最初只用于二值图像直线检测,后来扩展到任意形状的检测。Hough变换的基本原理在于利用点与线的对偶性,将原始图像空间给定的曲线通过曲线表达式变为参数空间的一个点。这样就把原始图像中给定曲线的检测问题转化为寻找参数空间中的峰值问题。
Hough变换根据如下公式:
把x-y平面的图像转换为θ- p参数平面上的图像矩阵。在MATLAB中,Hough 变换的函数包括函数hough()函数houghpeaks()和函数houghlines()。函数hough()用来进行Hough变换,该函数的详细调用格式如下:
2、matlab实现
% 对图像进行Hough变换
close all;
clear all;
clc;
I=imread('circuit.tif');
I=im2double(I);
BW=edge(I,'canny');
% hough函数用于Hough变换,调用格式为[H,theta,rho]=hough(BW,ParameterName,ParameterValue)
% theta为变换角度,rho为变换半径,一般ParameterName有两个选择:'RhoResolution'为0到图像像素个数之间的标量,'ThetaResolution'为[0,90]之间的实值标量
[H,Theta,Rho]=hough(BW,'RhoResolution',0.5,'ThetaResolution',0.5);
subplot(121),imshow(BW);
title('原始图像的边缘信息');
subplot(122),imshow(imadjust(mat2gray(H)));% J=imadjust(I)对图像I进行灰度调整
title('Hough变换的结果');
axis normal; % 设置坐标轴
hold on; % 保留当前坐标区中的绘图,从而使新添加到坐标区中的绘图不会删除现有绘图
colormap hot; % 设置调色板
实现效果:
上一篇: 软件开发:什么是硬代码及其作用
下一篇: 英语八种时态用法详解
推荐阅读
-
[姿势估计] 实践记录:使用 Dlib 和 mediapipe 进行人脸姿势估计 - 本文重点介绍方法 2):方法 1:基于深度学习的方法:。 基于深度学习的方法:基于深度学习的方法利用深度学习模型,如卷积神经网络(CNN)或递归神经网络(RNN),直接从人脸图像中学习姿势估计。这些方法能够学习更复杂的特征表征,并在大规模数据集上取得优异的性能。方法二:基于二维校准信息估计三维姿态信息(计算机视觉 PnP 问题)。 特征点定位:人脸姿态估计的第一步是通过特征点定位来检测和定位人脸的关键点,如眼睛、鼻子和嘴巴。这些关键点提供了人脸的局部结构信息,可用于后续的姿势估计。 旋转表示:常见的旋转表示方法包括欧拉角和旋转矩阵。欧拉角通过三个旋转角度(通常是俯仰、偏航和滚动)描述头部的旋转姿态。旋转矩阵是一个 3x3 矩阵,表示头部从一个坐标系到另一个坐标系的变换。 三维模型重建:根据特征点的定位结果,三维人脸模型可用于姿势估计。通过将人脸的二维图像映射到三维模型上,可以估算出人脸的旋转和平移信息。这就需要建立人脸的三维模型,然后通过优化方法将模型与特征点对齐,从而获得姿势估计结果。 特征点定位 特征点定位是用于检测人脸关键部位的五官基础部分,还有其他更多的特征点表示方法,大家可以参考我上一篇文章中介绍的特征点检测方案实践:人脸校正二次定位操作来解决人脸校正的问题,客户在检测关键点的代码上略有修改,坐标转换部分客户见上图 def get_face_info(image). img_copy = image.copy image.flags.writeable = False image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) results = face_detection.process(image) # 在图像上绘制人脸检测注释。 image.flags.writeable = True image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR) box_info, facial = None, None if results.detections: for detection in results. for detection in results.detections: mp_drawing.Drawing.detection = 无 mp_drawing.draw_detection(image, detection) 面部 = detection.location_data.relative_keypoints 返回面部 在上述代码中,返回的数据是五官(6 个关键点的坐标),这是用 mediapipe 库实现的,下面我们可以尝试用另一个库:dlib 来实现。 使用 dlib 使用 Dlib 库在 Python 中实现人脸关键点检测的步骤如下: 确保已安装 Dlib 库,可使用以下命令: pip install dlib 导入必要的库: 加载 Dlib 的人脸检测器和关键点检测器模型: 读取图像并将其灰度化: 使用人脸检测器检测图像中的人脸: 对检测到的人脸进行遍历,并使用关键点检测器检测人脸关键点: 显示绘制了关键点的图像: 以下代码将参数 landmarks_part 添加到要返回的关键点坐标中。
-
用于图像处理的 Hadamard 和 Hough 变换