OpenCV 图像退化与增强

2024-05-16 01:36
文章标签 opencv 退化 图像 增强

本文主要是介绍OpenCV 图像退化与增强,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

退化

滤波

img_averaging=cv2.blur(img2,(3,3)) #均值滤波
img_median = cv2.medianBlur(img2,3) #中值滤波

高斯模糊

result = cv2.GaussianBlur(source, (11,11), 0)

高斯噪声

def add_noise_Guass(img, mean=0, var=0.01):  # 添加高斯噪声img = np.array(img / 255, dtype=float)# 将原始图像的像素值进行归一化,除以255使得像素值在0-1之间noise = np.random.normal(mean, var ** 0.5, img.shape)#0.01的0.5次幂,ctrl点击normal函数可见参数#给出均值为loc,标准差为scale的高斯随机数(场)'''numpy.random.normal(loc=0.0, scale=1.0, size=None)loc:float此概率分布的均值(对应着整个分布的中心centre)scale:float此概率分布的标准差(对应于分布的宽度,scale越大越矮胖,scale越小,越瘦高)size:int or tuple of ints输出的shape,默认为None,只输出一个值'''out_img = img + noise# 将噪声和原始图像进行相加得到加噪后的图像if out_img.min() < 0:low_clip = -1else:low_clip = 0out_img = np.clip(out_img, low_clip, 1.0)#clip函数将元素的大小限制在了low_clip和1之间了,小于的用low_clip代替,大于1的用1代替out_img = np.uint8(out_img * 255)# 解除归一化,乘以255将加噪后的图像的像素值恢复return out_img

椒盐噪声

def sp_noise(image, amount):output = image.copy()threshold = 1 - amount#传入的参数,设置一个阙值#amount 越大,白色越多for i in range(image.shape[0]):#shape[0]表示图片高for j in range(image.shape[1]):#图片宽rdm = random.random()#取0到1之间的浮点数if rdm < amount: #如果随机数小于参数,那么像素点取黑色output[i][j] = 0  #亮度0%,取黑色elif rdm > threshold:output[i][j] = 255#取白色return output

增强

修复破损

import cv2
import numpy as np
# 读取照片
image = cv2.imread('old_photo.jpg')
# 将图像转换为灰度图
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
# 应用高斯模糊来减少图像噪声
blurred = cv2.GaussianBlur(gray, (5, 5), 0)
# 使用Canny边缘检测器识别边缘
edges = cv2.Canny(blurred, 50, 150)
# 使用膨胀操作将边缘连接在一起形成轮廓
dilated = cv2.dilate(edges, None, iterations=2)
# 在原始图像上绘制轮廓,以便于可视化结果
result = cv2.inpaint(image, dilated, (3, 3), cv2.INPAINT_TELEA)
# 显示修复后的照片
cv2.imshow('Result', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

先读取照片,并将其转换为灰度图。然后,我们使用高斯模糊减少图像噪声,并使用Canny边缘检测器识别边缘。接下来,我们通过膨胀操作将边缘连接在一起形成轮廓,以便识别损坏区域。最后,我们使用OpenCV的inpaint函数来修复损坏区域,并将结果显示出来。

这篇关于OpenCV 图像退化与增强的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/993501

相关文章

【OpenCV】【JavaCV】【Xuggler】【Java】获取视频的编解码器

FFmpegFrameGrabber grabber = new FFmpegFrameGrabber(inputStream);grabber.start();System.out.println(JSON.toJSONString(grabber));System.out.println(grabber.getVideoMetadata().get("encoder"));

1、去除图像中的alpha通道或透明度

自从appstore提交app改变后,虽然提交的流程还是和原来一样,但是相比以前还是有很大的改动,本来就不太喜欢 English,改版之后很多东西都变了,开发一个app就已经够他妈的蛋疼啦,上传一个app居然还要折腾我一翻,我只能说蛋蛋都碎了。。。不过,我除开精通iOS开发还略懂PS技术,所以这个东东还是困不住我,哈哈。下面就把“去除图像中的alpha通道或透明度”分享给everybody...

利用opencv与Socket实现树莓派获取摄像头视频和灰度重心发送到电脑

使用树莓派原装CSI摄像头录制视频并利用灰度重心法获取重心,将图像和重心数据通过Socket实时传输到电脑上 因为需要实现程序一启动便打开摄像头计算数据,同时启动Socket服务器等待客户端连接,所以利用C++11中的thread库通过多线程实现程序 树莓派-服务端 #include <iostream>#include <unistd.h>#include <cstring>#inc

树莓派4B安装opencv以及错误解决

欢迎访问我的博客:konosuba.xyz 更新于2020/4/27 更新:换了个树莓派4B,安装opencv的时候遇到了一些之前没碰到的问题,在这里记录一下 主要参考opencv官网文档和博客树莓派+Opencv(一)图像处理 树莓派4B上安装参考:树莓派4B 安装opencv完整教程基于python3(各种错误解决) 下载安装依赖项 sudo apt-get install b

关于低版本Windows系统在SpringBoot项目中无法运行OpenCV的问题

文章目录 1 摘要2 异常信息3 解决OpenCV依赖问题3.1 Windows 7 安装 OpenCV 依赖3.2 Windows Server 2012 安装 OpenCV 依赖 4 推荐参考资料 1 摘要 曾经的典操作系统 Windows 7 ,在如今的 2024 年依旧占有一定的市场份额。在 SpringBoot 集成 OpenCV 的过程中也提到过操作系统版本过低会导

opencv中关于sift匹配

opencv提供一个knnMatch函数,可以获取两个图片sift特征点的最近匹配距离以及次近匹配距离。 BruteForceMatcher< L2<float> > matcher;vector<DMatch> good_matches;matcher.knnMatch(description2, description1, ratio_matches, 2); match函数的参数中位

通过阿里云的PAI基于开源LLM搭建RAG检索增强对话系统

5月9日参加阿里云AI云峰会活动,学习了下如何借助阿里云的PAI服务进行搭建RAG检索增加对话系统。 前提: 为了方便省钱,建议先通过免费的优惠圈,这样就可以先不花钱学习一下啦。开始实验之前,请务必打开 阿里云免费试用 - 阿里云,先后搜索“EAS”和“oss”,领取试用活动,如下图: 1. EAS简介 EAS(Elastic Algorithm Service)是PAI的模型在线服务

【OpenCV 基础知识 4】分离图像通道

cvSplit()是openCV中的一个函数,它分别复制每个通道到多个单通道图像。 void cvSplit( const CvArr* src, CvArr* dst0, CvArr* dst1, CvArr* dst2, CvArr* dst3 );.cvSplit()函数将复制src的各个通道到图像dst0,dst1,dst2和dst3中。如果源图像少于4个通道的情况下,那么传递给cvSpl

【OpenCV C++】cvtColor将彩色图像转换为灰度图时,3个通道的灰度值是如何处理的? 三个通道是如何加权计算的?三个通道取平均得到灰度图吗?

文章目录 在OpenCV中,使用cv::cvtColor函数将彩色图像转换为灰度图时,3个通道的灰度值并不是简单地取平均值,而是通过加权平均的方法来计算的。 具体来说,灰度值是根据人眼对不同颜色敏感度的不同,使用加权公式计算得到的。 转换公式 通常使用的加权公式是: Gray=0.299×R+0.587×G+0.114×B 解释 R、G、B 分别代表红色、绿色和蓝色通道的

英伟达发布 VILA 视觉语言模型,实现多图像推理、增强型上下文学习,性能超越 LLaVA-1.5

前言 近年来,大型语言模型 (LLM) 的发展取得了显著的成果,并逐渐应用于多模态领域,例如视觉语言模型 (VLM)。VLM 旨在将 LLM 的强大能力扩展到视觉领域,使其能够理解和处理图像和文本信息,并完成诸如视觉问答、图像描述生成等任务。然而,现有的 VLM 通常缺乏对视觉语言预训练过程的深入研究,导致模型在多模态任务上的性能和泛化能力受限。为了解决这个问题,英伟达的研究人员发布了 VILA