ocr数据不够,怎么造数据

2024-06-20 11:52
文章标签 数据 怎么 ocr 不够

本文主要是介绍ocr数据不够,怎么造数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.确定特定字体类型;

2.收集合适的图片作为背景

3.在背景图上填写特定字体的字符内容

1)字体无法确认时怎么办?

方法一:可以将文本行裁剪出来去网站上确认,网站链接:字体识别-在线扫一扫图片找字体-搜字体!

方法二:将文字输入到文档文件中,更换不同的字体,看是否与字体目标匹配;

字体可以去网上下载,也可以在本机查找;本机的字体所在位置:

个人用户字体文件:~/.local/share/fonts
系统字体文件:/usr/share/fonts
字体配置文件:/etc/fonts/

下面是我处理的代码,仅供参考:

def check_dir1(path):if not os.path.exists(path):os.mkdir(path)else:files = os.listdir(path)for file in files:file_path = os.path.join(path, file)os.remove(file_path)
'''
制作一些文本行数据
'''
from PIL import ImageFont, ImageDraw
import PIL.Image as PImage
import random
import os
import numpy as np
import cv2
from rec.temporary_boundary.line_process import cut_line3_1
from result_process.preprocess import check_dir1if __name__=='__main__':cha_list = ['A','B','C','D','E','F','G','H','I','J','K',\'L','M','N','O','P','Q','R','S','T','U','V','W','X','Y','Z']save_dir = '/home/fuxueping/4tdisk/data/certificate_reader/北京现场测试数据/20240614针对识别问题/SAU_name'check_dir1(save_dir)txt_parh = '/home/fuxueping/4tdisk/data/certificate_reader/北京现场测试数据/20240614针对识别问题/SAU_name.txt'bg_img_dir = '/home/fuxueping/4tdisk/data/certificate_reader/北京现场测试数据/20240614针对识别问题/bg'bg_imgs = os.listdir(bg_img_dir)f_save = open(txt_parh, 'w', encoding='utf-8')check_dir1(save_dir)num = 50while num:all_num = 0bg_img = random.choice(bg_imgs)num1=random.choice([2, 3])chr_str = ''all_num += num1while num1:chr_ = random.choice(cha_list)chr_str += chr_num1 -=1char_med = ''for i in range(3):num2=random.choice([5,6,7,8])chr_str2=''all_num += num2while num2:chr_ = random.choice(cha_list)chr_str2 += chr_num2 -= 1if i == 0:char_med += chr_str2+', 'elif i == 1:char_med += chr_str2 + ' 'elif i == 2:char_med += chr_str2 + ' 'chr_1 = random.choice(cha_list)result_str = chr_str+' '+char_med+chr_1all_num += 1im = PImage.open(os.path.join(bg_img_dir, bg_img))w, h = im.sizefont_size = 24w_len = int(0 + all_num * (font_size-3) + 4)if w_len > w:num -= 1continuename_font = ImageFont.truetype('/home/fuxueping/4tdisk/data/certificate_reader/北京现场测试数据/20240614针对识别问题/fonts/n019003l.pfb', font_size)draw = ImageDraw.Draw(im)y_len = random.randint(0, h-font_size-5)color = tuple([random.randint(0, 20) for _ in range(3)])draw.text((2, y_len), result_str, fill=color, font=name_font)box = (0, y_len, w_len, y_len+font_size+5)rect_img = im.crop(box)image_array = np.array(rect_img)cv2_image = cv2.cvtColor(image_array, cv2.COLOR_RGB2BGR)result, _ = cut_line3_1(cv2_image)if len(result):region_rec = cv2_image[result[1]:result[3], result[0]:min(w, result[2]+2)]  # 裁剪出待识别的区域image_array = cv2.cvtColor(region_rec, cv2.COLOR_BGR2RGB)rect_img = PImage.fromarray(image_array)# image_array = cv2.cvtColor(cv2_image, cv2.COLOR_BGR2RGB)# rect_img = PImage.fromarray(image_array)save_path = os.path.join(save_dir, str(num)+'_'+result_str+'.jpg')line = save_path+'\t'+result_str+'\n'f_save.write(line)rect_img.save(save_path)num -= 1f_save.close()
# 根据设定的阈值和图片直方图,找出波峰,用于分隔字符
def find_waves_row(threshold, histogram):#行数是59# up_point = -1  # 上升点# is_peak = False# if histogram[0] >= threshold:up_point = 0 #起始位置is_peak = Truewave_peaks = []top_cut = []for i, x in enumerate(histogram): #x是对应的像素和,i是行if is_peak and x >= threshold:if i - up_point >=2 :# top_cut.append((up_point, i)) #加这一行,相当于裁减掉多于的空行up_point = i-1else:up_point = iis_peak = Falseelif not is_peak and x < threshold:#随后找到字符消失的位置is_peak = Trueif 1 < i < histogram.shape[0]-1:#行数不是在开头也不在结尾wave_peaks.append((up_point, i+1))else:wave_peaks.append((up_point, i))up_point = i# if is_peak and up_point != -1 and i - up_point > 4:#     wave_peaks.append((up_point, i))if not is_peak and x >= threshold:#虽然数据已经结束,但是没有出现小于阈值的情况wave_peaks.append((up_point, i))return wave_peaksdef cut_line3_1(rgb_img, kernel_size = 3, y_len = 5, row_threshold=255 * 1, col_thresh = 255*1):'''切割出每一行,只保留高度满足条件的一行内容,然后切除掉每一行的前端后尾端的空白'''rgb_img = method_9(rgb_img) #高斯滤波# 使用sauvola进行二值化h, w = rgb_img.shape[:2]sau_bin = sauvola_bin(rgb_img) #sauvola二值化# cv2.imwrite('./../temp/sauvola_bin.jpg', sau_bin)# sau_bin = get_charcter_region(rgb_img)  # 局部区域算阈值二值化# cv2.imwrite('./../temp/sau_bin1.jpg', sau_bin)sau_bin_inv = 255 - sau_bin# cv2.imwrite('./../temp/sau_bin_inv1.jpg', sau_bin_inv)if kernel_size != 0:sau_bin_inv = cv2.medianBlur(sau_bin_inv, kernel_size)# cv2.imwrite('./../temp/sau_bin_inv_dinose1.jpg', sau_bin_inv)col_histogram = np.sum(sau_bin_inv, axis=1)wave_peaks = find_waves_row(col_thresh, col_histogram)result = []#找出高度最大的区域,只保留一行内容max_y = 0result_y = []if not len(wave_peaks):return [], sau_bin_invfor i, wave_peak in enumerate(wave_peaks):y1 = wave_peak[0]y2 = wave_peak[1]if y2 - y1 < y_len: #20之前是这个阈值 ,将高度不满足>=5的字符区域去掉continueif max_y < y2 - y1:max_y = y2 - y1result_y = [y1, y2]if len(result_y): #有时候裁剪的图片可能是没有字符,这种情况多出现在证件类别错误的情况y1 = result_y[0]y2 = result_y[1]else:return [], sau_bin_invline_img = sau_bin_inv[y1:y2, :]# line_img_bgr = rgb_img[wave_peak[0]:wave_peak[1], :]# save_other = os.path.join(save_path, file + '_'+str(i)+'.jpg')# cv2.imwrite(save_other, line_img)row_histogram = np.sum(line_img, axis=0)  # 数组的每一列求和# row_max = np.max(row_histogram)# row_threshold = row_max - 255*1wave_peaks_line = find_waves_col(row_threshold, row_histogram)# cv2.imwrite('./../temp/line_img.jpg', line_img)x1 = 0x2 = wresult_ = []for wave_ in wave_peaks_line:len_x = wave_[1] - wave_[0]if len_x > 5:result_.append(wave_)if len(result_):  # 有时候朝水平投影内容消失了,就用【0,w】代替x1 = result_[0][0]x2 = result_[-1][1]return [x1, y1, x2, y2], sau_bin_inv

这篇关于ocr数据不够,怎么造数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1078055

相关文章

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

C#使用iText获取PDF的trailer数据的代码示例

《C#使用iText获取PDF的trailer数据的代码示例》开发程序debug的时候,看到了PDF有个trailer数据,挺有意思,于是考虑用代码把它读出来,那么就用到我们常用的iText框架了,所... 目录引言iText 核心概念C# 代码示例步骤 1: 确保已安装 iText步骤 2: C# 代码程

Pandas处理缺失数据的方式汇总

《Pandas处理缺失数据的方式汇总》许多教程中的数据与现实世界中的数据有很大不同,现实世界中的数据很少是干净且同质的,本文我们将讨论处理缺失数据的一些常规注意事项,了解Pandas如何表示缺失数据,... 目录缺失数据约定的权衡Pandas 中的缺失数据None 作为哨兵值NaN:缺失的数值数据Panda

C++中处理文本数据char与string的终极对比指南

《C++中处理文本数据char与string的终极对比指南》在C++编程中char和string是两种用于处理字符数据的类型,但它们在使用方式和功能上有显著的不同,:本文主要介绍C++中处理文本数... 目录1. 基本定义与本质2. 内存管理3. 操作与功能4. 性能特点5. 使用场景6. 相互转换核心区别

python库pydantic数据验证和设置管理库的用途

《python库pydantic数据验证和设置管理库的用途》pydantic是一个用于数据验证和设置管理的Python库,它主要利用Python类型注解来定义数据模型的结构和验证规则,本文给大家介绍p... 目录主要特点和用途:Field数值验证参数总结pydantic 是一个让你能够 confidentl

JAVA实现亿级千万级数据顺序导出的示例代码

《JAVA实现亿级千万级数据顺序导出的示例代码》本文主要介绍了JAVA实现亿级千万级数据顺序导出的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 前提:主要考虑控制内存占用空间,避免出现同时导出,导致主程序OOM问题。实现思路:A.启用线程池

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本