本月竞赛学习将以对图像检索与重复图像识别展开,可以用在版权保护等应用中。本月学习内容包括:
为了激励各位同学完成的学习任务,将学习任务根据难度进行划分,并根据是否完成进行评分难度高中低的任务分别分数为3、2和1。在完成学习后(本次活动,截止5月1),将按照积分顺序进行评选 Top3 的学习者。
打卡地址:https://shimo.im/forms/I1HSpXlDwYkWYPiQ/fill
Top1的学习者将获得以下奖励:
Top2-3的学习者将获得以下奖励:
历史活动打卡链接,可以参考如下格式:
随着互联网上的图像数量不断增长,图像检索和匹配技术已成为许多视觉搜索引擎的核心技术,能够提高搜索结果的准确性和覆盖范围。图像检索和匹配是计算机视觉领域的重要研究方向之一,其主要目的是从大规模的图像库中快速准确地找到与查询图像相似或相同的图像。
实践环境建议以Python3.7+,且需要安装如下库:
任务名称 | 难度/分值 |
---|---|
任务1:图像匹配与检索 | 低/1 |
任务2:基础局部特征提取 | 中/2 |
任务4:深度全局特征 | 中/3 |
任务3:深度局部特征 | 高/3 |
任务5:孪生网络与自监督 | 高/3 |
任务6:特征压缩与加速 | 高/3 |
打卡地址:https://shimo.im/forms/I1HSpXlDwYkWYPiQ/fill
实践比赛地址:https://competition.coggle.club/
昵称 | 任务1 | 任务2 | 任务3 | 任务4 | 任务5 | 任务6 |
---|---|---|---|---|---|---|
土豆儿 | ✅ | ✅ | ✅ | ✅ | ✅ | |
夜的第七章 | ✅ | ✅ | ✅ | ✅ | ||
无盐 | ✅ | ✅ | ✅ | |||
Roger_lv | ✅ | ✅ | ✅ | |||
土豆儿 | ✅ | ✅ | ||||
夜空中最亮的星 | ||||||
宁静致远 | ||||||
GLT007009 | ||||||
包仔仔 | ||||||
阿水 | ✅ | ✅ | ✅ | ✅ |
图像相似度是用于度量两幅图像之间相似程度的指标。图像相似度可以基于像素级别的相似度或者基于特征匹配的相似度来计算。像素级别的相似度通常是基于两幅图像的像素值来计算的,包括均方误差、结构相似性指数(SSIM)等。而基于特征匹配的相似度则是通过提取图像的特征,比如颜色、纹理、形状等,来计算图像之间的相似度。
颜色直方图是指统计一幅图像中每种颜色出现的频率,然后将这些频率以直方图的形式表示出来。颜色直方图相似度是一种基于颜色直方图的相似度度量方法,用于度量两幅图像之间的相似程度。计算颜色直方图相似度的方法通常包括将两幅图像的颜色直方图进行比较,比如可以计算两个直方图之间的距离或者相似度。颜色直方图相似度在图像检索、图像分类、目标识别等领域都有广泛的应用。
图像检索是指通过输入一张图像,然后在一个图像数据库中搜索与该图像最相似的图像。图像检索的基本流程包括图像特征提取、相似度计算和排序等步骤。
首先,通过图像特征提取方法将一张图像转换为一个向量表示。然后,通过相似度计算方法计算输入图像与数据库中所有图像之间的相似度。最后,根据相似度对所有图像进行排序,将与输入图像最相似的图像排在前面。
任务1实践步骤如下:
import cv2
import glob
import os, sys
import pandas as pd
import numpy as np
from sklearn.preprocessing import normalize
# 计算dataset文件夹中所有图的直方图
dataset_feat = []
for path in glob.glob('./dataset/*.jpg'):
img = cv2.imread(path, 0)
feat = cv2.calcHist(np.array([img]), [0], None, [256], [0, 256]).flatten()
dataset_feat.append(feat)
# 进行归一化
dataset_feat = np.array(dataset_feat)
dataset_feat = normalize(dataset_feat)
# 计算query文件夹中所有图像的直方图
query_feat = []
for path in glob.glob('./query/*.jpg'):
img = cv2.imread(path, 0)
feat = cv2.calcHist(np.array([img]), [0], None, [256], [0, 256]).flatten()
query_feat.append(feat)
# 进行归一化
query_feat = np.array(query_feat)
query_feat = normalize(query_feat)
# 计算每张query图片与dataset图片的颜色直方图相似度
dis = np.dot(query_feat, dataset_feat.T)
dataset_path = np.array(glob.glob('./dataset/*.jpg'))
# 生成提交结果
pd.DataFrame({
'source': [x.split('/')[-1] for x in dataset_path[dis.argmax(1)]],
'query': [x.split('/')[-1] for x in glob.glob('./query/*.jpg')]
}).to_csv('submit.csv', index=None)
SIFT和ORB是两种常用的局部特征提取算法,它们能够从图像中提取出关键点,并对这些关键点进行描述和匹配。SIFT(Scale Invariant Feature Transform)算法通过对不同尺度和方向的高斯差分图像进行特征检测,得到具有旋转不变性和尺度不变性的关键点。
ORB(Oriented FAST and Rotated BRIEF)算法则是基于FAST关键点检测算法和BRIEF描述符的改进算法,具有快速和鲁棒性的优点。在关键点匹配时,常用的方法包括暴力匹配和基于FLANN的匹配算法。
方法1:BoW(Bag of Words)模型是一种常见的局部特征编码方法,将局部特征向量表示为一组视觉词汇的直方图。
方法2:VLAD(Vector of Locally Aggregated Descriptors)和Fisher Vector则是基于BoW模型的改进算法,能够更加准确地描述局部特征的分布和空间结构。
关键点匹配是图像匹配的一项基本任务,通常用于在两幅图像中寻找相同或相似的物体、场景等。匹配的过程可以通过比较两幅图像的局部特征来实现,其中每个关键点都对应着一个特征向量,可以通过计算这些向量之间的距离或相似度来评估它们之间的匹配程度。
常见的关键点匹配方法包括暴力匹配和基于FLANN的匹配。暴力匹配方法简单直观,对于每个关键点,将其与另一幅图像中的所有关键点进行比较,选取距离最近的关键点作为其匹配点。FLANN(Fast Library for Approximate Nearest Neighbors)的匹配方法则采用了近似最近邻算法,能够在保证匹配准确率的同时大幅降低计算时间。
RANSAC(Random Sample Consensus)是一种经典的估计模型参数的算法,其主要应用于数据中包含噪声或异常值的情况下,通过随机采样和假设验证的方式来估计模型。在RANSAC算法中,首先从匹配的关键点对中随机选择一组样本,然后使用这组样本计算出一个模型参数。接着,使用这个模型参数对所有关键点对进行预测,并将与预测结果差距较小的关键点对视为符合模型的关键点对。最后,根据符合模型的关键点对的数量来评估该模型参数的好坏,若该模型参数符合预设的阈值,则认为该模型参数可用于描述这组关键点的匹配关系。
任务2实践步骤如下:
CNN/VIT模型特征提取:介绍CNN和VIT模型在图像特征提取中的应用,包括如何利用预训练模型提取图像的全局特征。
CLIP模型特征提取:讲解CLIP模型的原理和应用,包括如何将图像和文本的特征嵌入到同一个向量空间中,以及如何利用CLIP模型进行图像检索和分类。
深度全局特征的优缺点:讨论深度全局特征和传统算法的差异,包括特征表达能力、泛化能力、计算效率等方面。
import torch
from torch.utils.data.dataset import Dataset
import torchvision.models as models
import torchvision.transforms as transforms
# 加载CNN模型
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model = models.resnet50(True)
model.fc = torch.nn.Identity()
model = model.to(device)
# 加载VIT模型
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model = models.vit_b_16(weights=torchvision.models.ViT_B_16_Weights)
model.heads = torch.nn.Identity()
model = model.to(device)
# 加载CLIP模型
import clip
# https://github.com/openai/CLIP
device = "cuda" if torch.cuda.is_available() else "cpu"
model, preprocess = clip.load("ViT-B/32", device=device)
提取图片特征的代码可参考:
https://www.kaggle.com/code/finlay/shopee-products-matching-image-part-english
孪生网络是一种由两个相同结构的神经网络组成的模型,其目的是将两个输入数据映射到一个共同的向量空间中,并计算它们之间的相似度或距离。它通常用于图像匹配、人脸识别、语义匹配等任务中。
参考代码:
https://github.com/owruby/siamese_pytorch/blob/master/train.py
对比损失的目标是将同类实例之间的距离最小化,不同类实例之间的距离最大化,而三元组损失则是将同类实例之间的距离最小化,并将不同类实例之间的距离最大化。
在SimCLR中,模型通过学习对同一个图像的多个视角进行编码,从而生成不同的表示形式,这些表示形式被设计成相互一致的,以使得相同实例的不同视角编码之间的距离最小化。
类似地在SimCSE中,模型通过学习对同一个句子的多个视角进行编码,从而生成不同的表示形式,这些表示形式被设计成相互一致的,以使得相同实例的不同视角编码之间的距离最小化
参考链接:
PQ量化(Product Quantization)是一种压缩和加速高维向量相似性搜索的技术,通常用于图像和视频检索领域。PQ量化将高维向量划分成多个较小的子向量,并对每个子向量使用独立的编码器进行编码,从而将高维向量转换为一系列的子编码。这些子编码通常被存储在内存中,并通过查询相似性搜索引擎进行搜索。
特征PCA白化是一种预处理技术,它将输入数据的协方差矩阵进行特征分解,并将其变换为一个对角矩阵,然后将原始数据进行线性变换,使得变换后的数据的协方差矩阵为单位矩阵。这样做的好处是可以去除数据中的冗余信息和相关性,并且提高数据的稳定性和可解释性。
© 2019-2023 coggle.club 版权所有 京ICP备20022947 京公网安备 11030102010643号