3.1 簡介
圖像彩色空間互轉在圖像處理中應用非常廣泛,而且很多算法只對灰度圖有效;另外,相比RGB,其他顏色空間(比如HSV、HSI)更具可分離性和可操作性,所以很多圖像算法需要將圖像從RGB轉爲其他顏色空間,所以圖像彩色互轉是十分重要和關鍵的。
3.2 學習目標
- 瞭解相關顏色空間的基礎知識
- 理解彩色空間互轉的理論
- 掌握OpenCV框架下顏色空間互轉API的使用
3.3 內容介紹
1.相關顏色空間的原理介紹
2.顏色空間互轉理論的介紹
3.OpenCV代碼實踐
4.動手實踐並打卡(讀者完成)
3.4 算法理論介紹與資料推薦
3.4.1 RGB與灰度圖互轉
RGB(紅綠藍)是依據人眼識別的顏色定義出的空間,可表示大部分顏色。但在科學研究一般不採用RGB顏色空間,因爲它的細節難以進行數字化的調整。它將色調,亮度,飽和度三個量放在一起表示,很難分開。它是最通用的面向硬件的彩色模型。該模型用於彩色監視器和一大類彩色視頻攝像。
RGB顏色空間 基於顏色的加法混色原理,從黑色不斷疊加Red,Green,Blue的顏色,最終可以得到白色,如圖:
將R、G、B三個通道作爲笛卡爾座標系中的X、Y、Z軸,就得到了一種對於顏色的空間描述,如圖:
對於彩色圖轉灰度圖,有一個很著名的心理學公式:
Gray = R * 0.299 + G * 0.587 + B * 0.114
3.4.2 RGB與HSV互轉
HSV是一種將RGB色彩空間中的點在倒圓錐體中的表示方法。HSV即色相(Hue)、飽和度(Saturation)、明度(Value),又稱HSB(B即Brightness)。色相是色彩的基本屬性,就是平常說的顏色的名稱,如紅色、黃色等。飽和度(S)是指色彩的純度,越高色彩越純,低則逐漸變灰,取0-100%的數值。明度(V),取0-max(計算機中HSV取值範圍和存儲的長度有關)。HSV顏色空間可以用一個圓錐空間模型來描述。圓錐的頂點處,V=0,H和S無定義,代表黑色。圓錐的頂面中心處V=max,S=0,H無定義,代表白色。
RGB顏色空間中,三種顏色分量的取值與所生成的顏色之間的聯繫並不直觀。而HSV顏色空間,更類似於人類感覺顏色的方式,封裝了關於顏色的信息:“這是什麼顏色?深淺如何?明暗如何?
HSV模型
這個模型就是按色彩、深淺、明暗來描述的。
H是色彩;
S是深淺, S = 0時,只有灰度;
V是明暗,表示色彩的明亮程度,但與光強無直接聯繫。
應用:可以用於偏光矯正、去除陰影、圖像分割等
1.RGB2HSV
或
2.HSV2RGB
3.5 基於OpenCV的實現
- 工具:OpenCV3.1.0+VS2013
- 平臺:WIN10
函數原型(c++)
void cvtColor(InputArray src, OutputArray dst, int code, int dstCn=0)
- src: 輸入圖像
- dst: 輸出圖像
- code: 顏色空間轉換標識符
- OpenCV2的CV_前綴宏命名規範被OpenCV3中的COLOR_式的宏命名前綴取代
- 注意RGB色彩空間默認通道順序爲BGR
- 具體可以參考: enum cv::ColorConversionCode部分
- dstCn: 目標圖像的通道數,該參數爲0時,目標圖像根據源圖像的通道數和具體操作自動決定
實現示例(c++)
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <iostream>
// main
int main( int argc, char** argv )
{
// Load image
cv::Mat srcImage = cv::imread("1.jpg"), dstImage;
// RGB2GHSV
cv::cvtColor(srcImage, dstImage, cv::COLOR_BGR2hHSV);
imshow("Lab Space", dstImage);
//RGB2GRAY
cv::cvtColor(srcImage, dstImage, cv::COLOR_BGR2GRAY);
imshow("Gray Scale", dstImage);
cv::waitKey();
return 0;
}
進階實現(根據原理自己實現)
- 1.RGB2GRAY
#include <iostream>
#include <opencv2/core.hpp>
#include <opencv2/highgui.hpp>
#include <opencv2/imgproc.hpp>
cv::Mat RGB2GRAY(cv::Mat src, bool accelerate=false){
CV_Assert(src.channels()==3);
cv::Mat dst = cv::Mat::zeros(src.size(), CV_8UC1);
cv::Vec3b rgb;
int r = src.rows;
int c = src.cols;
for (int i = 0; i < r; ++i){
for (int j = 0; j < c; ++j){
rgb = src.at<cv::Vec3b>(i, j);
uchar B = rgb[0]; uchar G = rgb[1]; uchar R = rgb[2];
if (accelerate = false){
dst.at<uchar>(i, j) = R*0.299 + G*0.587 + B*0.114; //原式
}
else{
dst.at<uchar>(i, j) = (R * 4898 + G * 9618 + B * 1868) >> 14; //優化
}
}
}
return dst;
}
int main(){
cv::Mat src = cv::imread("I:\\Learning-and-Practice\\2019Change\\Image process algorithm\\Img\\lena.jpg");
if (src.empty()){
return -1;
}
cv::Mat dst,dst1;
//opencv自帶
double t2 = (double)cv::getTickCount(); //測時間
cv::cvtColor(src, dst1, CV_RGB2GRAY);
t2 = (double)cv::getTickCount() - t2;
double time2 = (t2 *1000.) / ((double)cv::getTickFrequency());
std::cout << "Opencv_rgb2gray=" << time2 << " ms. " << std::endl << std::endl;
//RGB2GRAY
double t1 = (double)cv::getTickCount(); //測時間
dst = RGB2GRAY(src, true);
t1 = (double)cv::getTickCount() - t1;
double time1 = (t1 *1000.) / ((double)cv::getTickFrequency());
std::cout << "My_rgb2gray=" << time1 << " ms. " << std::endl << std::endl;
cv::namedWindow("src", CV_WINDOW_NORMAL);
imshow("src", src);
cv::namedWindow("My_rgb2gray", CV_WINDOW_NORMAL);
imshow("My_rgb2gray", dst);
cv::namedWindow("Opencv_rgb2gray", CV_WINDOW_NORMAL);
imshow("Opencv_rgb2gray", dst1);
cv::waitKey(0);
return 0;
}
- 2.RGB2HSV/HSV2RGB
#include <iostream>
#include <opencv2/core.hpp>
#include <opencv2/highgui.hpp>
#include <opencv2/imgproc.hpp>
using namespace cv;
Mat RGB2HSV(Mat src) {
int row = src.rows;
int col = src.cols;
Mat dst(row, col, CV_32FC3);
for (int i = 0; i < row; i++) {
for (int j = 0; j < col; j++) {
float b = src.at<Vec3b>(i, j)[0] / 255.0;
float g = src.at<Vec3b>(i, j)[1] / 255.0;
float r = src.at<Vec3b>(i, j)[2] / 255.0;
float minn = min(r, min(g, b));
float maxx = max(r, max(g, b));
dst.at<Vec3f>(i, j)[2] = maxx; //V
float delta = maxx - minn;
float h, s;
if (maxx != 0) {
s = delta / maxx;
}
else {
s = 0;
}
if (r == maxx) {
h = (g - b) / delta;
}
else if (g == maxx) {
h = 2 + (b - r) / delta;
}
else if (b==maxx) {
h = 4 + (r - g) / delta;
}
else{
h = 0;
}
h *= 60;
if (h < 0)
h += 360;
dst.at<Vec3f>(i, j)[0] = h;
dst.at<Vec3f>(i, j)[1] = s;
}
}
return dst;
}
Mat HSV2RGB(Mat src) {
int row = src.rows;
int col = src.cols;
Mat dst(row, col, CV_8UC3);
float r, g, b, h, s, v;
for (int i = 0; i < row; i++) {
for (int j = 0; j < col; j++) {
h = src.at<Vec3f>(i, j)[0];
s = src.at<Vec3f>(i, j)[1];
v = src.at<Vec3f>(i, j)[2];
if (s == 0) {
r = g = b = v;
}
else {
h /= 60;
int offset = floor(h);
float f = h - offset;
float p = v * (1 - s);
float q = v * (1 - s * f);
float t = v * (1 - s * (1 - f));
switch (offset)
{
case 0: r = v; g = t; b = p; break;
case 1: r = q; g = v; b = p; break;
case 2: r = p; g = v; b = t; break;
case 3: r = p; g = q; b = v; break;
case 4: r = t; g = p; b = v; break;
case 5: r = v; g = p; b = q; break;
default:
break;
}
}
dst.at<Vec3b>(i, j)[0] = int(b * 255);
dst.at<Vec3b>(i, j)[1] = int(g * 255);
dst.at<Vec3b>(i, j)[2] = int(r * 255);
}
}
return dst;
}
int main(){
cv::Mat src = cv::imread("I:\\Learning-and-Practice\\2019Change\\Image process algorithm\\Img\\lena.JPG");
if (src.empty()){
return -1;
}
cv::Mat dst, dst1, dst2;
////////opencv自帶/////////
cv::cvtColor(src, dst1, CV_RGB2HSV); //RGB2HSV
//////////RGB2HSV//////////
dst = RGB2HSV(src); //RGB2HSV
dst2 = HSV2RGB(dst); //HSV2BGR
cv::namedWindow("src", CV_WINDOW_NORMAL);
imshow("src", src);
cv::namedWindow("My_RGB2HSV", CV_WINDOW_NORMAL);
imshow("My_RGB2HSV", dst);
cv::namedWindow("My_HSV2RGB", CV_WINDOW_NORMAL);
imshow("My_HSV2RGB", dst2);
cv::namedWindow("Opencv_RGB2HSV", CV_WINDOW_NORMAL);
imshow("Opencv_RGB2HSV", dst1);
cv::waitKey(0);
return 0;
}
效果
相關技術文檔、博客、書籍、項目推薦
opencv文檔:https://docs.opencv.org/3.1.0/de/d25/imgproc_color_conversions.html
博客:https://blog.csdn.net/weixin_40647819/article/details/92596879
https://blog.csdn.net/weixin_40647819/article/details/92660320
python版本:https://www.kancloud.cn/aollo/aolloopencv/263731