diff --git a/src/phg/matching/cl/bruteforce_matcher.cl b/src/phg/matching/cl/bruteforce_matcher.cl index e51a34a..8152442 100644 --- a/src/phg/matching/cl/bruteforce_matcher.cl +++ b/src/phg/matching/cl/bruteforce_matcher.cl @@ -28,11 +28,19 @@ __kernel void bruteforce_matcher(__global const float* train, // заполняем текущие лучшие дистанции большими значениями if (dim_id < KEYPOINTS_PER_WG * 2) { res_distance2_local[dim_id] = FLT_MAX; // полагаемся на то что res_distance2_local размера KEYPOINTS_PER_WG*2==4*2 0) { if (dim_id < step) { - // TODO + dist2_for_reduction[dim_id] += dist2_for_reduction[dim_id + step]; } barrier(CLK_LOCAL_MEM_FENCE); step /= 2; @@ -63,13 +71,15 @@ __kernel void bruteforce_matcher(__global const float* train, #define SECOND_BEST_INDEX 1 // пытаемся улучшить самое лучшее сопоставление для локального дескриптора - if (dist2 <= res_distance2_local[query_local_i * 2 + BEST_INDEX]) { + if (dist2 < res_distance2_local[query_local_i * 2 + BEST_INDEX]) { // не забываем что прошлое лучшее сопоставление теперь стало вторым по лучшевизне (на данный момент) res_distance2_local[query_local_i * 2 + SECOND_BEST_INDEX] = res_distance2_local[query_local_i * 2 + BEST_INDEX]; res_train_idx_local[query_local_i * 2 + SECOND_BEST_INDEX] = res_train_idx_local[query_local_i * 2 + BEST_INDEX]; - // TODO заменяем нашим (dist2, train_idx) самое лучшее сопоставление для локального дескриптора - } else if (dist2 <= res_distance2_local[query_local_i * 2 + SECOND_BEST_INDEX]) { // может мы улучшили хотя бы второе по лучшевизне сопоставление? - // TODO заменяем второе по лучшевизне сопоставление для локального дескриптора + res_distance2_local[query_local_i * 2 + BEST_INDEX] = dist2; + res_train_idx_local[query_local_i * 2 + BEST_INDEX] = train_idx; + } else if (dist2 < res_distance2_local[query_local_i * 2 + SECOND_BEST_INDEX]) { // может мы улучшили хотя бы второе по лучшевизне сопоставление? + res_distance2_local[query_local_i * 2 + SECOND_BEST_INDEX] = dist2; + res_train_idx_local[query_local_i * 2 + SECOND_BEST_INDEX] = train_idx; } } } @@ -82,9 +92,9 @@ __kernel void bruteforce_matcher(__global const float* train, int query_id = query_id0 + query_local_i; if (query_id < n_query_desc) { - res_train_idx[query_id * 2 + k] = // TODO - res_query_idx[query_id * 2 + k] = // TODO хм, не масло масленное ли? - res_distance [query_id * 2 + k] = // TODO не забудьте извлечь корень + res_train_idx[query_id * 2 + k] = res_train_idx_local[query_local_i * 2 + k]; + res_query_idx[query_id * 2 + k] = query_id; + res_distance [query_id * 2 + k] = sqrt(res_distance2_local[query_local_i * 2 + k]); } } } diff --git a/src/phg/matching/descriptor_matcher.cpp b/src/phg/matching/descriptor_matcher.cpp index f4bcd87..9ccc4b2 100644 --- a/src/phg/matching/descriptor_matcher.cpp +++ b/src/phg/matching/descriptor_matcher.cpp @@ -8,7 +8,12 @@ void phg::DescriptorMatcher::filterMatchesRatioTest(const std::vector cv::Mat points_query(n_matches, 2, CV_32FC1); cv::Mat points_train(n_matches, 2, CV_32FC1); for (int i = 0; i < n_matches; ++i) { - points_query.at(i) = keypoints_query[matches[i].queryIdx].pt; - points_train.at(i) = keypoints_train[matches[i].trainIdx].pt; + points_query.at(i, 0) = keypoints_query[matches[i].queryIdx].pt.x; + points_query.at(i, 1) = keypoints_query[matches[i].queryIdx].pt.y; + points_train.at(i, 0) = keypoints_train[matches[i].trainIdx].pt.x; + points_train.at(i, 1) = keypoints_train[matches[i].trainIdx].pt.y; + } + + // размерность всего 2, так что точное KD-дерево + std::shared_ptr index_params = flannKdTreeIndexParams(1); + std::shared_ptr search_params = flannKsTreeSearchParams(32); + + std::shared_ptr index_query = flannKdTreeIndex(points_query, index_params); + std::shared_ptr index_train = flannKdTreeIndex(points_train, index_params); + + // для каждой точки найти total neighbors ближайших соседей + cv::Mat indices_query(n_matches, total_neighbours, CV_32SC1); + cv::Mat distances2_query(n_matches, total_neighbours, CV_32FC1); + cv::Mat indices_train(n_matches, total_neighbours, CV_32SC1); + cv::Mat distances2_train(n_matches, total_neighbours, CV_32FC1); + + index_query->knnSearch(points_query, indices_query, distances2_query, total_neighbours, *search_params); + index_train->knnSearch(points_train, indices_train, distances2_train, total_neighbours, *search_params); + + // оценить радиус поиска для каждой картинки + // NB: radius2_query, radius2_train: квадраты радиуса! + float radius2_query, radius2_train; + { + std::vector max_dists2_query(n_matches); + std::vector max_dists2_train(n_matches); + for (int i = 0; i < n_matches; ++i) { + max_dists2_query[i] = distances2_query.at(i, total_neighbours - 1); + max_dists2_train[i] = distances2_train.at(i, total_neighbours - 1); + } + + int median_pos = n_matches / 2; + std::nth_element(max_dists2_query.begin(), max_dists2_query.begin() + median_pos, max_dists2_query.end()); + std::nth_element(max_dists2_train.begin(), max_dists2_train.begin() + median_pos, max_dists2_train.end()); + + radius2_query = max_dists2_query[median_pos] * radius_limit_scale * radius_limit_scale; + radius2_train = max_dists2_train[median_pos] * radius_limit_scale * radius_limit_scale; + } + + //метч остается, если левое и правое множества первых total_neighbors соседей в радиусах поиска(radius2_query, radius2_train) имеют как минимум consistent_matches общих элементов + for(int i = 0; i < n_matches; i++) { + std::vector query_close; + std::vector train_close; + + for (int j = 0; j < total_neighbours; j++) { + if (distances2_query.at(i, j) <= radius2_query) { + query_close.push_back(indices_query.at(i, j)); + } + } + + for (int j = 0; j < total_neighbours; j++) { + if (distances2_train.at(i, j) <= radius2_train) { + train_close.push_back(indices_train.at(i, j)); + } + } + + int result = 0; + for (int j = 0; j < train_close.size(); j++) { + if (std::find(query_close.begin(), query_close.end(), train_close[j]) != query_close.end()) { + result++; + } + } + + if (result >= consistent_matches) { + filtered_matches.push_back(matches[i]); + } } -// -// // размерность всего 2, так что точное KD-дерево -// std::shared_ptr index_params = flannKdTreeIndexParams(TODO); -// std::shared_ptr search_params = flannKsTreeSearchParams(TODO); -// -// std::shared_ptr index_query = flannKdTreeIndex(points_query, index_params); -// std::shared_ptr index_train = flannKdTreeIndex(points_train, index_params); -// -// // для каждой точки найти total neighbors ближайших соседей -// cv::Mat indices_query(n_matches, total_neighbours, CV_32SC1); -// cv::Mat distances2_query(n_matches, total_neighbours, CV_32FC1); -// cv::Mat indices_train(n_matches, total_neighbours, CV_32SC1); -// cv::Mat distances2_train(n_matches, total_neighbours, CV_32FC1); -// -// index_query->knnSearch(points_query, indices_query, distances2_query, total_neighbours, *search_params); -// index_train->knnSearch(points_train, indices_train, distances2_train, total_neighbours, *search_params); -// -// // оценить радиус поиска для каждой картинки -// // NB: radius2_query, radius2_train: квадраты радиуса! -// float radius2_query, radius2_train; -// { -// std::vector max_dists2_query(n_matches); -// std::vector max_dists2_train(n_matches); -// for (int i = 0; i < n_matches; ++i) { -// max_dists2_query[i] = distances2_query.at(i, total_neighbours - 1); -// max_dists2_train[i] = distances2_train.at(i, total_neighbours - 1); -// } -// -// int median_pos = n_matches / 2; -// std::nth_element(max_dists2_query.begin(), max_dists2_query.begin() + median_pos, max_dists2_query.end()); -// std::nth_element(max_dists2_train.begin(), max_dists2_train.begin() + median_pos, max_dists2_train.end()); -// -// radius2_query = max_dists2_query[median_pos] * radius_limit_scale * radius_limit_scale; -// radius2_train = max_dists2_train[median_pos] * radius_limit_scale * radius_limit_scale; -// } -// -// метч остается, если левое и правое множества первых total_neighbors соседей в радиусах поиска(radius2_query, radius2_train) имеют как минимум consistent_matches общих элементов -// // TODO заполнить filtered_matches } diff --git a/src/phg/matching/flann_matcher.cpp b/src/phg/matching/flann_matcher.cpp index 9e9f518..9ef5590 100644 --- a/src/phg/matching/flann_matcher.cpp +++ b/src/phg/matching/flann_matcher.cpp @@ -1,13 +1,14 @@ #include #include "flann_matcher.h" #include "flann_factory.h" +#include "gms_matcher_impl.h" phg::FlannMatcher::FlannMatcher() { // параметры для приближенного поиска -// index_params = flannKdTreeIndexParams(TODO); -// search_params = flannKsTreeSearchParams(TODO); + index_params = flannKdTreeIndexParams(4); + search_params = flannKsTreeSearchParams(32); } void phg::FlannMatcher::train(const cv::Mat &train_desc) @@ -17,5 +18,21 @@ void phg::FlannMatcher::train(const cv::Mat &train_desc) void phg::FlannMatcher::knnMatch(const cv::Mat &query_desc, std::vector> &matches, int k) const { - throw std::runtime_error("not implemented yet"); + matches.clear(); + int n = query_desc.rows; + cv::Mat indices_query(n, k, CV_32SC1); + cv::Mat distances_query(n, k, CV_32FC1); + flann_index->knnSearch(query_desc, indices_query, distances_query, k, *search_params); + matches.resize(n); + for (int i = 0; i < n; i++) { + matches.reserve(k); + for (int j = 0; j < k; j++) { + int ind = indices_query.at(i, j); + if (ind < 0) continue; + float dist = std::sqrt(distances_query.at(i, j)); + matches[i].emplace_back(i, ind, 0, dist); + + } + //std::sort(matches[i].begin(), matches[i].end(), [](const cv::DMatch a, const cv::DMatch b) {return a.distance < b.distance;}); + } } diff --git a/src/phg/sfm/homography.cpp b/src/phg/sfm/homography.cpp index 5cbc780..237fb91 100644 --- a/src/phg/sfm/homography.cpp +++ b/src/phg/sfm/homography.cpp @@ -84,8 +84,8 @@ namespace { double w1 = ws1[i]; // 8 elements of matrix + free term as needed by gauss routine -// A.push_back({TODO}); -// A.push_back({TODO}); + A.push_back({0, 0, 0, -x0*w1, -y0*w1, -w0*w1, x0*y1, y0*y1, -w0*y1}); + A.push_back({x0*w1, y0*w1, w0*w1, 0, 0, 0, -x0*x1, -y0*x1, w0*x1}); } int res = gauss(A, H); @@ -162,63 +162,65 @@ namespace { throw std::runtime_error("findHomography: points_lhs.size() != points_rhs.size()"); } - // TODO Дополнительный балл, если вместо обычной версии будет использована модификация a-contrario RANSAC // * [1] Automatic Homographic Registration of a Pair of Images, with A Contrario Elimination of Outliers. (Lionel Moisan, Pierre Moulon, Pascal Monasse) // * [2] Adaptive Structure from Motion with a contrario model estimation. (Pierre Moulon, Pascal Monasse, Renaud Marlet) // * (простое описание для понимания) // * [3] http://ikrisoft.blogspot.com/2015/01/ransac-with-contrario-approach.html -// const int n_matches = points_lhs.size(); -// -// // https://en.wikipedia.org/wiki/Random_sample_consensus#Parameters -// const int n_trials = TODO; -// -// const int n_samples = TODO; -// uint64_t seed = 1; -// const double reprojection_error_threshold_px = 2; -// -// int best_support = 0; -// cv::Mat best_H; -// -// std::vector sample; -// for (int i_trial = 0; i_trial < n_trials; ++i_trial) { -// randomSample(sample, n_matches, n_samples, &seed); -// -// cv::Mat H = estimateHomography4Points(points_lhs[sample[0]], points_lhs[sample[1]], points_lhs[sample[2]], points_lhs[sample[3]], -// points_rhs[sample[0]], points_rhs[sample[1]], points_rhs[sample[2]], points_rhs[sample[3]]); -// -// int support = 0; -// for (int i_point = 0; i_point < n_matches; ++i_point) { -// try { -// cv::Point2d proj = phg::transformPoint(points_lhs[i_point], H); -// if (cv::norm(proj - cv::Point2d(points_rhs[i_point])) < reprojection_error_threshold_px) { -// ++support; -// } -// } catch (const std::exception &e) -// { -// std::cerr << e.what() << std::endl; -// } -// } -// -// if (support > best_support) { -// best_support = support; -// best_H = H; -// -// std::cout << "estimateHomographyRANSAC : support: " << best_support << "/" << n_matches << std::endl; -// -// if (best_support == n_matches) { -// break; -// } -// } -// } -// -// std::cout << "estimateHomographyRANSAC : best support: " << best_support << "/" << n_matches << std::endl; -// -// if (best_support == 0) { -// throw std::runtime_error("estimateHomographyRANSAC : failed to estimate homography"); -// } -// -// return best_H; + const int n_matches = points_lhs.size(); + + // https://en.wikipedia.org/wiki/Random_sample_consensus#Parameters + const int n_trials = 1000; + + const int n_samples = 4; + uint64_t seed = 1; + const double reprojection_error_threshold_px = 2; + + int best_support = 0; + cv::Mat best_H; + + std::vector sample; + for (int i_trial = 0; i_trial < n_trials; ++i_trial) { + try { + randomSample(sample, n_matches, n_samples, &seed); + cv::Mat H = estimateHomography4Points(points_lhs[sample[0]], points_lhs[sample[1]], points_lhs[sample[2]], points_lhs[sample[3]], + points_rhs[sample[0]], points_rhs[sample[1]], points_rhs[sample[2]], points_rhs[sample[3]]); + + int support = 0; + for (int i_point = 0; i_point < n_matches; ++i_point) { + try { + cv::Point2d proj = phg::transformPoint(points_lhs[i_point], H); + if (cv::norm(proj - cv::Point2d(points_rhs[i_point])) < reprojection_error_threshold_px) { + ++support; + } + } catch (const std::exception &e) + { + std::cerr << e.what() << std::endl; + } + } + if (support > best_support) { + best_support = support; + best_H = H; + + std::cout << "estimateHomographyRANSAC : support: " << best_support << "/" << n_matches << std::endl; + + if (best_support == n_matches) { + break; + } + } + } catch (...) { + } + + + } + + std::cout << "estimateHomographyRANSAC : best support: " << best_support << "/" << n_matches << std::endl; + + if (best_support == 0) { + throw std::runtime_error("estimateHomographyRANSAC : failed to estimate homography"); + } + + return best_H; } } @@ -238,7 +240,15 @@ cv::Mat phg::findHomographyCV(const std::vector &points_lhs, const // таким преобразованием внутри занимается функции cv::perspectiveTransform и cv::warpPerspective cv::Point2d phg::transformPoint(const cv::Point2d &pt, const cv::Mat &T) { - throw std::runtime_error("not implemented yet"); + std::vector res(3); + res[0] = T.at(0, 0) * pt.x + T.at(0, 1) * pt.y + T.at(0, 2); + res[1] = T.at(1, 0) * pt.x + T.at(1, 1) * pt.y + T.at(1, 2); + res[2] = T.at(2, 0) * pt.x + T.at(2, 1) * pt.y + T.at(2, 2);; + + if (abs(res[2]) < 1e-12) { + throw std::runtime_error("Infinity point"); + } + return {res[0]/res[2], res[1]/res[2]}; } cv::Point2d phg::transformPointCV(const cv::Point2d &pt, const cv::Mat &T) { diff --git a/src/phg/sfm/panorama_stitcher.cpp b/src/phg/sfm/panorama_stitcher.cpp index 8d76939..04775f2 100644 --- a/src/phg/sfm/panorama_stitcher.cpp +++ b/src/phg/sfm/panorama_stitcher.cpp @@ -4,6 +4,19 @@ #include #include +void treeTraverse(std::vector& Hs, + const std::vector > &g, + const int now, + const std::vector &imgs, + const std::function &homography_builder) { + for (auto u : g[now]) { + Hs[u] = Hs[now] * homography_builder(imgs[u], imgs[now]); + } + for (auto u : g[now]) { + treeTraverse(Hs, g, u, imgs, homography_builder); + } +} + /* * imgs - список картинок * parent - список индексов, каждый индекс указывает, к какой картинке должна быть приклеена текущая картинка @@ -20,10 +33,21 @@ cv::Mat phg::stitchPanorama(const std::vector &imgs, // вектор гомографий, для каждой картинки описывает преобразование до корня std::vector Hs(n_images); + std::vector> g(n_images); { // здесь надо посчитать вектор Hs // при этом можно обойтись n_images - 1 вызовами функтора homography_builder - throw std::runtime_error("not implemented yet"); + int root = -1; + for (int i = 0; i < n_images; i++) { + if (parent[i] == -1) { + root = i; + } else { + g[parent[i]].push_back(i); + } + } + + Hs[root] = cv::Mat::eye(3, 3, CV_64F); + treeTraverse(Hs, g, root, imgs, homography_builder); } bbox2 bbox; diff --git a/src/phg/sift/sift.cpp b/src/phg/sift/sift.cpp index 7204771..286998b 100755 --- a/src/phg/sift/sift.cpp +++ b/src/phg/sift/sift.cpp @@ -98,6 +98,7 @@ std::vector phg::buildOctaves(const cv::Mat& img, const phg:: std::vector octaves(n_octaves); + double pg = std::pow(2.0, 1.0/s); for (int o = 0; o < n_octaves; o++) { phg::SIFT::Octave& oct = octaves[o]; oct.layers.resize(n_layers); @@ -107,18 +108,19 @@ std::vector phg::buildOctaves(const cv::Mat& img, const phg:: // для простоты в каждой октаве будем каждый раз блюрить базовую картинку с полной сигмой // можно подумать, как сделать эффективнее - для построения n+1 слоя доблюревать уже поблюренный n-ый слой, так чтобы в итоге получилась такая же сигма // это будет немного быстрее, тк нужно более маленькое ядро свертки на каждый шаг + for (int i = 1; i < n_layers; i++) { - // TODO double sigma_layer = sigma0 * корень из двух нужной степени, чтобы при i==s получали удвоение базового блюра; - // // вычтем sigma0 чтобы размыть ровно до нужной суммарной сигмы - // TODO sigma_layer = ... (вычитаем как в sigma base); - // cv::GaussianBlur(oct.layers[0], oct.layers[i], cv::Size(), sigma_layer, sigma_layer); + + double sigma_layer = sigma0 * std::pow(pg, i); + double sigma_layer_prev = sigma0 * std::pow(pg, i-1); + double sigma_result = std::sqrt(sigma_layer*sigma_layer - sigma_layer_prev*sigma_layer_prev); + cv::GaussianBlur(oct.layers[i-1], oct.layers[i], cv::Size(), sigma_result, sigma_result); } // подготавливаем базовый слой для следующей октавы if (o + 1 < n_octaves) { // используется в opencv, формула для пересчета ключевых точек: pt_upscaled = 2^o * pt_downscaled - // TODO cv::resize(даунскейлим текущий слой в два раза, без интерполяции, просто сабсепмлинг); - + base = downsample2x(oct.layers[s]); // можно использовать и downsample2x_avg(oct.layers[s]), это позволяет потом заапскейлить слои обратно до оригинального разрешения без сдвига // но потребуется везде изменить формулу для пересчета ключевых точек: pt_upscaled = (pt_downscaled + 0.5) * 2^o - 0.5 @@ -138,7 +140,12 @@ std::vector phg::buildDoG(const std::vector phg::findScaleSpaceExtrema(const std::vector компенсируем порог - const float thresh = (float)(contrast_threshold / s); + const auto thresh = (float)(contrast_threshold / s); const int border = 5; @@ -207,17 +214,40 @@ std::vector phg::findScaleSpaceExtrema(const std::vector phg::findScaleSpaceExtrema(const std::vector(yi, xi + 1) + cL.at(yi, xi - 1) - 2.f * resp_center; -// float dyy = TODO; -// float dss = TODO; -// -// float dxy = (cL.at(yi + 1, xi + 1) - cL.at(yi + 1, xi - 1) - cL.at(yi - 1, xi + 1) + cL.at(yi - 1, xi - 1)) * 0.25f; -// float dxs = TODO; -// float dys = TODO; + dxx = cL.at(yi, xi + 1) + cL.at(yi, xi - 1) - 2.f * resp_center; + dyy = cL.at(yi + 1, xi) + cL.at(yi - 1, xi) - 2.f * resp_center; + dss = nL.at(yi, xi) + pL.at(yi, xi) - 2.f * resp_center; + dxy = (cL.at(yi + 1, xi + 1) - cL.at(yi + 1, xi - 1) - cL.at(yi - 1, xi + 1) + cL.at(yi - 1, xi - 1)) * 0.25f; + dxs = (nL.at(yi, xi + 1) - nL.at(yi, xi - 1) - pL.at(yi, xi + 1) + pL.at(yi, xi - 1)) * 0.25f; + dys = (nL.at(yi + 1, xi) - nL.at(yi - 1, xi) - pL.at(yi + 1, xi) + pL.at(yi - 1, xi)) * 0.25f; cv::Matx33f H(dxx, dxy, dxs, dxy, dyy, dys, dxs, dys, dss); @@ -273,21 +302,21 @@ std::vector phg::findScaleSpaceExtrema(const std::vector= (r + 1.0) * (r + 1.0) / r) + break; } // скейлим координаты точек обратно до родных размеров картинки @@ -379,39 +408,39 @@ std::vector phg::computeOrientations(const std::vector(py, px + 1) - img.at(py, px - 1); -// float gy = img.at(py + 1, px) - img.at(py - 1, px); -// -// float mag = TODO; -// float angle = std::atan2(TODO); // [-pi, pi] -// -// float angle_deg = angle * 180.f / (float) CV_PI; -// if (angle_deg < 0.f) angle_deg += 360.f; -// -// // гауссово взвешивание голоса точки с затуханием к краям -// float weight = std::exp(-(TODO) / (2.f * sigma_win * sigma_win)); -// if (!params.enable_orientation_gaussian_weighting) { -// weight = 1.f; -// } -// -// // голосуем в гистограмме направлений. находим два ближайших бина и гладко распределяем голос между ними -// // в таком случае, голос попавший близко к границе между бинами, проголосует поровну за оба бина -// float bin = TODO; -// if (bin >= n_bins) bin -= n_bins; -// int bin0 = (int) bin; -// int bin1 = (bin0 + 1) % n_bins; -// -// float frac = bin - bin0; -// if (!params.enable_orientation_bin_interpolation) { -// frac = 0.f; -// } -// -// histogram[bin0] += TODO; -// histogram[bin1] += TODO; + int px = xi + dx; + int py = yi + dy; + + // градиент + float gx = img.at(py, px + 1) - img.at(py, px - 1); + float gy = img.at(py + 1, px) - img.at(py - 1, px); + + float mag = std::sqrt(gx*gx + gy*gy); + float angle = std::atan2(gy, gx); // [-pi, pi] + + float angle_deg = angle * 180.f / (float) CV_PI; + if (angle_deg < 0.f) angle_deg += 360.f; + + // гауссово взвешивание голоса точки с затуханием к краям + float weight = std::exp(-(dx*dx + dy*dy) / (2.f * sigma_win * sigma_win)); + if (!params.enable_orientation_gaussian_weighting) { + weight = 1.f; + } + + // голосуем в гистограмме направлений. находим два ближайших бина и гладко распределяем голос между ними + // в таком случае, голос попавший близко к границе между бинами, проголосует поровну за оба бина + float bin = angle_deg * n_bins / 360.f; + if (bin >= n_bins) bin -= n_bins; + int bin0 = (int) bin; + int bin1 = (bin0 + 1) % n_bins; + + float frac = bin - bin0; + if (!params.enable_orientation_bin_interpolation) { + frac = 0.0f; + } + + histogram[bin0] += mag*weight*(1.0f - frac); + histogram[bin1] += mag*weight*frac; } } @@ -450,20 +479,25 @@ std::vector phg::computeOrientations(const std::vector a = (left + right - 2 * center) / 2 // f(1) - f(-1) = 2b -> b = (right - left) / 2 -// float offset = TODO; -// if (!params.enable_orientation_subpixel_localization) { -// offset = 0.f; -// } -// -// float bin_real = i + offset; -// if (bin_real < 0.f) bin_real += n_bins; -// if (bin_real >= n_bins) bin_real -= n_bins; -// -// float angle = bin_real * 360.f / n_bins; -// -// cv::KeyPoint new_kp = kp; -// new_kp.angle = angle; -// oriented_kpts.push_back(new_kp); + float a = (left + right - 2*center)*0.5f; + float b = (right - left) * 0.5f; + float offset = 0.0f; + if (a != 0) { + offset = std::min(std::max(-b / (2*a), -0.5f), 0.5f); + } + if (!params.enable_orientation_subpixel_localization || a == 0) { + offset = 0.f; + } + + float bin_real = i + offset; + if (bin_real < 0.f) bin_real += n_bins; + if (bin_real >= n_bins) bin_real -= n_bins; + + float angle = bin_real * 360.f / n_bins; + + cv::KeyPoint new_kp = kp; + new_kp.angle = angle; + oriented_kpts.push_back(new_kp); } } } @@ -574,11 +608,11 @@ std::pair> phg::computeDescriptors(const std: bin_o -= n_orient_bins; // семплы вблизи края патча взвешиваем с меньшим весом -// float weight = std::exp(-(TODO) / (2.f * sigma_desc * sigma_desc)); -// if (!params.enable_descriptor_gaussian_weighting) { -// weight = 1.f; -// } -// float weighted_mag = mag * weight; + float weight = std::exp(-(rot_x * rot_x + rot_y * rot_y) / (2.f * sigma_desc * sigma_desc)); + if (!params.enable_descriptor_gaussian_weighting) { + weight = 1.f; + } + float weighted_mag = mag * weight; if (params.enable_descriptor_bin_interpolation) { // размажем вклад weighted_mag по пространственным бинам и по бинам гистограммок трилинейной интерполяцией @@ -609,8 +643,8 @@ std::pair> phg::computeDescriptors(const std: io += n_orient_bins; float wo = (dio == 0) ? (1.f - fo) : fo; -// int idx = TODO; -// desc[idx] += TODO; + int idx = (iy * n_spatial_bins + ix) * n_orient_bins + io; + desc[idx] += weighted_mag * wx * wy * wo; } } } @@ -620,9 +654,8 @@ std::pair> phg::computeDescriptors(const std: int io_nearest = (int)std::round(bin_o) % n_orient_bins; if (ix_nearest >= 0 && ix_nearest < n_spatial_bins && iy_nearest >= 0 && iy_nearest < n_spatial_bins) { - // TODO uncomment -// int idx = (iy_nearest * n_spatial_bins + ix_nearest) * n_orient_bins + io_nearest; -// desc[idx] += weighted_mag; + int idx = (iy_nearest * n_spatial_bins + ix_nearest) * n_orient_bins + io_nearest; + desc[idx] += weighted_mag; } } } @@ -730,8 +763,12 @@ void phg::SIFT::detectAndCompute(const cv::Mat& img, const cv::Mat& mask, std::v std::tie(desc, kpts) = computeDescriptors(kpts, octaves, p, verbose_level); - // TODO всегда ли мы получаем ровно столько точек сколько запросили в параметре nfeatures? в каких случаях это не так и в какую сторону? + // всегда ли мы получаем ровно столько точек сколько запросили в параметре nfeatures? в каких случаях это не так и в какую сторону? // как подкрутить алгоритм, чтобы всегда выдавать ровно запрошенное количество точек (когда это в принципе возможно) но не сильно просесть в производительности? + // алгоритм может выдать меньше точек, чем запрошено если изначально их задетектилось меньше, + // чтобы это пофиксить можно, например, увеличивать количество слоев в октаве пока точек не станет достаточно много(но это неэффективно), + // также можно динамически изменять порог threshold в процессе детектинга точек, и в зависимости от их количества увеличивать или уменьшать его + } void phg::SIFT::saveImg(const std::string& name, const cv::Mat& img) const diff --git a/tests/test_matching.cpp b/tests/test_matching.cpp index adaac65..2070ea3 100644 --- a/tests/test_matching.cpp +++ b/tests/test_matching.cpp @@ -19,9 +19,9 @@ // TODO enable both toggles for testing custom detector & matcher -#define ENABLE_MY_DESCRIPTOR 0 -#define ENABLE_MY_MATCHING 0 -#define ENABLE_GPU_BRUTEFORCE_MATCHER 0 +#define ENABLE_MY_DESCRIPTOR 1 +#define ENABLE_MY_MATCHING 1 +#define ENABLE_GPU_BRUTEFORCE_MATCHER 1 // TODO disable for local testing but do not commit #define SERVER_TESTING 1 diff --git a/tests/test_sift.cpp b/tests/test_sift.cpp index cf3bd7d..f2a5904 100755 --- a/tests/test_sift.cpp +++ b/tests/test_sift.cpp @@ -25,10 +25,7 @@ #define GAUSSIAN_NOISE_STDDEV 1.0 -// TODO ENABLE ME -// TODO ENABLE ME -// TODO ENABLE ME -#define ENABLE_MY_SIFT_TESTING 0 +#define ENABLE_MY_SIFT_TESTING 1 #define DENY_CREATE_REF_DATA 1