Учитывая две карты сетки занятости, преобразованные в оттенки серого cv :: Mat, я использовал дескриптор функции ORB и сопоставил извлеченные функции из обоих изображений. Большинство из них - ложные срабатывания. Ниже я показал только одно отношение, чтобы показать, что это действительно ложное срабатывание.
В конечном итоге я хочу найти правильное преобразование между двумя картами сетки занятости, чтобы объединить их карты в одну глобально согласованную карту. Текущий код, который у меня есть, показан ниже:
// Load the two maps
nav_msgs::OccupancyGrid map1;
initOccupancyGridMap1(map1);
nav_msgs::OccupancyGrid map2;
initOccupancyGridMap2(map2);
// Convert the two maps to grayscale images
cv::Mat im1 = cvtMapToMat(map1);
cv::Mat im2 = cvtMapToMat(map2);
// Feature Descriptor Extraction
cv::OrbFeatureDetector featureDetector;
cv::OrbDescriptorExtractor featureExtractor;
std::vector<cv::KeyPoint> kp1;
std::vector<cv::KeyPoint> kp2;
cv::Mat d1;
cv::Mat d2;
std::vector<cv::DMatch> matches;
cv::BFMatcher dematc(cv::NORM_HAMMING, false);
// 1. Detect keypoints
featureDetector.detect(im1, kp1);
featureDetector.detect(im2, kp2);
// 2. Extract descriptors
featureExtractor.compute(im1, kp1, d1);
featureExtractor.compute(im2, kp2, d2);
// 3. Match keypoints
dematc.match(d1, d2, matches);
for (int i = 0; i < matches.size(); i++){
std::vector<cv::DMatch> match(1,matches[i]);
std::cout << "Distance: " << match[0].distance << std::endl;
cv::Mat img_show;
drawMatches(im1, kp1, im2, kp2, match, img_show);
imshow("Matches", img_show);
cv::waitKey(0);
}