LeGO-LOAM是一种在LOAM之上进行改进的激光雷达建图方法,建图效果比LOAM要好,但是建图较为稀疏,计算量也更小了。
本文原地址:wykxwyc的博客
github注释后LeGO-LOAM源码:LeGO-LOAM_NOTED 关于代码的详细理解,建议阅读:
1.地图优化代码理解
3.特征关联代码理解
以上博客会随时更新,如果对你有帮助,请点击注释代码的github仓库右上角star按钮,你的鼓励将给我更多动力。
目录
- mapOptmization.cpp总体功能论述
- main
- loopthread
- visualizeMapThread
- run
- mapOptimization
- transformAssociateToMap
- extractSurroundingKeyFrames
- downsampleCurrentScan
- scan2MapOptimization
- saveKeyFramesAndFactor
- correctPoses
- publishTF
- publishKeyPosesAndFrames
- clearCloud
- cornerOptimization
- surfOptimization
- LMOptimization
mapOptmization.cpp总体功能论述
mapOptmization.cpp进行的内容主要是地图优化,将得到的局部地图信息融合到全局地图中去。
main
main()
函数的关键代码就三条,也就是三个不同的线程,最重要的是run()
函数:
std::thread loopthread(&mapOptimization::loopClosureThread, &MO);
std::thread visualizeMapThread(&mapOptimization::visualizeGlobalMapThread, &MO);
MO.run();
详细的main()
函数的内容如下:
int main(int argc, char** argv)
{
ros::init(argc, argv, "lego_loam");
ROS_INFO("\033[1;32m---->\033[0m Map Optimization Started.");
mapOptimization MO;
// std::thread 构造函数,将MO作为参数传入构造的线程中使用
// 进行闭环检测与闭环的功能
std::thread loopthread(&mapOptimization::loopClosureThread, &MO);
// 该线程中进行的工作是publishGlobalMap(),将数据发布到ros中,可视化
std::thread visualizeMapThread(&mapOptimization::visualizeGlobalMapThread, &MO);
ros::Rate rate(200);
while (ros::ok())
{
ros::spinOnce();
MO.run();
rate.sleep();
}
loopthread.join();
visualizeMapThread.join();
return 0;
}
loopthread
分析一下std::thread loopthread(...)
部分的代码,它的主要功能是进行闭环检测和闭环修正。
关于std::thread
的构造函数可以参考这里。
其中关于std::thread 的构造函数之一:
template <class Fn, class... Args>
explicit thread (Fn&& fn, Args&&... args);
fn
是一个函数指针,指向成员函数(此处是loopClosureThread()
)或一个可移动构造函数,关于fn
的解释:
fn A pointer to function, pointer to member, or any kind of move-constructible function object (i.e., an object whose class defines operator(), including closures and function objects).
The return value (if any) is ignored.
loopClosureThread()
函数:
void loopClosureThread(){
if (loopClosureEnableFlag == false)
return;
ros::Rate rate(1);
while (ros::ok()){
rate.sleep();
performLoopClosure();
}
}
上面主要的performLoopClosure()
函数流程:
1.先进行闭环检测detectLoopClosure()
,如果返回true
,则可能可以进行闭环,否则直接返回,程序结束。
2.接着使用icp迭代进行对齐。
3.对齐之后判断迭代是否收敛以及噪声是否太大,是则返回并直接结束函数。否则进行迭代后的数据发布处理。
4.接下来得到latestSurfKeyFrameCloud
和nearHistorySurfKeyFrameCloudDS
之间的位置平移和旋转。
5.然后进行图优化过程。
RANSAC(Random Sample Consensus)是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。
performLoopClosure()
函数代码:
void performLoopClosure(){
if (cloudKeyPoses3D->points.empty() == true)
return;
if (potentialLoopFlag == false){
if (detectLoopClosure() == true){
potentialLoopFlag = true;
timeSaveFirstCurrentScanForLoopClosure = timeLaserOdometry;
}
if (potentialLoopFlag == false)
return;
}
potentialLoopFlag = false;
pcl::IterativeClosestPoint<PointType, PointType> icp;
icp.setMaxCorrespondenceDistance(100);
icp.setMaximumIterations(100);
icp.setTransformationEpsilon(1e-6);
icp.setEuclideanFitnessEpsilon(1e-6);
// 设置RANSAC运行次数
icp.setRANSACIterations(0);
icp.setInputSource(latestSurfKeyFrameCloud);
// 使用detectLoopClosure()函数中下采样刚刚更新nearHistorySurfKeyFrameCloudDS
icp.setInputTarget(nearHistorySurfKeyFrameCloudDS);
pcl::PointCloud<PointType>::Ptr unused_result(new pcl::PointCloud<PointType>());
// 进行icp点云对齐
icp.align(*unused_result);
// 为什么匹配分数高直接返回???分数高代表噪声太多
if (icp.hasConverged() == false || icp.getFitnessScore() > historyKeyframeFitnessScore)
return;
// 以下在点云icp收敛并且噪声量在一定范围内上进行
if (pubIcpKeyFrames.getNumSubscribers() != 0){
pcl::PointCloud<PointType>::Ptr closed_cloud(new pcl::PointCloud<PointType>());
// icp.getFinalTransformation()的返回值是Eigen::Matrix<Scalar, 4, 4>
pcl::transformPointCloud (*latestSurfKeyFrameCloud, *closed_cloud, icp.getFinalTransformation());
sensor_msgs::PointCloud2 cloudMsgTemp;
pcl::toROSMsg(*closed_cloud, cloudMsgTemp);
cloudMsgTemp.header.stamp = ros::Time().fromSec(timeLaserOdometry);
cloudMsgTemp.header.frame_id = "/camera_init";
pubIcpKeyFrames.publish(cloudMsgTemp);
}
float x, y, z, roll, pitch, yaw;
Eigen::Affine3f correctionCameraFrame;
correctionCameraFrame = icp.getFinalTransformation();
// 得到平移和旋转的角度
pcl::getTranslationAndEulerAngles(correctionCameraFrame, x, y, z, roll, pitch, yaw);
Eigen::Affine3f correctionLidarFrame = pcl::getTransformation(z, x, y, yaw, roll, pitch);
Eigen::Affine3f tWrong = pclPointToAffine3fCameraToLidar(cloudKeyPoses6D->points[latestFrameIDLoopCloure]);
Eigen::Affine3f tCorrect = correctionLidarFrame * tWrong;
pcl::getTranslationAndEulerAngles (tCorrect, x, y, z, roll, pitch, yaw);
gtsam::Pose3 poseFrom = Pose3(Rot3::RzRyRx(roll, pitch, yaw), Point3(x, y, z));
gtsam::Pose3 poseTo = pclPointTogtsamPose3(cloudKeyPoses6D->points[closestHistoryFrameID]);
gtsam::Vector Vector6(6);
float noiseScore = icp.getFitnessScore();
Vector6 << noiseScore, noiseScore, noiseScore, noiseScore, noiseScore, noiseScore;
constraintNoise = noiseModel::Diagonal::Variances(Vector6);
std::lock_guard<std::mutex> lock(mtx);
gtSAMgraph.add(BetweenFactor<Pose3>(latestFrameIDLoopCloure, closestHistoryFrameID, poseFrom.between(poseTo), constraintNoise));
isam->update(gtSAMgraph);
isam->update();
gtSAMgraph.resize(0);
aLoopIsClosed = true;
}
visualizeMapThread
visualizeGlobalMapThread()
代码:
void visualizeGlobalMapThread(){
ros::Rate rate(0.2);
while (ros::ok()){
rate.sleep();
publishGlobalMap();
}
}
publishGlobalMap()
主要进行了3个步骤:
1.通过KDTree进行最近邻搜索;
2.通过搜索得到的索引放进队列;
3.通过两次下采样,减小数据量;
publishGlobalMap()
代码:
void publishGlobalMap(){
if (pubLaserCloudSurround.getNumSubscribers() == 0)
return;
if (cloudKeyPoses3D->points.empty() == true)
return;
std::vector<int> pointSearchIndGlobalMap;
std::vector<float> pointSearchSqDisGlobalMap;
mtx.lock();
kdtreeGlobalMap->setInputCloud(cloudKeyPoses3D);
// 通过KDTree进行最近邻搜索
kdtreeGlobalMap->radiusSearch(currentRobotPosPoint, globalMapVisualizationSearchRadius, pointSearchIndGlobalMap, pointSearchSqDisGlobalMap, 0);
mtx.unlock();
for (int i = 0; i < pointSearchIndGlobalMap.size(); ++i)
globalMapKeyPoses->points.push_back(cloudKeyPoses3D->points[pointSearchIndGlobalMap[i]]);
// 对globalMapKeyPoses进行下采样
downSizeFilterGlobalMapKeyPoses.setInputCloud(globalMapKeyPoses);
downSizeFilterGlobalMapKeyPoses.filter(*globalMapKeyPosesDS);
for (int i = 0; i < globalMapKeyPosesDS->points.size(); ++i){
int thisKeyInd = (int)globalMapKeyPosesDS->points[i].intensity;
*globalMapKeyFrames += *transformPointCloud(cornerCloudKeyFrames[thisKeyInd],&cloudKeyPoses6D->points[thisKeyInd]);
*globalMapKeyFrames += *transformPointCloud(surfCloudKeyFrames[thisKeyInd],&cloudKeyPoses6D->points[thisKeyInd]);
*globalMapKeyFrames += *transformPointCloud(outlierCloudKeyFrames[thisKeyInd],&cloudKeyPoses6D->points[thisKeyInd]);
}
// 对globalMapKeyFrames进行下采样
downSizeFilterGlobalMapKeyFrames.setInputCloud(globalMapKeyFrames);
downSizeFilterGlobalMapKeyFrames.filter(*globalMapKeyFramesDS);
sensor_msgs::PointCloud2 cloudMsgTemp;
pcl::toROSMsg(*globalMapKeyFramesDS, cloudMsgTemp);
cloudMsgTemp.header.stamp = ros::Time().fromSec(timeLaserOdometry);
cloudMsgTemp.header.frame_id = "/camera_init";
pubLaserCloudSurround.publish(cloudMsgTemp);
globalMapKeyPoses->clear();
globalMapKeyPosesDS->clear();
globalMapKeyFrames->clear();
globalMapKeyFramesDS->clear();
}
run
run()
是mapOptimization
类的一个成员变量
run()
的运行流程:
1.判断是否有新的数据到来并且时间差值小于0.005;
2.如果timeLaserOdometry - timeLastProcessing >= mappingProcessInterval
,则进行以下操作:
2.1.将坐标转移到世界坐标系下,得到可用于建图的Lidar坐标,即修改transformTobeMapped的值;
2.2.抽取周围的关键帧;
2.3.下采样当前scan;
2.4.当前scan进行图优化过程;
2.5.保存关键帧和因子;
2.6.校正位姿;
2.7.发布Tf;
2.8.发布关键位姿和帧数据;
run()
函数的代码如下:
void run(){
if (newLaserCloudCornerLast &&
std::abs(timeLaserCloudCornerLast - timeLaserOdometry) < 0.005 &&
newLaserCloudSurfLast &&
std::abs(timeLaserCloudSurfLast - timeLaserOdometry) < 0.005 &&
newLaserCloudOutlierLast &&
std::abs(timeLaserCloudOutlierLast - timeLaserOdometry) < 0.005 &&
newLaserOdometry)
{
newLaserCloudCornerLast = false;
newLaserCloudSurfLast = false;
newLaserCloudOutlierLast = false;
newLaserOdometry = false;
std::lock_guard<std::mutex> lock(mtx);
if (timeLaserOdometry - timeLastProcessing >= mappingProcessInterval) {
timeLastProcessing = timeLaserOdometry;
transformAssociateToMap();
extractSurroundingKeyFrames();
downsampleCurrentScan();
scan2MapOptimization();
saveKeyFramesAndFactor();
correctPoses();
publishTF();
publishKeyPosesAndFrames();
clearCloud();
}
}
}
mapOptimization
mapOptimization类主要是其构造函数mapOptimization()
的操作上有一些内容:
在构造函数中,mapOptimization订阅了5个话题,发布了6个话题。
订阅的话题:
1./laser_cloud_corner_last
2./laser_cloud_surf_last
3./outlier_cloud_last
4./laser_odom_to_init
5./imu/data
发布的话题:
1./key_pose_origin
2./laser_cloud_surround
3./aft_mapped_to_init
4./history_cloud
5./corrected_cloud
6./recent_cloud
另外,初始化了ISAM2
对象,以及下采样参数,和分配了内存。
transformAssociateToMap
transformAssociateToMap()
函数将坐标转移到世界坐标系下,得到可用于建图的Lidar坐标,即修改了transformTobeMapped的值。
extractSurroundingKeyFrames
extractSurroundingKeyFrames()
抽取周围关键帧。
该部分的自然语言表述如下:
extractSurroundingKeyFrames(){
if(cloudKeyPoses3D为空) return;
if(进行闭环过程){
1.若recentCornerCloudKeyFrames中的点云数量不够, 清空后重新塞入新的点云直至数量够。
2.否则pop队列recentCornerCloudKeyFrames最前端的一个,再往队列尾部push一个;
*laserCloudCornerFromMap += *recentCornerCloudKeyFrames[i];
*laserCloudSurfFromMap += *recentSurfCloudKeyFrames[i];
*laserCloudSurfFromMap += *recentOutlierCloudKeyFrames[i];
}else{
/*这里不进行闭环过程*/
1.进行半径surroundingKeyframeSearchRadius内的邻域搜索
2.双重循环,不断对比surroundingExistingKeyPosesID和surroundingKeyPosesDS中点的index,
如果能够找到一样,说明存在关键帧。然后在队列中去掉找不到的元素,留下可以找到的。
3.再来一次双重循环,这部分比较有技巧,
这里把surroundingExistingKeyPosesID内没有对应的点放进一个队列里,
这个队列专门存放周围存在的关键帧,
但是和surroundingExistingKeyPosesID的点不在同一行。
关于行,需要参考intensity数据的存放格式,
整数部分和小数部分代表不同意义。
}
不管是否进行闭环过程,最后的输出都要进行一次下采样减小数据量的过程。
最后的输出结果是laserCloudCornerFromMapDS和laserCloudSurfFromMapDS。
}
downsampleCurrentScan
downsampleCurrentScan()
这部分可以说的不多,代码也很短。
总体过程如下:
1.下采样laserCloudCornerLast得到laserCloudCornerLastDS;
2.下采样laserCloudSurfLast得到laserCloudSurfLastDS;
3.下采样laserCloudOutlierLast得到laserCloudOutlierLastDS;
4.laserCloudSurfLastDS和laserCloudOutlierLastDS相加,得到laserCloudSurfTotalLast;
5.下采样得到laserCloudSurfTotalLast,得到得到laserCloudSurfTotalLastDS;
scan2MapOptimization
scan2MapOptimization()
是一个对代码进行优化控制的函数,主要在里面调用面优化,边缘优化以及L-M优化。
该函数控制了进行优化的最大次数为10次,直接贴出代码如下:
void scan2MapOptimization(){
if (laserCloudCornerFromMapDSNum > 10 && laserCloudSurfFromMapDSNum > 100) {
kdtreeCornerFromMap->setInputCloud(laserCloudCornerFromMapDS);
kdtreeSurfFromMap->setInputCloud(laserCloudSurfFromMapDS);
for (int iterCount = 0; iterCount < 10; iterCount++) {
laserCloudOri->clear();
coeffSel->clear();
cornerOptimization(iterCount);
surfOptimization(iterCount);
if (LMOptimization(iterCount) == true)
break;
}
transformUpdate();
}
}
上面laserCloudCornerFromMapDSNum
和laserCloudSurfFromMapDSNum
是我们在函数extractSurroundingKeyFrames()
中刚刚更新的。
关于上面的三个优化函数,在下文中有对优化函数的详细分析:
1.关于特征边缘的优化:cornerOptimization;
2.关于特征平面的优化:surfOptimization;
3.关于特征边缘和特征平面的联合L-M优化方法:LMOptimization。
saveKeyFramesAndFactor
void saveKeyFramesAndFactor()
保存关键帧和进行优化的功能。
整个函数的运行流程如下:
程序开始:
saveKeyFramesAndFactor(){
1.把上次优化得到的transformAftMapped(3:5)坐标点作为当前的位置,
计算和再之前的位置的欧拉距离,距离太小并且cloudKeyPoses3D不为空(初始化时为空),则结束;
2.如果是刚刚初始化,cloudKeyPoses3D为空,
那么NonlinearFactorGraph增加一个PriorFactor因子,
initialEstimate的数据类型是Values(其实就是一个map),这里在0对应的值下面保存一个Pose3,
本次的transformTobeMapped参数保存到transformLast中去。
3.如果本次不是刚刚初始化,从transformLast得到上一次位姿,
从transformAftMapped得到本次位姿,
gtSAMgraph.add(BetweenFactor),到它的约束中去,
initialEstimate.insert(序号,位姿)。
4.不管是否是初始化,都进行优化,isam->update(gtSAMgraph, initialEstimate);
得到优化的结果:latestEstimate = isamCurrentEstimate.at<Pose3>(isamCurrentEstimate.size()-1),
将结果保存,cloudKeyPoses3D->push_back(thisPose3D);
cloudKeyPoses6D->push_back(thisPose6D);
5.对transformAftMapped进行更新;
6.最后保存最终的结果:
cornerCloudKeyFrames.push_back(thisCornerKeyFrame);
surfCloudKeyFrames.push_back(thisSurfKeyFrame);
outlierCloudKeyFrames.push_back(thisOutlierKeyFrame);
}
程序结束
关于Rot3
,Point3
和Pose3
的定义:
// Rotations around Z, Y, then X axes;
static Rot3 RzRyRx (double x, double y, double z)
// 源码里面RzRyRx依次按照z(transformTobeMapped[2]),y(transformTobeMapped[0]),x(transformTobeMapped[1])坐标轴旋转
// Construct from x(transformTobeMapped[5]), y(transformTobeMapped[3]), and z(transformTobeMapped[4]) coordinates.
Point3 (double x, double y, double z)
// Construct from R,t 从旋转和平移构造姿态
Pose3 (const Rot3 &R, const Point3 &t)
关于gtsam::ISAM2::update
函数原型:
ISAM2Result gtsam::ISAM2::update (const NonlinearFactorGraph & newFactors = NonlinearFactorGraph(),
const Values & newTheta = Values(),
const std::vector< size_t > & removeFactorIndices = std::vector<size_t>(),
const boost::optional< FastMap< Key, int > > & constrainedKeys = boost::none,
const boost::optional< FastList< Key > > & noRelinKeys = boost::none,
const boost::optional< FastList< Key > > & extraReelimKeys = boost::none,
bool force_relinearize = false )
在源码中,有对update的调用:
// gtSAMgraph是新加到系统中的因子 // initialEstimate是加到系统中的新变量的初始点 isam->update(gtSAMgraph, initialEstimate);
correctPoses
void correctPoses()
的调用只在回环结束时进行(aLoopIsClosed == true
)
校正位姿的过程主要是将isamCurrentEstimate
的x,y,z平移坐标更新到cloudKeyPoses3D
中,另外还需要更新cloudKeyPoses6D
的姿态角。
关于isamCurrentEstimate
:
isamCurrentEstimate
是gtsam库中的Values类,Values类的定义:
A values structure is a map from keys to values. It is used to specify the value of a bunch of variables in a factor graph.
在saveKeyFramesAndFactor()
函数中的更新过程:
isamCurrentEstimate = isam->calculateEstimate();
publishTF
void publishTF()
是进行发布坐标变换信息的函数。
发布的消息类型是nav_msgs::Odometry
,关于nav_msgs::Odometry
,可以参考它的定义。
官方文档中提示需要注意的是:
pose
需要声明为header.frame_id
的坐标系下;twist
需要声明为child_frame_id
的坐标系下;
odomAftMapped.header.frame_id = "/camera_init";
odomAftMapped.child_frame_id = "/aft_mapped";
aftMappedTrans.frame_id_ = "/camera_init";
aftMappedTrans.child_frame_id_ = "/aft_mapped";
publishTF()
中发布里程计信息是3个部分:
1. 发布transformAftMapped的信息到"/camera_init"这个frame下面;
2. 发布transformBefMapped的信息到"/aft_mapped"这个frame下面;
3. 发布 tf::StampedTransform aftMappedTrans作为一个姿态变换;
关于nav_msgs::Odometry
数据格式的具体定义:
std_msgs/Header header string child_frame_id geometry_msgs/PoseWithCovariance pose geometry_msgs/TwistWithCovariance twist
上面std_msgs/Header header
的定义:
uint32 seq // 连续增加的ID time stamp // 时间戳有两个整形变量,stamp.sec代表秒,stamp.nsec表示纳秒 string frame_id // 0: no frame,1: global frame
geometry_msgs/PoseWithCovariance
的定义:
geometry_msgs/Pose pose float64[36] covariance // 6x6协方差的行主表示
上面pose的定义: geometry_msgs/Point position // 位置 geometry_msgs/Quaternion orientation // 方向
geometry_msgs/TwistWithCovariance twist
的定义:
geometry_msgs/Twist twist float64[36] covariance
上面twist的定义: geometry_msgs/Vector3 linear // 线速度向量 geometry_msgs/Vector3 angular // 角速度向量
publishKeyPosesAndFrames
publishKeyPosesAndFrames()
代码很短也很简单。
如果有节点订阅"/key_pose_origin"
这个话题,则用pubKeyPoses
发布cloudKeyPoses3D
;
如果有节点订阅"/recent_cloud"
这个话题,则用pubRecentKeyFrames
发布laserCloudSurfFromMapDS
;
clearCloud
clearCloud()
很简单,一共四条语句,代码如下:
void clearCloud(){
laserCloudCornerFromMap->clear();
laserCloudSurfFromMap->clear();
laserCloudCornerFromMapDS->clear();
laserCloudSurfFromMapDS->clear();
}
cornerOptimization
函数 void cornerOptimization(int)
基本都是数学公式转化成代码。
该函数分成了几个部分:
1.进行坐标变换,转换到全局坐标中去;
2.进行5邻域搜索,得到结果后对搜索得到的5点求平均值;
3.求矩阵matA1=[ax,ay,az]t*[ax,ay,az],例如ax代表的是x-cx,表示均值与每个实际值的差值,求取5个之后再次取平均,得到matA1;
4.求正交阵的特征值和特征向量,特征值:matD1,特征向量:保存在矩阵matV1
中。
关于求特征值的函数cv::eigen,可以参考opencv官方文档:
函数的原型是:
bool cv::eigen( InputArray src,
OutputArray eigenvalues,
OutputArray eigenvectors = noArray()
)
其中:
src input matrix that must have CV_32FC1 or CV_64FC1 type, square size and be symmetrical (src ^T^ == src). eigenvalues output vector of eigenvalues of the same type as src; the eigenvalues are stored in the descending order. eigenvectors output matrix of eigenvectors; it has the same size and type as src; the eigenvectors are stored as subsequent matrix rows, in the same order as the corresponding eigenvalues.
因为求取的特征值是按照降序排列的,所以根据论文里面提到的:
1.如果这是一个边缘特征,则它的一个特征值远大于其余两个;
2.如果这是一个平面特征,那么其中一个特征值远小于其余两个特征值;
根据上面两个原则进行判断要不要进行优化。
如果没有满足条件1,就不进行优化过程,因为这不是一个边缘特征。
5.如果进行优化,进行优化的过程是这样的: 先定义3组变量,
float x0 = pointSel.x;
float y0 = pointSel.y;
float z0 = pointSel.z;
float x1 = cx + 0.1 * matV1.at<float>(0, 0);
float y1 = cy + 0.1 * matV1.at<float>(0, 1);
float z1 = cz + 0.1 * matV1.at<float>(0, 2);
float x2 = cx - 0.1 * matV1.at<float>(0, 0);
float y2 = cy - 0.1 * matV1.at<float>(0, 1);
float z2 = cz - 0.1 * matV1.at<float>(0, 2);
然后求
\((x_0-x_1,y_0-y_1,z_0-z_1)\)
与
\((x_0-x_2,y_0-y_2,z_0-z_2)\)
叉乘得到的平行四边形的面积,即
\([XXX,YYY,ZZZ]=\\
[(y_0-y_1)(z_0-z_2)-(y_0-y_2)(z_0-z_1),\\
-(x_0-x_1)(z_0-z_2)+(x_0-x_2)(z_0-z_1),\\
(x_0-x_1)(y_0-y_2)-(x_0-x_2)(y_0-_y1)]\)
的模长。
接着求面积的绝对值:
// l12表示的是0.2*(||V1[0]||)
float l12 = sqrt((x1 - x2)*(x1 - x2) + (y1 - y2)*(y1 - y2) + (z1 - z2)*(z1 - z2));
最后再求一次叉乘,得到底边高上的单位向量:
// 求叉乘结果[la',lb',lc']=[(x1-x2),(y1-y2),(z1-z2)]x[XXX,YYY,ZZZ]
// [la,lb,lc]=[la',lb',lc']/a012/l12
// 得到底边上的高的方向向量[la,lb,lc]
float la =...
float lb =...
float lc =...
float ld2 = a012 / l12;
下面涉及到一个鲁棒核函数,作者简单地设计了这个核函数。
float s = 1 - 0.9 * fabs(ld2);
程序末尾根据s
的值来判断是否将点云点放入点云集合laserCloudOri
以及coeffSel
中。
对上述原理更进一步的数学解释可以参看LeGO-LOAM中的数学公式推导
surfOptimization
void surfOptimization(int)
函数进行面优化,内容和函数cornerOptimization(int)
的内容基本相同。
步骤如下:
1.进行坐标变换,转换到全局坐标中去;
2.进行5邻域搜索,得到结果后判断搜索结果是否满足条件(pointSearchSqDis[4] < 1.0
),不满足条件就不需要进行优化;
3.将搜索结果全部保存到matA0
中,形成一个5x3的矩阵;
4.解这个矩阵cv::solve(matA0, matB0, matX0, cv::DECOMP_QR);
。
关于cv::solve
函数,参考官网。
matB0
是一个5x1的矩阵,需要求解的matX0
是3x1的矩阵;
bool cv::solve (
InputArray src1,
InputArray src2,
OutputArray dst,
int flags = DECOMP_LU
)
关于参数的解释:
src1 input matrix on the left-hand side of the system.
src2 input matrix on the right-hand side of the system.
dst output solution.
flags solution (matrix inversion) method (DecompTypes)
所以函数其实是在求解方程
\(matA_0*matX_0=matB_0`\)
,最后求得
\(matX_0\)
。
这个公式其实是在求由matA0
中的点构成的平面的法向量matX0
。
5.求解得到的matX0=[pa,pb,pc,pd]
,对[pa,pb,pc,pd]
进行单位化,
matB0=[-1,-1,-1,-1,-1]^t
,关于matB0
为什么全是-1而不是0的问题:
if (fabs(pa * laserCloudSurfFromMapDS->points[pointSearchInd[j]].x +
pb * laserCloudSurfFromMapDS->points[pointSearchInd[j]].y +
pc * laserCloudSurfFromMapDS->points[pointSearchInd[j]].z + pd) > 0.2) {
planeValid = false;
break;
}
因为pd=1
,所以在求解的时候设置了matB0
全为-1。
这里再次判断求解的方向向量和每个点相乘,最后结果是不是在误差范围内。
如果误差太大就不把当前点pointSel
放到点云中去了。
6.误差在允许的范围内的话把这个点放到点云laserCloudOri
中去,把对应的向量coeff
放到coeffSel
中。
LMOptimization
bool LMOptimization(int)
函数是代码中最重要的一个函数,实现的功能是高斯牛顿优化(虽然写了是LMOptimization,但其实是用的高斯牛顿的方法)。
首先是对laserCloudOri
中数据的处理,将它放到matA
中,matA
就是误差对旋转和平移变量的雅克比矩阵
float arx = (crx*sry*srz*pointOri.x + crx*crz*sry*pointOri.y - srx*sry*pointOri.z) * coeff.x
+ (-srx*srz*pointOri.x - crz*srx*pointOri.y - crx*pointOri.z) * coeff.y
+ (crx*cry*srz*pointOri.x + crx*cry*crz*pointOri.y - cry*srx*pointOri.z) * coeff.z;
float ary = ((cry*srx*srz - crz*sry)*pointOri.x
+ (sry*srz + cry*crz*srx)*pointOri.y + crx*cry*pointOri.z) * coeff.x
+ ((-cry*crz - srx*sry*srz)*pointOri.x
+ (cry*srz - crz*srx*sry)*pointOri.y - crx*sry*pointOri.z) * coeff.z;
float arz = ((crz*srx*sry - cry*srz)*pointOri.x + (-cry*crz-srx*sry*srz)*pointOri.y)*coeff.x
+ (crx*crz*pointOri.x - crx*srz*pointOri.y) * coeff.y
+ ((sry*srz + cry*crz*srx)*pointOri.x + (crz*sry-cry*srx*srz)*pointOri.y)*coeff.z;
求完matA之后,再计算matAtA
,matAtB
,matX
,方便后面的计算
cv::transpose(matA, matAt);
matAtA = matAt * matA;
matAtB = matAt * matB;// matB每个对应点的coeff.intensity = s * pd2(在surfOptimization中和cornerOptimization中有)
cv::solve(matAtA, matAtB, matX, cv::DECOMP_QR);// 求解matAtA*matX=matAtB得到matX,高斯牛顿方程的解
根据opencv文档,cv::transpose(matA,matAt)
将矩阵由matA
转置生成matAt
。
初次优化时,特征值门限设置为100,小于这个值认为是退化了,修改matX
,matX=matP*matX2
最后将matX
作为6个量复制到transformTobeMapped
中去。
在判断是否是有效的优化时,要求旋转部分的模长小于0.05m,平移部分的模长也小于0.05度。
mapOptmization.cpp中还有一些函数在本篇笔记中没有进行说明,但是在我的github仓库“wykxwyc的github”)中写了注释,如果对你有帮助,请点击注释代码的github仓库右上角star按钮,你的鼓励将给我更多动力。
(mapOptmization.cpp 完)