从K近邻算法谈到KD树、SIFT+BBF算法

时间:2022-09-19 15:16:41

转自 http://blog.csdn.net/v_july_v/article/details/8203674 ,感谢july的辛勤劳动

前言

前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1、KD树:http://weibo.com/1580904460/z1PosdcKj;2、神经网络:http://weibo.com/1580904460/yBmhfrOGl;3、编程艺术第28章:http://weibo.com/1580904460/z4ZGFiDcY。你看到,blog内的文章与你于别处所见的任何都不同。于是,等啊等,等一台电脑,只好等待..”。得益于朋友田,借了我一台电脑(借他电脑的时候,我连表示感谢,他说“能找到工作全靠你的博客,这点儿小忙还说,不地道”,有的时候,稍许感受到受人信任也是一种压力,愿我不辜负大家对我的信任),于是今天开始Top 10 Algorithms in Data Mining系列第三篇文章,即本文「从K近邻算法谈到KD树、SIFT+BBF算法」的创作。

一个人坚持自己的兴趣是比较难的,因为太多的人太容易为外界所动了,尤其当你无法从中得到多少实际性的回报时,所幸,我能一直坚持下来。毕达哥拉斯有句名 言:万物为数,最近在读「微积分概念的发展史」也感受到了这一点。同时,从算法到数据挖掘、机器学习,再到数学,其中每一个领域任何一个细节都值得探索终 生,或许,这就是“终生为学”的意思吧。

本文第一部分讲K近邻算法,第二部分讲K近邻算法的一种实现--KD树的相关实现及应用,同时,你将看到,K近邻算法同本系列的前两篇文章所讲的决策树分 类贝叶斯分类,及支持向量机SVM一样,也是用于解决分类问题的算法,而本数据挖掘十大算法系列也会按照分类,聚类,关联分析,预测回归等问题依次展开阐 述。

OK,行文仓促,本文若有任何漏洞,问题或者错误,欢迎朋友们随时不吝指正,各位的批评也是我继续写下去的动力之一。感谢。

第一部分、K近邻算法

1.1、什么是K近邻算法

何谓K近邻算法,即K-nearest_neighbor,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。

用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。根据这个说法,咱们来看下引自*上的一幅图:

从K近邻算法谈到KD树、SIFT+BBF算法

如上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现 在,我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形or红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。
    我们常说,物以类聚,人以群分,判别一个人是一个什么样品质特征的人,常常可以从他/她身边的朋友入手,所谓观其友,而识其人。我们不是要判别上图中那个绿色的圆是属于哪一类数据么,好说,从它的邻居下手。但一次性看多少个邻居呢?从上图中,你还能看到:

  • 如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
  • 如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。

于此我们看到,当无法判定当前待分类点是从属于已知分类中的哪一类时,我们可以依据统计学的理论看它所处的位置特征--看它周围的邻居是哪一类,而把它归为那一类。这就是K近邻算法的核心思想。

1.2、近邻的距离度量表示法

上文第一节,我们看到,K近邻算法的核心在于找到实例点的邻居,这个时候,问题就接踵而至了,如何找到邻居,邻居的判定标准是什么,用什么来度量。这一系
列问题便是下面要讲的距离度量表示法。但有的读者可能就有疑问了,我是要找邻居,找相似性,怎么又跟距离扯上关系了?

这是因为特征空间中两个实例点的距离和反应出两个实例点形似程度。K近邻模型的特征空间一般是n维实属向量空间,使用的距离可以使欧式距离,也是可以是其它距离,下面,就来具体阐述下这些距离度量的表示法。

  • 1. 欧氏距离,最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中,如点 x = (x1,...,xn) 和 y = (y1,...,yn) 之间的距离为:从K近邻算法谈到KD树、SIFT+BBF算法

(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:

从K近邻算法谈到KD树、SIFT+BBF算法

(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:

从K近邻算法谈到KD树、SIFT+BBF算法

(3)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的欧氏距离:

从K近邻算法谈到KD树、SIFT+BBF算法

  也可以用表示成向量运算的形式:

从K近邻算法谈到KD树、SIFT+BBF算法

  • 2. 曼哈顿距离,我们可以定义曼哈顿距离的正式意义为L1-距离或城市区块距离,也就是在欧几里得空间的固定直角坐标系上两点所形成的线段对轴产生的投影的距离总和。例如在平面上,座标(x1, y1)的点P1与座标(x2, y2)的点P2的曼哈顿距离为:从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法,要注意的是,曼哈顿距离依赖座标系统的转度,而非系统在座标轴上的平移或映射。
 
 
 通俗来讲,想象你在曼哈顿要从一个十字路口开车到另外一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。实际驾驶距离就是这个
“曼哈顿距离”。而这也是曼哈顿距离名称的来源, 曼哈顿距离也称为城市街区距离(City Block distance)。
(1)二维平面两点a(x1,y1)与b(x2,y2)间的曼哈顿距离 从K近邻算法谈到KD树、SIFT+BBF算法
从K近邻算法谈到KD树、SIFT+BBF算法
(2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的曼哈顿距离 从K近邻算法谈到KD树、SIFT+BBF算法

从K近邻算法谈到KD树、SIFT+BBF算法

  • 3. 切比雪夫距离,若二个向量或二个点p 、and q,其座标分别为从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法,则两者之间的切比雪夫距离定义如下:从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法
    这也等于以下Lp度量的极值:从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法,因此切比雪夫距离也称为L∞度量。
 
    以数学的观点来看,切比雪夫距离是由一致范数(uniform norm)(或称为上确界范数)所衍生的度量,也是超凸度量(injective metric space)的一种。
    在平面几何中,若二点p及q的直角坐标系坐标为从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法,则切比雪夫距离为从K近邻算法谈到KD树、SIFT+BBF算法从K近邻算法谈到KD树、SIFT+BBF算法
 
 
 
玩过国际象棋的朋友或许知道,国王走一步能够移动到相邻的8个方格中的任意一个。那么国王从格子(x1,y1)走到格子(x2,y2)最少需要多少步?。
你会发现最少步数总是max( | x2-x1 | , | y2-y1 | ) 步 。有一种类似的一种距离度量方法叫切比雪夫距离。
(1)二维平面两点a(x1,y1)与b(x2,y2)间的切比雪夫距离从K近邻算法谈到KD树、SIFT+BBF算法 
从K近邻算法谈到KD树、SIFT+BBF算法
(2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的切比雪夫距离 从K近邻算法谈到KD树、SIFT+BBF算法  
从K近邻算法谈到KD树、SIFT+BBF算法

这个公式的另一种等价形式是 从K近邻算法谈到KD树、SIFT+BBF算法

从K近邻算法谈到KD树、SIFT+BBF算法
  • 4. 闵可夫斯基距离(Minkowski Distance),闵氏距离不是一种距离,而是一组距离的定义。
(1) 闵氏距离的定义       
两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为: 
从K近邻算法谈到KD树、SIFT+BBF算法

从K近邻算法谈到KD树、SIFT+BBF算法 其中p是一个变参数。

当p=1时,就是曼哈顿距离

当p=2时,就是欧氏距离

当p→∞时,就是切比雪夫距离

根据变参数的不同,闵氏距离可以表示一类的距离。

 

1.3、K值的选择

除了上述1.2节如何定义邻居的问题之外,还有一个选择多少个邻居,即K值定义为多大的问题。不要小看了这个K值选择问题,因为它对K近邻算法的结果会产生重大影响。如李航博士的一书「统计学习方法」上所说:

  1. 如果选择较小的K值,就相当于用较小的领域中的训练实例进行预测,“学习”近似误差会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用,与此同时带来的问题是“学习”的估计误差会增大,换句话说,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
  2. 如果选择较大的K值,就相当于用较大领域中的训练实例进行预测,其优点是可以减少学习的估计误差,但缺点是学习的近似误差会增大。这时候,与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发生错误,且K值的增大就意味着整体的模型变得简单。
  3. K=N,则完全不足取,因为此时无论输入实例是什么,都只是简单的预测它属于在训练实例中最多的累,模型过于简单,忽略了训练实例中大量有用信息。
    在实际应用中,K值一般取一个比较小的数值,例如采用交叉验证法来选择最优的K值。

1.4、

第二部分、K近邻算法的实现:KD树

2.0、背景

之前blog内曾经介绍过SIFT特征匹配算法,特征点匹配和数据库查、图像检索本质上是同一个问题,都可以归结为一个通过距离函数在高维矢量之间进行相似性检索的问题,如何快速而准确地找到查询点的近邻,不少人提出了很多高维空间索引结构和近似查询的算法。

一般说来,索引结构中相似性查询有两种基本的方式:

  1. 一种是范围查询,范围查询时给定查询点和查询距离阈值,从数据集中查找所有与查询点距离小于阈值的数据
  2. 另一种是K近邻查询,就是给定查询点及正整数K,从数据集中找到距离查询点最近的K个数据,当K=1时,它就是最近邻查询。

同样,针对特征点匹配也有两种方法:


  • 容易的办法就是线性扫描,也就是我们常说的穷举搜索,依次计算样本集E中每个样本到输入实例点的距离,然后抽取出计算出来的最小距离的点即为最近邻点。此
    种办法简单直白,但当样本集或训练集很大时,它的缺点就立马暴露出来了,举个例子,在物体识别的问题中,可能有数千个甚至数万个SIFT特征点,而去一一
    计算这成千上万的特征点与输入实例点的距离,明显是不足取的。
  • 另外一种,就是构建数据索引,因为实际数据一般都会呈现簇状的聚类形态,因此我们想到建立数据索引,然后再进行快速匹配。索引树是一种树结构索引方法,其基本思想是对搜索空间进行层次划分。

那这种索引树应该是一种什么样的树呢?Rudolf Bayer 和 Ed McCreight 于1972年,在Boeing Research
Labs 工作时发明了B
树,后续人们在B树的基础上提出了B+树,B*树,之前blog除了介绍B树系列之外,也介绍了R树,但不论是B树家族还是R树,都不是应对空间层次划分
的树。

1975年,来自斯坦福大学的Jon Louis Bentley在ACM杂志上发表的一篇论文:Multidimensional Binary Search Trees Used for Associative Searching 中正式提出和阐述的了k-d树。

2.1、什么是KD树

首先必须搞清楚的是,k-d树是一种空间划分树,说白了,就是把整个空间划分为特定的几个部分,然后在制定空间的部分内进行相关搜索操作。

从K近邻算法谈到KD树、SIFT+BBF算法

举一个简单直观的实例来介绍k-d树算法。假设有6个二维数据点{(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)},数据点位
于二维空间内,如下图所示。为了能有效的找到最近邻,k-d树采用分而治之的思想,即将整个空间划分为几个小部分,首先,粗黑线将空间一分为二,然后在两
个子空间中,细直线又将整个空间划分为四部分,最后虚黑直线将这四部分进一步划分。从K近邻算法谈到KD树、SIFT+BBF算法

从K近邻算法谈到KD树、SIFT+BBF算法

经过对上图所示的空间划分之后,我们可以看出,点(7,2)可以为根结点,(5,4)和(9,6)则为根结点的左右子结点,而(2,3),(4,7)则为(5,4)的左右孩子,最后,(8,1)为(9,6)的左孩子。如此,便形成了这样一棵k-d树:

从K近邻算法谈到KD树、SIFT+BBF算法

k-d树算法可以分为两大部分,一部分是有关k-d树本身这种数据结构建立的算法,另一部分是在建立的k-d树上如何进行最邻近查找的算法。

2.2、KD树的构建

k-d树的数据结构

从K近邻算法谈到KD树、SIFT+BBF算法

代码如下所示:

  1. /** a node in a k-d tree */
  2. struct kd_node
  3. {
  4. int ki;                      /**< partition key index *///关键点直方图方差最大向量系列位置
  5. double kv;                   /**< partition key value *///直方图方差最大向量系列中最中间模值
  6. int leaf;                    /**< 1 if node is a leaf, 0 otherwise */
  7. struct feature* features;    /**< features at this node */
  8. int n;                       /**< number of features */
  9. struct kd_node* kd_left;     /**< left child */
  10. struct kd_node* kd_right;    /**< right child */
  11. };

以下是构建k-d树的代码:

  1. /*
  2. A function to build a k-d tree database from keypoints in an array.
  3. @param features an array of features
  4. @param n the number of features in features
  5. @return Returns the root of a kd tree built from features or NULL on error.
  6. */
  7. struct kd_node* kdtree_build( struct feature* features, int n )
  8. {
  9. struct kd_node* kd_root;
  10. if( ! features  ||  n <= 0 )
  11. {
  12. fprintf( stderr, "Warning: kdtree_build(): no features, %s, line %d\n",
  13. __FILE__, __LINE__ );
  14. return NULL;
  15. }
  16. //初始化
  17. kd_root = kd_node_init( features, n );  //n--number of features,initinalize root of tree.
  18. expand_kd_node_subtree( kd_root );  //kd tree expand
  19. return kd_root;
  20. }

上面的涉及初始化操作的两个函数kd_node_init,及expand_kd_node_subtree代码分别如下所示:

  1. /*
  2. Initializes a kd tree node with a set of features.  The node is not
  3. expanded, and no ordering is imposed on the features.
  4. @param features an array of image features
  5. @param n number of features
  6. @return Returns an unexpanded kd-tree node.
  7. */
  8. static struct kd_node* kd_node_init( struct feature* features, int n )
  9. {                                     //n--number of features
  10. struct kd_node* kd_node;
  11. kd_node = (struct kd_node*)(malloc( sizeof( struct kd_node ) ));
  12. memset( kd_node, 0, sizeof( struct kd_node ) ); //0填充
  13. kd_node->ki = -1; //???????
  14. kd_node->features = features;
  15. kd_node->n = n;
  16. return kd_node;
  17. }
  1. /*
  2. Recursively expands a specified kd tree node into a tree whose leaves
  3. contain one entry each.
  4. @param kd_node an unexpanded node in a kd tree
  5. */
  6. static void expand_kd_node_subtree( struct kd_node* kd_node )
  7. {
  8. /* base case: leaf node */
  9. if( kd_node->n == 1  ||  kd_node->n == 0 )
  10. {   //叶节点               //伪叶节点
  11. kd_node->leaf = 1;
  12. return;
  13. }
  14. assign_part_key( kd_node ); //get ki,kv
  15. partition_features( kd_node ); //creat left and right children,特征点ki位置左树比右树模值小,kv作为分界模值
  16. //kd_node中关键点已经排序
  17. if( kd_node->kd_left )
  18. expand_kd_node_subtree( kd_node->kd_left );
  19. if( kd_node->kd_right )
  20. expand_kd_node_subtree( kd_node->kd_right );
  21. }

构建完kd树之后,如今进行最近邻搜索呢?从下面的动态gif图中,你是否能看出些许端倪呢?

从K近邻算法谈到KD树、SIFT+BBF算法

2.3、KD树的最近邻搜索算法

在k-d树中进行数据的查找也是特征匹配的重要环节,其目的是检索在k-d树中与查询点距离最近的数据点。这里先以两个简单的实例来描述最邻近查找的基本思路。

 
 星号表示要查询的点(2.1,3.1)。通过二叉搜索,顺着搜索路径很快就能找到最邻近的近似点,也就是叶子节点(2,3)。而找到的叶子节点并不一定
就是最邻近的,最邻近肯定距离查询点更近,应该位于以查询点为圆心且通过叶子节点的圆域内。为了找到真正的最近邻,还需要进行'回溯'操作:算法沿搜索路
径反向查找是否有距离查询点更近的数据点。此例中先从(7,2)点开始进行二叉查找,然后到达(5,4),最后到达(2,3),此时搜索路径中的节点
为<(7,2),(5,4),(2,3)>,首先以(2,3)作为当前最近邻点,计算其到查询点(2.1,3.1)的距离为0.1414,然
后回溯到其父节点(5,4),并判断在该父节点的其他子节点空间中是否有距离查询点更近的数据点。以(2.1,3.1)为圆心,以0.1414为半径画
圆,如图4所示。发现该圆并不和超平面y = 4交割,因此不用进入(5,4)节点右子空间中去搜索。

从K近邻算法谈到KD树、SIFT+BBF算法

  再回溯到(7,2),以(2.1,3.1)为圆心,以0.1414为半径的圆更不会与x = 7超平面交割,因此不用进入(7,2)右子空间进行查找。至此,搜索路径中的节点已经全部回溯完,结束整个搜索,返回最近邻点(2,3),最近距离为0.1414。

 
 一个复杂点了例子如查找点为(2,4.5)。同样先进行二叉查找,先从(7,2)查找到(5,4)节点,在进行查找时是由y =
4为分割超平面的,由于查找点为y值为4.5,因此进入右子空间查找到(4,7),形成搜索路径<(7,2),(5,4),(4,7)>,取
(4,7)为当前最近邻点,计算其与目标查找点的距离为3.202。然后回溯到(5,4),计算其与查找点之间的距离为3.041。以(2,4.5)为圆
心,以3.041为半径作圆,如图5所示。可见该圆和y =
4超平面交割,所以需要进入(5,4)左子空间进行查找。此时需将(2,3)节点加入搜索路径中得<(7,2),(2,3)>。回溯至
(2,3)叶子节点,(2,3)距离(2,4.5)比(5,4)要近,所以最近邻点更新为(2,3),最近距离更新为1.5。回溯至(7,2),以
(2,4.5)为圆心1.5为半径作圆,并不和x = 7分割超平面交割,如图6所示。至此,搜索路径回溯完。返回最近邻点(2,3),最近距离1.5。

从K近邻算法谈到KD树、SIFT+BBF算法

k-d树查询算法的伪代码如下所示:

  1. 算法:k-d树最邻近查找
  2. 输入:Kd,    //k-d tree类型
  3. target  //查询数据点
  4. 输出:nearest, //最邻近数据点
  5. dist      //最邻近数据点和查询点间的距离
  6. 1. If Kd为NULL,则设dist为infinite并返回
  7. 2. //进行二叉查找,生成搜索路径
  8. Kd_point = &Kd;                   //Kd-point中保存k-d tree根节点地址
  9. nearest = Kd_point -> Node-data;  //初始化最近邻点
  10. while(Kd_point)
  11.   push(Kd_point)到search_path中; //search_path是一个堆栈结构,存储着搜索路径节点指针
  12. /*** If Dist(nearest,target) > Dist(Kd_point -> Node-data,target)
  13.     nearest  = Kd_point -> Node-data;    //更新最近邻点
  14.     Max_dist = Dist(Kd_point,target);  //更新最近邻点与查询点间的距离  ***/
  15.   s = Kd_point -> split;                       //确定待分割的方向
  16.   If target[s] <= Kd_point -> Node-data[s]     //进行二叉查找
  17.     Kd_point = Kd_point -> left;
  18.   else
  19.     Kd_point = Kd_point ->right;
  20. nearest = search_path中最后一个叶子节点; //注意:二叉搜索时不比计算选择搜索路径中的最邻近点,这部分已被注释
  21. Max_dist = Dist(nearest,target);    //直接取最后叶子节点作为回溯前的初始最近邻点
  22. 3. //回溯查找
  23. while(search_path != NULL)
  24.   back_point = 从search_path取出一个节点指针;   //从search_path堆栈弹栈
  25.   s = back_point -> split;                   //确定分割方向
  26.   If Dist(target[s],back_point -> Node-data[s]) < Max_dist   //判断还需进入的子空间
  27.     If target[s] <= back_point -> Node-data[s]
  28.       Kd_point = back_point -> right;  //如果target位于左子空间,就应进入右子空间
  29.     else
  30.       Kd_point = back_point -> left;    //如果target位于右子空间,就应进入左子空间
  31.     将Kd_point压入search_path堆栈;
  32.   If Dist(nearest,target) > Dist(Kd_Point -> Node-data,target)
  33.     nearest  = Kd_point -> Node-data;                 //更新最近邻点
  34.     Min_dist = Dist(Kd_point -> Node-data,target);  //更新最近邻点与查询点间的距离

上述两次实例表明,当查询点的邻域与分割超平面两侧空间交割时,需要查找另一侧子空间,导致检索过程复杂,效率下降。研究表明N个节点的K维k-d树搜索过程时间复杂度为:tworst=O(kN1-1/k)。.....

同时,以上为了介绍方便,讨论的是二维情形。像实际的应用中,如SIFT特征矢量128维,SURF特征矢量64维,维度都比较大,直接利用k-d树快速检索(维数不超过20)的性能急剧下降。假设数据集的维数为D,一般来说要求数据的规模N满足N?2D,才能达到高效的搜索。所以这就引出了一系列对k-d树算法的改进。

2.4、kd树近邻搜索算法的改进:BBF算法

咱们顺着上一节的思路,参考统计学习方法一书上的内容,再来总结下kd树的最近邻搜索算法:

输入:以构造的kd树,目标点x;
输出:x 的最近邻
算法步骤如下:

  1. 在kd树种找出包含目标点x的叶结点:从根结点出发,递归地向下搜索kd树。若目标点x当前维的坐标小于切分点的坐标,则移动到左子结点,否则移动到右子结点,直到子结点为叶结点为止。
  2. 以此叶结点为“当前最近点”。
  3. 递归的向上回溯,在每个结点进行以下操作:
    (a)如果该结点保存的实例点比当前最近点距离目标点更近,则更新“当前最近点”,也就是说以该实例点为“当前最近点”。
    (b)当前最近点一定存在于该结点一个子结点对应的区域,检查子结点的父结点的另一子结点对应的区域是否有更近的点。具体做法是,检查另一子结点对应的区域是否以目标点位球心,以目标点与“当前最近点”间的距离为半径的圆或超球体相交:
    如果相交,可能在另一个子结点对应的区域内存在距目标点更近的点,移动到另一个子结点,接着,继续递归地进行最近邻搜索;
    如果不相交,向上回溯。
  4. 回退到根结点时,搜索结束,最后的“当前最近点”即为x 的最近邻点。

如果实例点是随机分布的,那么kd树搜索的平均计算复杂度是O(NlogN),这里的N是训练实例树。所以说,kd树更适用于训练实例数远大于空间维数时的k近邻搜索,当空间维数接近训练实例数时,它的效率会迅速下降,一降降到“*”:线性扫描的速度。

也正因为上述k最近邻搜索算法的第4个步骤中的所述:“回退到根结点时,搜索结束”,每个最近邻点的查询比较完成过程最终都要回退到根结点而结束,而导致了许多不必要回溯访问和比较到的结点,这些多余的损耗在高维度数据查找的时候,搜索效率将变得相当之地下,那有什么办法可以改进这个原始的kd树最近邻搜索算法呢?

从上述标准的kd树查询过程可以看出其搜索过程中的“回溯”是由“查询路径”决定的,并没有考虑查询路径上一些数据点本身的一些性质。一个简单的改进思路
就是将“查询路径”上的结点进行排序,如按各自分割超平面(也称bin)与查询点的距离排序,也就是说,回溯检查总是从西优先级最高(Best
Bin)的树结点开始。

如此,就引出了本节要讨论的kd树最近邻搜索算法的改进:BBF(Best-Bin-First)查询算法,它能确保优先检索包含最近邻点可能性较高的空
间,此外,BBF机制还设置了一个运行超时限定。采用了BBF查询机制后,kd树便可以有效的扩展到高维数据集上。

伪代码如下图所示:

从K近邻算法谈到KD树、SIFT+BBF算法

还是以上面的查询(2,4.5)为例,搜索的算法流程为:

  1. 将(7,2)压人优先队列中;

  2. 取优先队列中的(7,2),由于(2,4.5)位于(7,2)分割超平面的左侧,所以检索其左子结点。同时,将其右子结点压人优先队列中,此时优先队列为
    {(9,6)},最佳点为(7,2);然后一直检索到叶子结点(4,7),此时优先队列为{(2,3),(9,6)},“最佳点”则为(5,4);
  3. 提取优先级最高的结点(2,3),重复步骤2,直到优先队列为空。

如你在下图所见到的那样(话说,用鼠标在图片上写字着实不好写):

从K近邻算法谈到KD树、SIFT+BBF算法

....

第三部分、KD树的应用:SIFT+kd_BBF搜索算法

3.1、SIFT特征匹配算法

之前本blog内阐述过图像特征匹配SIFT算法,写过五篇文章,这五篇文章分别为:

不熟悉SIFT算法相关概念的可以看上述几篇文章,这里不再做赘述。在sift算法中,给定两幅图片图片,若要做特征匹配,一般会先提取出图片中的下列相关属性作为特征点(注,以下代码分析基于Rob Hess维护的sift库):

  1. /**
  2. Structure to represent an affine invariant image feature.  The fields
  3. x, y, a, b, c represent the affine region around the feature:
  4. a(x-u)(x-u) + 2b(x-u)(y-v) + c(y-v)(y-v) = 1
  5. */
  6. struct feature
  7. {
  8. double x;                      /**< x coord */
  9. double y;                      /**< y coord */
  10. double a;                      /**< Oxford-type affine region parameter */
  11. double b;                      /**< Oxford-type affine region parameter */
  12. double c;                      /**< Oxford-type affine region parameter */
  13. double scl;                    /**< scale of a Lowe-style feature */
  14. double ori;                    /**< orientation of a Lowe-style feature */
  15. int d;                         /**< descriptor length */
  16. double descr[FEATURE_MAX_D];   /**< descriptor */
  17. int type;                      /**< feature type, OXFD or LOWE */
  18. int category;                  /**< all-purpose feature category */
  19. struct feature* fwd_match;     /**< matching feature from forward image */
  20. struct feature* bck_match;     /**< matching feature from backmward image */
  21. struct feature* mdl_match;     /**< matching feature from model */
  22. CvPoint2D64f img_pt;           /**< location in image */
  23. CvPoint2D64f mdl_pt;           /**< location in model */
  24. void* feature_data;            /**< user-definable data */
  25. char dense;                     /*表征特征点所处稠密程度*/
  26. };

而后在sift.h文件中定义两个关键函数,这里,我们把它们称之为函数一,和函数二,如下所示:

函数一的声明:

  1. extern int sift_features( IplImage* img, struct feature** feat );

函数一的实现:

  1. int sift_features( IplImage* img, struct feature** feat )
  2. {
  3. return _sift_features( img, feat, SIFT_INTVLS, SIFT_SIGMA, SIFT_CONTR_THR,
  4. SIFT_CURV_THR, SIFT_IMG_DBL, SIFT_DESCR_WIDTH,
  5. SIFT_DESCR_HIST_BINS );
  6. }

从上述函数一的实现中,我们可以看到,它内部实际上调用的是这个函数:_sift_features(..),也就是下面马上要分析的函数二。

函数二的声明:

  1. extern int _sift_features( IplImage* img, struct feature** feat, int intvls,
  2. double sigma, double contr_thr, int curv_thr,
  3. int img_dbl, int descr_width, int descr_hist_bins );

函数二的实现:

  1. /**
  2. Finds SIFT features in an image using user-specified parameter values.  All
  3. detected features are stored in the array pointed to by \a feat.
  4. @param img the image in which to detect features
  5. @param fea a pointer to an array in which to store detected features
  6. @param intvls the number of intervals sampled per octave of scale space
  7. @param sigma the amount of Gaussian smoothing applied to each image level
  8. before building the scale space representation for an octave
  9. @param cont_thr a threshold on the value of the scale space function
  10. \f$\left|D(\hat{x})\right|\f$, where \f$\hat{x}\f$ is a vector specifying
  11. feature location and scale, used to reject unstable features;  assumes
  12. pixel values in the range [0, 1]
  13. @param curv_thr threshold on a feature's ratio of principle curvatures
  14. used to reject features that are too edge-like
  15. @param img_dbl should be 1 if image doubling prior to scale space
  16. construction is desired or 0 if not
  17. @param descr_width the width, \f$n\f$, of the \f$n \times n\f$ array of
  18. orientation histograms used to compute a feature's descriptor
  19. @param descr_hist_bins the number of orientations in each of the
  20. histograms in the array used to compute a feature's descriptor
  21. @return Returns the number of keypoints stored in \a feat or -1 on failure
  22. @see sift_keypoints()
  23. */
  24. int _sift_features( IplImage* img, struct feature** feat, int intvls,
  25. double sigma, double contr_thr, int curv_thr,
  26. int img_dbl, int descr_width, int descr_hist_bins )
  27. {
  28. IplImage* init_img;
  29. IplImage*** gauss_pyr, *** dog_pyr;
  30. CvMemStorage* storage;
  31. CvSeq* features;
  32. int octvs, i, n = 0,n0 = 0,n1 = 0,n2 = 0,n3 = 0,n4 = 0;
  33. int start;
  34. /* check arguments */
  35. if( ! img )
  36. fatal_error( "NULL pointer error, %s, line %d",  __FILE__, __LINE__ );
  37. if( ! feat )
  38. fatal_error( "NULL pointer error, %s, line %d",  __FILE__, __LINE__ );
  39. /* build scale space pyramid; smallest dimension of top level is ~4 pixels */
  40. start=GetTickCount();
  41. init_img = create_init_img( img, img_dbl, sigma );
  42. octvs = log( (float)(MIN( init_img->width, init_img->height )) ) / log((float)(2.0)) -5;
  43. gauss_pyr = build_gauss_pyr( init_img, octvs, intvls, sigma );
  44. dog_pyr = build_dog_pyr( gauss_pyr, octvs, intvls );
  45. fprintf( stderr, " creat the pyramid use %d\n",GetTickCount()-start);
  46. storage = cvCreateMemStorage( 0 );    //创建存储内存,0为默认64k
  47. start=GetTickCount();
  48. features = scale_space_extrema( dog_pyr, octvs, intvls, contr_thr,
  49. curv_thr, storage );  //在DOG空间寻找极值点,确定关键点位置
  50. fprintf( stderr, " find the extrum points in DOG use %d\n",GetTickCount()-start);
  51. calc_feature_scales( features, sigma, intvls ); //计算关键点的尺度
  52. if( img_dbl )
  53. adjust_for_img_dbl( features );  //如果原始空间图扩大,特征点坐标就缩小
  54. start=GetTickCount();
  55. calc_feature_oris( features, gauss_pyr );  //在gaussian空间计算关键点的主方向和幅值
  56. fprintf( stderr, " get the main oritation use %d\n",GetTickCount()-start);
  57. start=GetTickCount();
  58. compute_descriptors( features, gauss_pyr, descr_width, descr_hist_bins ); //建立关键点描述器
  59. fprintf( stderr, " compute the descriptors use %d\n",GetTickCount()-start);
  60. /* sort features by decreasing scale and move from CvSeq to array */
  61. //start=GetTickCount();
  62. //cvSeqSort( features, (CvCmpFunc)feature_cmp, NULL ); //?????
  63. n = features->total;
  64. *feat = (feature*)(calloc( n, sizeof(struct feature) ));
  65. *feat = (feature*)(cvCvtSeqToArray( features, *feat, CV_WHOLE_SEQ )); //整条链表放在feat指向的内存
  66. for( i = 0; i < n; i++ )
  67. {
  68. free( (*feat)[i].feature_data );
  69. (*feat)[i].feature_data = NULL;  //释放ddata(r,c,octv,intvl,xi,scl_octv)
  70. if((*feat)[i].dense == 4) ++n4;
  71. else if((*feat)[i].dense == 3) ++n3;
  72. else if((*feat)[i].dense == 2) ++n2;
  73. else if((*feat)[i].dense == 1) ++n1;
  74. else                         ++n0;
  75. }
  76. //fprintf( stderr, " move features from sequce to array use %d\n",GetTickCount()-start);
  77. //start=GetTickCount();
  78. fprintf( stderr, "In the total feature points the extent4 points is %d\n",n4);
  79. fprintf( stderr, "In the total feature points the extent3 points is %d\n",n3);
  80. fprintf( stderr, "In the total feature points the extent2 points is %d\n",n2);
  81. fprintf( stderr, "In the total feature points the extent1 points is %d\n",n1);
  82. fprintf( stderr, "In the total feature points the extent0 points is %d\n",n0);
  83. cvReleaseMemStorage( &storage );
  84. cvReleaseImage( &init_img );
  85. release_pyr( &gauss_pyr, octvs, intvls + 3 );
  86. release_pyr( &dog_pyr, octvs, intvls + 2 );
  87. //fprintf( stderr, " free the pyramid use %d\n",GetTickCount()-start);
  88. return n;
  89. }

说明:上面的函数二,包含了SIFT算法中几乎所有函数,是SIFT算法的核心。本文不打算一一分析上面所有函数,只会抽取其中涉及到BBF查询机制相关的函数。

3.2、KD树近邻搜索改进之BBF算法

原理在上文第二部分已经阐述明白,代码如下:

  1. //KD树近邻搜索改进之BBF算法
  2. int kdtree_bbf_knn( struct kd_node* kd_root, struct feature* feat, int k,
  3. struct feature*** nbrs, int max_nn_chks )                  //2
  4. {                                               //200
  5. struct kd_node* expl;
  6. struct min_pq* min_pq;
  7. struct feature* tree_feat, ** _nbrs;
  8. struct bbf_data* bbf_data;
  9. int i, t = 0, n = 0;
  10. if( ! nbrs  ||  ! feat  ||  ! kd_root )
  11. {
  12. fprintf( stderr, "Warning: NULL pointer error, %s, line %d\n",
  13. __FILE__, __LINE__ );
  14. return -1;
  15. }
  16. _nbrs = (feature**)(calloc( k, sizeof( struct feature* ) )); //2
  17. min_pq = minpq_init();
  18. minpq_insert( min_pq, kd_root, 0 ); //把根节点加入搜索序列中
  19. //队列有东西就继续搜,同时控制在t<200步内
  20. while( min_pq->n > 0  &&  t < max_nn_chks )
  21. {
  22. //刚进来时,从kd树根节点搜索,exp1是根节点
  23. //后进来时,exp1是min_pq差值最小的未搜索节点入口
  24. //同时按min_pq中父,子顺序依次检验,保证父节点的差值比子节点小.这样减少返回搜索时间
  25. expl = (struct kd_node*)minpq_extract_min( min_pq );
  26. if( ! expl )
  27. {
  28. fprintf( stderr, "Warning: PQ unexpectedly empty, %s line %d\n",
  29. __FILE__, __LINE__ );
  30. goto fail;
  31. }
  32. //从根节点(或差值最小节点)搜索,根据目标点与节点模值的差值(小)
  33. //确定在kd树的搜索路径,同时存储各个节点另一入口地址\同级搜索路径差值.
  34. //存储时比较父节点的差值,如果子节点差值比父节点差值小,交换两者存储位置,
  35. //使未搜索节点差值小的存储在min_pq的前面,减小返回搜索的时间.
  36. expl = explore_to_leaf( expl, feat, min_pq );
  37. if( ! expl )
  38. {
  39. fprintf( stderr, "Warning: PQ unexpectedly empty, %s line %d\n",
  40. __FILE__, __LINE__ );
  41. goto fail;
  42. }
  43. for( i = 0; i < expl->n; i++ )
  44. {
  45. //使用exp1->n原因:如果是叶节点,exp1->n=1,如果是伪叶节点,exp1->n=0.
  46. tree_feat = &expl->features[i];
  47. bbf_data = (struct bbf_data*)(malloc( sizeof( struct bbf_data ) ));
  48. if( ! bbf_data )
  49. {
  50. fprintf( stderr, "Warning: unable to allocate memory,"
  51. " %s line %d\n", __FILE__, __LINE__ );
  52. goto fail;
  53. }
  54. bbf_data->old_data = tree_feat->feature_data;
  55. bbf_data->d = descr_dist_sq(feat, tree_feat); //计算两个关键点描述器差平方和
  56. tree_feat->feature_data = bbf_data;
  57. //取前k个
  58. n += insert_into_nbr_array( tree_feat, _nbrs, n, k );//
  59. }                                                  //2
  60. t++;
  61. }
  62. minpq_release( &min_pq );
  63. for( i = 0; i < n; i++ ) //bbf_data为何搞个old_data?
  64. {
  65. bbf_data = (struct bbf_data*)(_nbrs[i]->feature_data);
  66. _nbrs[i]->feature_data = bbf_data->old_data;
  67. free( bbf_data );
  68. }
  69. *nbrs = _nbrs;
  70. return n;
  71. fail:
  72. minpq_release( &min_pq );
  73. for( i = 0; i < n; i++ )
  74. {
  75. bbf_data = (struct bbf_data*)(_nbrs[i]->feature_data);
  76. _nbrs[i]->feature_data = bbf_data->old_data;
  77. free( bbf_data );
  78. }
  79. free( _nbrs );
  80. *nbrs = NULL;
  81. return -1;
  82. }

3.3、SIFT+BBF算法匹配效果

之前试了下sift + KD + BBF算法,用两幅不同的图片做了下匹配(当然,运行结果显示是不匹配的),效果还不错:http://weibo.com/1580904460/yDmzAEwcV#1348475194313从K近邻算法谈到KD树、SIFT+BBF算法

“编译的过程中,直接用的VS2010 + opencv(并没下gsl)。2012.09.24”。....

从K近邻算法谈到KD树、SIFT+BBF算法的更多相关文章

  1. 【分类算法】K近邻(KNN) ——kd树(转载)

    K近邻(KNN)的核心算法是kd树,转载如下几个链接: [量化课堂]一只兔子帮你理解 kNN [量化课堂]kd 树算法之思路篇 [量化课堂]kd 树算法之详细篇

  2. &lt&semi;转&gt&semi;从K近邻算法、距离度量谈到KD树、SIFT&plus;BBF算法

    转自 http://blog.csdn.net/likika2012/article/details/39619687 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1.KD树:2.神经 ...

  3. 从K近邻算法、距离度量谈到KD树、SIFT&plus;BBF算法

    转载自:http://blog.csdn.net/v_july_v/article/details/8203674/ 从K近邻算法.距离度量谈到KD树.SIFT+BBF算法 前言 前两日,在微博上说: ...

  4. 一看就懂的K近邻算法&lpar;KNN&rpar;,K-D树,并实现手写数字识别!

    1. 什么是KNN 1.1 KNN的通俗解释 何谓K近邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1 ...

  5. 李航统计学习方法&lpar;第二版&rpar;(六):k 近邻算法实现(kd树&lpar;kd tree&rpar;方法)

    1. kd树简介 构造kd树的方法如下:构造根结点,使根结点对应于k维空间中包含所有实例点的超矩形区域;通过下面的递归方法,不断地对k维空间进行切分,生成子结点.在超矩形区域(结点)上选择一个坐标轴和 ...

  6. kd树和knn算法的c语言实现

    基于kd树的knn的实现原理可以参考文末的链接,都是一些好文章. 这里参考了别人的代码.用c语言写的包括kd树的构建与查找k近邻的程序. code: #include<stdio.h> # ...

  7. 2016 ICPC青岛站---k题 Finding Hotels(K-D树)

    题目链接 http://acm.hdu.edu.cn/showproblem.php?pid=5992 Problem Description There are N hotels all over ...

  8. 算法5-6:Kd树

    问题 给定一系列的点.和一个矩形.求矩形中包括的点的数量. 解答 这个问题能够通过建立矩阵来进行求解.首先将一个空间切割成矩阵,将点放置在相应的格子中.再计算矩形覆盖的格子.再推断格子中的点是否包括在 ...

  9. BZOJ 4520 &lbrack;Cqoi2016&rsqb;K远点对(KD树)

    [题目链接] http://www.lydsy.com/JudgeOnline/problem.php?id=4520 [题目大意] 求K远点对距离 [题解] 修改估价函数为欧式上界估价,对每个点进行 ...

随机推荐

  1. linux top 参数详解

    top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器.下面详细介绍它的使用方法. top - 01:06:48 up  1:22,   ...

  2. js判断三个数字中的最大值

    <script> //方法一: function maxOf3(c,d,e){ return (((c>d)?c:d)>e ? ((c>d)?c:d) : e); } c ...

  3. static 静态代码块 动态代码块 单例

    1. 共享,不属于对象,属于类,类成员变量,任何一个类的对象都有该属性,一旦被修改,则其他对象中的该属性也被更改. 2. 类中方法是static的,可以通过类名直接访问,不用new一个该类的对象. 3 ...

  4. Json格式的http请求

    服务端PHP代码可以从这里下载:https://github.com/lornajane/PHP-Web-Services 1.使用volley实现: request要用JsonObjectReque ...

  5. JAVA并发实现五&lpar;生产者和消费者模式wait和notify方式实现&rpar;

    package com.subject01; import java.util.PriorityQueue; /** * 通过wait和notify 实现 * 生产者-消费者模型:当队列满时,生产者需 ...

  6. 导出Excel1 - 项目分解篇

    我们在全部的MIS系统(信息管理系统)中都能见到他.所以我们把这个通用功能提出来. 项目名称:车辆信息管理系统(中石化石炼) 项目负责人:xiaobin 项目时间:2006.12 - 2007.2 E ...

  7. CentOS7下 让Docker pull命令使用squid做http代理拉取目标镜像仓库的镜像

    场景,如下图所示: 服务器B具有两个网卡,分别和服务器A和服务器C互通,这里想要在服务器C上借助服务器B作为桥梁,拉取镜像仓库服务器A上的镜像. 思路也很简单,在服务器上搭建HTTP代理服务,服务器C ...

  8. &fjlig;wc2019 D2T1 直径 (构造)

    #181. 「2019冬令营提高组」直径 (这题构造题是我考场上唯一一A的题........) 先看这个特殊的Subtask4 Subtask 4(20pts):$\sqrt{1+8k}$​​​ 为整 ...

  9. oj错误之char型超出范围

    在oj时遇到一个题 题目本身并不是很难,但在一个数据时出了错,刚开始一直没想通是哪里出了错 下面为源代码 #include <bits/stdc++.h> using namespace ...

  10. Ubuntu 17&period;04 允许使用root ssh登录

    用ubuntu 17.04部署完docker后,用winscp去管理系统上的文件发现默认的管理员账号权限不够,想重新用root登录,发现一只被服务器拒绝(permission denied).已经执行 ...