十一、从头到尾彻底解析Hash 表算法

时间:2021-08-19 14:21:31

在研究MonetDB时深入的学习了hash算法,看了作者的文章很有感触,所以转发,希望能够使更多人受益!

十一、从头到尾彻底解析Hash 表算法

作者:July、wuliming、pkuoliver  
出处:http://blog.csdn.net/v_JULY_v。  
说明:本文分为三部分内容,
    第一部分为一道百度面试题Top K算法的详解;第二部分为关于Hash表算法的详细阐述;第三部分为打造一个最快的Hash表算法。
------------------------------------

第一部分:Top K 算法详解
问题描述
百度面试题:
    搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。
    假设目前有一千万个记录(这些查询串的重复度比较高,虽然总数是1千万,但如果除去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。),请你统计最热门的10个查询串,要求使用的内存不能超过1G。

必备知识:
    什么是哈希表?
    哈希表(Hash table,也叫散列表),是根据关键码值(Key value)而直接进行访问的数据结构。也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表。

哈希表hashtable(key,value) 的做法其实很简单,就是把Key通过一个固定的算法函数既所谓的哈希函数转换成一个整型数字,然后就将该数字对数组长度进行取余,取余结果就当作数组的下标,将value存储在以该数字为下标的数组空间里。
    而当使用哈希表进行查询的时候,就是再次使用哈希函数将key转换为对应的数组下标,并定位到该空间获取value,如此一来,就可以充分利用到数组的定位性能进行数据定位文章第二、三部分,会针对Hash表详细阐述

问题解析:
    要统计最热门查询,首先就是要统计每个Query出现的次数,然后根据统计结果,找出Top 10。所以我们可以基于这个思路分两步来设计该算法。
    即,此问题的解决分为以下俩个步骤

第一步:Query统计
    Query统计有以下俩个方法,可供选择:
    1、直接排序法
    首先我们最先想到的的算法就是排序了,首先对这个日志里面的所有Query都进行排序,然后再遍历排好序的Query,统计每个Query出现的次数了。

但是题目中有明确要求,那就是内存不能超过1G,一千万条记录,每条记录是255Byte,很显然要占据2.375G内存,这个条件就不满足要求了。

让我们回忆一下数据结构课程上的内容,当数据量比较大而且内存无法装下的时候,我们可以采用外排序的方法来进行排序,这里我们可以采用归并排序,因为归并排序有一个比较好的时间复杂度O(NlgN)。

排完序之后我们再对已经有序的Query文件进行遍历,统计每个Query出现的次数,再次写入文件中。

综合分析一下,排序的时间复杂度是O(NlgN),而遍历的时间复杂度是O(N),因此该算法的总体时间复杂度就是O(N+NlgN)=O(NlgN)。

    2、Hash Table法
    在第1个方法中,我们采用了排序的办法来统计每个Query出现的次数,时间复杂度是NlgN,那么能不能有更好的方法来存储,而时间复杂度更低呢?

题目中说明了,虽然有一千万个Query,但是由于重复度比较高,因此事实上只有300万的Query,每个Query255Byte,因此我们可以考虑把他们都放进内存中去,而现在只是需要一个合适的数据结构,在这里,Hash Table绝对是我们优先的选择,因为Hash Table的查询速度非常的快,几乎是O(1)的时间复杂度。

那么,我们的算法就有了:维护一个Key为Query字串,Value为该Query出现次数的HashTable,每次读取一个Query,如果该字串不在Table中,那么加入该字串,并且将Value值设为1;如果该字串在Table中,那么将该字串的计数加一即可。最终我们在O(N)的时间复杂度内完成了对该海量数据的处理。

本方法相比算法1:在时间复杂度上提高了一个数量级,为O(N),但不仅仅是时间复杂度上的优化,该方法只需要IO数据文件一次,而算法1的IO次数较多的,因此该算法2比算法1在工程上有更好的可操作性。

第二步:找出Top 10
    算法一:普通排序
    我想对于排序算法大家都已经不陌生了,这里不在赘述,我们要注意的是排序算法的时间复杂度是NlgN,在本题目中,三百万条记录,用1G内存是可以存下的。

    算法二:部分排序
    题目要求是求出Top 10,因此我们没有必要对所有的Query都进行排序,我们只需要维护一个10个大小的数组,初始化放入10个Query,按照每个Query的统计次数由大到小排序,然后遍历这300万条记录,每读一条记录就和数组最后一个Query对比,如果小于这个Query,那么继续遍历,否则,将数组中最后一条数据淘汰,加入当前的Query。最后当所有的数据都遍历完毕之后,那么这个数组中的10个Query便是我们要找的Top10了。

不难分析出,这样,算法的最坏时间复杂度是N*K, 其中K是指top多少。

    算法三:堆
    在算法二中,我们已经将时间复杂度由NlogN优化到NK,不得不说这是一个比较大的改进了,可是有没有更好的办法呢?

分析一下,在算法二中,每次比较完成之后,需要的操作复杂度都是K,因为要把元素插入到一个线性表之中,而且采用的是顺序比较。这里我们注意一下,该数组是有序的,一次我们每次查找的时候可以采用二分的方法查找,这样操作的复杂度就降到了logK,可是,随之而来的问题就是数据移动,因为移动数据次数增多了。不过,这个算法还是比算法二有了改进。

基于以上的分析,我们想想,有没有一种既能快速查找,又能快速移动元素的数据结构呢?回答是肯定的,那就是堆。
    借助堆结构,我们可以在log量级的时间内查找和调整/移动。因此到这里,我们的算法可以改进为这样,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的Query,分别和根元素进行对比。

具体过程是,堆顶存放的是整个堆中最小的数,现在遍历N个数,把最先遍历到的k个数存放到最小堆中,并假设它们就是我们要找的最大的k个数,X1>X2...Xmin(堆顶),而后遍历后续的N-K个数,一一与堆顶元素进行比较,如果遍历到的Xi大于堆顶元素Xmin,则把Xi放入堆中,而后更新整个堆,更新的时间复杂度为logK,如果Xi<Xmin,则不更新堆,整个过程的复杂度为O(K)+O((N-K)*logK)=O(N*logK)。

(堆排序的3D动画演示可以参看此链接:http://www.benfrederickson.com/2013/10/10/heap-visualization.html

思想与上述算法二一致,只是算法在算法三,我们采用了最小堆这种数据结构代替数组,把查找目标元素的时间复杂度有O(K)降到了O(logK)。
    那么这样,采用堆数据结构,算法三,最终的时间复杂度就降到了N‘logK,和算法二相比,又有了比较大的改进。

总结:
    至此,算法就完全结束了,经过上述第一步、先用Hash表统计每个Query出现的次数,O(N);然后第二步、采用堆数据结构找出Top 10,N*O(logK)。所以,我们最终的时间复杂度是:O(N) + N'*O(logK)。(N为1000万,N’为300万)。如果各位有什么更好的算法,欢迎留言评论。

此外,还可以看下此文第二部分的第二题:http://blog.csdn.net/v_july_v/article/details/7382693

第二部分、Hash表 算法的详细解析

什么是Hash
     Hash,一般翻译做“散列”,也有直接音译为“哈希”的,就是把任意长度的输入(又叫做预映射, pre-image),通过散列算法,变换成固定长度的输出,该输出就是散列值。这种转换是一种压缩映射,也就是,散列值的空间通常远小于输入的空间,不同的输入可能会散列成相同的输出,而不可能从散列值来唯一的确定输入值。简单的说就是一种将任意长度的消息压缩到某一固定长度的消息摘要的函数。

HASH主要用于信息安全领域中加密算法,它把一些不同长度的信息转化成杂乱的128位的编码,这些编码值叫做HASH值. 也可以说,hash就是找到一种数据内容和数据存放地址之间的映射关系。

数组的特点是:寻址容易,插入和删除困难;而链表的特点是:寻址困难,插入和删除容易。那么我们能不能综合两者的特性,做出一种寻址容易,插入删除也容易的数据结构?答案是肯定的,这就是我们要提起的哈希表,哈希表有多种不同的实现方法,我接下来解释的是最常用的一种方法——拉链法,我们可以理解为“链表的数组”,如图:

十一、从头到尾彻底解析Hash 表算法
    左边很明显是个数组,数组的每个成员包括一个指针,指向一个链表的头,当然这个链表可能为空,也可能元素很多。我们根据元素的一些特征把元素分配到不同的链表中去,也是根据这些特征,找到正确的链表,再从链表中找出这个元素。

元素特征转变为数组下标的方法就是散列法。散列法当然不止一种,下面列出三种比较常用的:

1,除法散列法 
最直观的一种,上图使用的就是这种散列法,公式: 
      index = value % 16 
学过汇编的都知道,求模数其实是通过一个除法运算得到的,所以叫“除法散列法”。

2,平方散列法 
求index是非常频繁的操作,而乘法的运算要比除法来得省时(对现在的CPU来说,估计我们感觉不出来),所以我们考虑把除法换成乘法和一个位移操作。公式:
      index = (value * value) >> 28   右移,除以2^28。记法:左移变大,是乘。右移变小,是除。
如果数值分配比较均匀的话这种方法能得到不错的结果,但我上面画的那个图的各个元素的值算出来的index都是0——非常失败。也许你还有个问题,value如果很大,value * value不会溢出吗?答案是会的,但我们这个乘法不关心溢出,因为我们根本不是为了获取相乘结果,而是为了获取index。

3,斐波那契(Fibonacci)散列法

平方散列法的缺点是显而易见的,所以我们能不能找出一个理想的乘数,而不是拿value本身当作乘数呢?答案是肯定的。

1,对于16位整数而言,这个乘数是40503 
2,对于32位整数而言,这个乘数是2654435769 
3,对于64位整数而言,这个乘数是11400714819323198485

这几个“理想乘数”是如何得出来的呢?这跟一个法则有关,叫黄金分割法则,而描述黄金分割法则的最经典表达式无疑就是著名的斐波那契数列,即如此形式的序列:0,1, 1,2, 3,5, 8,13, 21,34, 55,89, 144,233,377,610, 987, 1597, 2584, 4181, 6765, 10946,…。另外,斐波那契数列的值和太阳系八大行星的轨道半径的比例出奇吻合。

对我们常见的32位整数而言,公式: 
            index = (value * 2654435769) >> 28

如果用这种斐波那契散列法的话,那上面的图就变成这样了:

十一、从头到尾彻底解析Hash 表算法
注:用斐波那契散列法调整之后会比原来的取摸散列法好很多。

适用范围
    快速查找,删除的基本数据结构,通常需要总数据量可以放入内存。

基本原理及要点
    hash函数选择,针对字符串,整数,排列,具体相应的hash方法。 
碰撞处理,一种是open hashing,也称为拉链法;另一种就是closed hashing,也称开地址法,opened addressing。

扩展 
    d-left hashing中的d是多个的意思,我们先简化这个问题,看一看2-left hashing。2-left hashing指的是将一个哈希表分成长度相等的两半,分别叫做T1和T2,给T1和T2分别配备一个哈希函数,h1和h2。在存储一个新的key时,同 时用两个哈希函数进行计算,得出两个地址h1[key]和h2[key]。这时需要检查T1中的h1[key]位置和T2中的h2[key]位置,哪一个 位置已经存储的(有碰撞的)key比较多,然后将新key存储在负载少的位置。如果两边一样多,比如两个位置都为空或者都存储了一个key,就把新key 存储在左边的T1子表中,2-left也由此而来。在查找一个key时,必须进行两次hash,同时查找两个位置。

问题实例(海量数据处理) 
    我们知道hash 表在海量数据处理中有着广泛的应用,下面,请看另一道百度面试题:
题目:海量日志数据,提取出某日访问百度次数最多的那个IP。
方案:IP的数目还是有限的,最多2^32个,所以可以考虑使用hash将ip直接存入内存,然后进行统计。

第三部分、最快的Hash表算法

接下来,咱们来具体分析一下一个最快的Hasb表算法。
    我们由一个简单的问题逐步入手:有一个庞大的字符串数组,然后给你一个单独的字符串,让你从这个数组中查找是否有这个字符串并找到它,你会怎么做?有一个方法最简单,老老实实从头查到尾,一个一个比较,直到找到为止,我想只要学过程序设计的人都能把这样一个程序作出来,但要是有程序员把这样的程序交给用户,我只能用无语来评价,或许它真的能工作,但...也只能如此了。

最合适的算法自然是使用HashTable(哈希表),先介绍介绍其中的基本知识,所谓Hash,一般是一个整数,通过某种算法,可以把一个字符串"压缩" 成一个整数。当然,无论如何,一个32位整数是无法对应回一个字符串的,但在程序中,两个字符串计算出的Hash值相等的可能非常小,下面看看在MPQ中的Hash算法(参看自此文:http://sfsrealm.hopto.org/inside_mopaq/chapter2.htm):

函数一、以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]

void prepareCryptTable()

    unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
 
    for( index1 = 0; index1 < 0x100; index1++ )
    { 
        for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
        { 
            unsigned long temp1, temp2;
 
            seed = (seed * 125 + 3) % 0x2AAAAB;
            temp1 = (seed & 0xFFFF) << 0x10;
 
            seed = (seed * 125 + 3) % 0x2AAAAB;
            temp2 = (seed & 0xFFFF);
 
            cryptTable[index2] = ( temp1 | temp2 ); 
       } 
   } 
}

函数二、以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,在下面的函数三、GetHashTablePos函数中调用此函数二,其可以取的值为0、1、2;该函数返回lpszFileName 字符串的hash值:

unsigned long HashString( char *lpszFileName, unsigned long dwHashType )

    unsigned char *key  = (unsigned char *)lpszFileName;
unsigned long seed1 = 0x7FED7FED;
unsigned long seed2 = 0xEEEEEEEE;
    int ch;
 
    while( *key != 0 )
    { 
        ch = toupper(*key++);
 
        seed1 = cryptTable[(dwHashType << 8) + ch] ^ (seed1 + seed2);
        seed2 = ch + seed1 + seed2 + (seed2 << 5) + 3; 
    }
    return seed1; 
}

Blizzard的这个算法是非常高效的,被称为"One-Way Hash"( A one-way hash is a an algorithm that is constructed in such a way that deriving the original string (set of strings, actually) is virtually impossible)。举个例子,字符串"unitneutralacritter.grp"通过这个算法得到的结果是0xA26067F3。

  是不是把第一个算法改进一下,改成逐个比较字符串的Hash值就可以了呢,答案是,远远不够,要想得到最快的算法,就不能进行逐个的比较,通常是构造一个哈希表(Hash Table)来解决问题,哈希表是一个大数组,这个数组的容量根据程序的要求来定义,例如1024,每一个Hash值通过取模运算 (mod) 对应到数组中的一个位置,这样,只要比较这个字符串的哈希值对应的位置有没有被占用,就可以得到最后的结果了,想想这是什么速度?是的,是最快的O(1),现在仔细看看这个算法吧:

typedef struct
{
    int nHashA;
    int nHashB;
    char bExists;
   ......
} SOMESTRUCTRUE;
一种可能的结构体定义?

函数三、下述函数为在Hash表中查找是否存在目标字符串,有则返回要查找字符串的Hash值,无则,return -1.

int GetHashTablePos( har *lpszString, SOMESTRUCTURE *lpTable )
//lpszString要在Hash表中查找的字符串,lpTable为存储字符串Hash值的Hash表。

    int nHash = HashString(lpszString);  //调用上述函数二,返回要查找字符串lpszString的Hash值。
    int nHashPos = nHash % nTableSize;
 
    if ( lpTable[nHashPos].bExists  &&  !strcmp( lpTable[nHashPos].pString, lpszString ) )
    {  //如果找到的Hash值在表中存在,且要查找的字符串与表中对应位置的字符串相同,
        return nHashPos;    //则返回上述调用函数二后,找到的Hash值
    } 
    else
    {
        return -1;  
    } 
}

看到此,我想大家都在想一个很严重的问题:“如果两个字符串在哈希表中对应的位置相同怎么办?”,毕竟一个数组容量是有限的,这种可能性很大。解决该问题的方法很多,我首先想到的就是用“链表”,感谢大学里学的数据结构教会了这个百试百灵的法宝,我遇到的很多算法都可以转化成链表来解决,只要在哈希表的每个入口挂一个链表,保存所有对应的字符串就OK了。事情到此似乎有了完美的结局,如果是把问题独自交给我解决,此时我可能就要开始定义数据结构然后写代码了。

然而Blizzard的程序员使用的方法则是更精妙的方法。基本原理就是:他们在哈希表中不是用一个哈希值而是用三个哈希值来校验字符串。

MPQ使用文件名哈希表来跟踪内部的所有文件。但是这个表的格式与正常的哈希表有一些不同。首先,它没有使用哈希作为下标,把实际的文件名存储在表中用于验证,实际上它根本就没有存储文件名。而是使用了3种不同的哈希:一个用于哈希表的下标,两个用于验证。这两个验证哈希替代了实际文件名。
    当然了,这样仍然会出现2个不同的文件名哈希到3个同样的哈希。但是这种情况发生的概率平均是:1:18889465931478580854784,这个概率对于任何人来说应该都是足够小的。现在再回到数据结构上,Blizzard使用的哈希表没有使用链表,而采用"顺延"的方式来解决问题,看看这个算法:

函数四、lpszString 为要在hash表中查找的字符串;lpTable 为存储字符串hash值的hash表;nTableSize 为hash表的长度:

int GetHashTablePos( char *lpszString, MPQHASHTABLE *lpTable, int nTableSize )
{
    const int  HASH_OFFSET = 0, HASH_A = 1, HASH_B = 2;
 
    int  nHash = HashString( lpszString, HASH_OFFSET );
    int  nHashA = HashString( lpszString, HASH_A );
    int  nHashB = HashString( lpszString, HASH_B );
    int  nHashStart = nHash % nTableSize;
    int  nHashPos = nHashStart;
 
    while ( lpTable[nHashPos].bExists )
   {
     /*如果仅仅是判断在该表中时候存在这个字符串,就比较这两个hash值就可以了,不用对
     *结构体中的字符串进行比较。这样会加快运行的速度?减少hash表占用的空间?这种
      *方法一般应用在什么场合?*/
        if (   lpTable[nHashPos].nHashA == nHashA
        &&  lpTable[nHashPos].nHashB == nHashB )
       {
            return nHashPos;
       }
       else
       {
            nHashPos = (nHashPos + 1) % nTableSize;
       }
 
        if (nHashPos == nHashStart)
              break;
    }
     return -1;
}

上述程序解释:

1.计算出字符串的三个哈希值(一个用来确定位置,另外两个用来校验)
2. 察看哈希表中的这个位置
3. 哈希表中这个位置为空吗?如果为空,则肯定该字符串不存在,返回-1。
4. 如果存在,则检查其他两个哈希值是否也匹配,如果匹配,则表示找到了该字符串,返回其Hash值。
5. 移到下一个位置,如果已经移到了表的末尾,则反绕到表的开始位置起继续查询 
6. 看看是不是又回到了原来的位置,如果是,则返回没找到
7. 回到3

ok,这就是本文中所说的最快的Hash表算法。什么?不够快?:D。欢迎,各位批评指正。

--------------------------------------------
补充1、一个简单的hash函数:

/*key为一个字符串,nTableLength为哈希表的长度
*该函数得到的hash值分布比较均匀*/
unsigned long getHashIndex( const char *key, int nTableLength )
{
    unsigned long nHash = 0;
   
    while (*key)
    {
        nHash = (nHash<<5) + nHash + *key++;
    }
        
    return ( nHash % nTableLength );
}

补充2、一个完整测试程序:  
    哈希表的数组是定长的,如果太大,则浪费,如果太小,体现不出效率。合适的数组大小是哈希表的性能的关键。哈希表的尺寸最好是一个质数。当然,根据不同的数据量,会有不同的哈希表的大小。对于数据量时多时少的应用,最好的设计是使用动态可变尺寸的哈希表,那么如果你发现哈希表尺寸太小了,比如其中的元素是哈希表尺寸的2倍时,我们就需要扩大哈希表尺寸,一般是扩大一倍。

下面是哈希表尺寸大小的可能取值:

17,            37,          79,        163,          331, 
    673,           1361,        2729,       5471,         10949,        
   21911,          43853,      87719,      175447,      350899,
  701819,         1403641,    2807303,     5614657,     11229331,   
 22458671,       44917381,    89834777,    179669557,   359339171,  
718678369,      1437356741,  2147483647

以下为该程序的完整源码,已在linux下测试通过:

  1. #include <stdio.h>
  2. #include <ctype.h>     //多谢citylove指正。
  3. //crytTable[]里面保存的是HashString函数里面将会用到的一些数据,在prepareCryptTable
  4. //函数里面初始化
  5. unsigned long cryptTable[0x500];
  6. //以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]
  7. void prepareCryptTable()
  8. {
  9. unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
  10. for( index1 = 0; index1 < 0x100; index1++ )
  11. {
  12. for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
  13. {
  14. unsigned long temp1, temp2;
  15. seed = (seed * 125 + 3) % 0x2AAAAB;
  16. temp1 = (seed & 0xFFFF) << 0x10;
  17. seed = (seed * 125 + 3) % 0x2AAAAB;
  18. temp2 = (seed & 0xFFFF);
  19. cryptTable[index2] = ( temp1 | temp2 );
  20. }
  21. }
  22. }
  23. //以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,
  24. //在下面GetHashTablePos函数里面调用本函数,其可以取的值为0、1、2;该函数
  25. //返回lpszFileName 字符串的hash值;
  26. unsigned long HashString( char *lpszFileName, unsigned long dwHashType )
  27. {
  28. unsigned char *key  = (unsigned char *)lpszFileName;
  29. unsigned long seed1 = 0x7FED7FED;
  30. unsigned long seed2 = 0xEEEEEEEE;
  31. int ch;
  32. while( *key != 0 )
  33. {
  34. ch = toupper(*key++);
  35. seed1 = cryptTable[(dwHashType << 8) + ch] ^ (seed1 + seed2);
  36. seed2 = ch + seed1 + seed2 + (seed2 << 5) + 3;
  37. }
  38. return seed1;
  39. }
  40. //在main中测试argv[1]的三个hash值:
  41. //./hash  "arr/units.dat"
  42. //./hash  "unit/neutral/acritter.grp"
  43. int main( int argc, char **argv )
  44. {
  45. unsigned long ulHashValue;
  46. int i = 0;
  47. if ( argc != 2 )
  48. {
  49. printf("please input two arguments/n");
  50. return -1;
  51. }
  52. /*初始化数组:crytTable[0x500]*/
  53. prepareCryptTable();
  54. /*打印数组crytTable[0x500]里面的值*/
  55. for ( ; i < 0x500; i++ )
  56. {
  57. if ( i % 10 == 0 )
  58. {
  59. printf("/n");
  60. }
  61. printf("%-12X", cryptTable[i] );
  62. }
  63. ulHashValue = HashString( argv[1], 0 );
  64. printf("/n----%X ----/n", ulHashValue );
  65. ulHashValue = HashString( argv[1], 1 );
  66. printf("----%X ----/n", ulHashValue );
  67. ulHashValue = HashString( argv[1], 2 );
  68. printf("----%X ----/n", ulHashValue );
  69. return 0;
  70. }
  1. #include <stdio.h>
  2. #include <ctype.h>     //多谢citylove指正。
  3. //crytTable[]里面保存的是HashString函数里面将会用到的一些数据,在prepareCryptTable
  4. //函数里面初始化
  5. unsigned long cryptTable[0x500];
  6. //以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]
  7. void prepareCryptTable()
  8. {
  9. unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
  10. for( index1 = 0; index1 < 0x100; index1++ )
  11. {
  12. for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
  13. {
  14. unsigned long temp1, temp2;
  15. seed = (seed * 125 + 3) % 0x2AAAAB;
  16. temp1 = (seed & 0xFFFF) << 0x10;
  17. seed = (seed * 125 + 3) % 0x2AAAAB;
  18. temp2 = (seed & 0xFFFF);
  19. cryptTable[index2] = ( temp1 | temp2 );
  20. }
  21. }
  22. }
  23. //以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,
  24. //在下面GetHashTablePos函数里面调用本函数,其可以取的值为0、1、2;该函数
  25. //返回lpszFileName 字符串的hash值;
  26. unsigned long HashString( char *lpszFileName, unsigned long dwHashType )
  27. {
  28. unsigned char *key  = (unsigned char *)lpszFileName;
  29. unsigned long seed1 = 0x7FED7FED;
  30. unsigned long seed2 = 0xEEEEEEEE;
  31. int ch;
  32. while( *key != 0 )
  33. {
  34. ch = toupper(*key++);
  35. seed1 = cryptTable[(dwHashType << 8) + ch] ^ (seed1 + seed2);
  36. seed2 = ch + seed1 + seed2 + (seed2 << 5) + 3;
  37. }
  38. return seed1;
  39. }
  40. //在main中测试argv[1]的三个hash值:
  41. //./hash  "arr/units.dat"
  42. //./hash  "unit/neutral/acritter.grp"
  43. int main( int argc, char **argv )
  44. {
  45. unsigned long ulHashValue;
  46. int i = 0;
  47. if ( argc != 2 )
  48. {
  49. printf("please input two arguments/n");
  50. return -1;
  51. }
  52. /*初始化数组:crytTable[0x500]*/
  53. prepareCryptTable();
  54. /*打印数组crytTable[0x500]里面的值*/
  55. for ( ; i < 0x500; i++ )
  56. {
  57. if ( i % 10 == 0 )
  58. {
  59. printf("/n");
  60. }
  61. printf("%-12X", cryptTable[i] );
  62. }
  63. ulHashValue = HashString( argv[1], 0 );
  64. printf("/n----%X ----/n", ulHashValue );
  65. ulHashValue = HashString( argv[1], 1 );
  66. printf("----%X ----/n", ulHashValue );
  67. ulHashValue = HashString( argv[1], 2 );
  68. printf("----%X ----/n", ulHashValue );
  69. return 0;
  70. }

相关引用:
1、http://blog.redfox66.com/
2、http://blog.csdn.net/wuliming_sc/

更多请参见本hash算法之后续:十一(续)、倒排索引关键词Hash不重复编码实践。完。

第二十三、四章:杨氏矩阵查找,倒排索引关键词Hash不重复编码实践

作者:July、yansha。编程艺术室出品。
出处:结构之法算法之道。

前言

本文阐述两个问题,第二十三章是杨氏矩阵查找问题,第二十四章是有关倒排索引中关键词Hash编码的问题,主要要解决不重复以及追加的功能,同时也是经典算法研究系列十一、从头到尾彻底解析Hash表算法之续。

OK,有任何问题,也欢迎随时交流或批评指正。谢谢。

第二十三章、杨氏矩阵查找

杨氏矩阵查找

先看一个来自算法导论习题里6-3与剑指offer的一道编程题(也被经常用作面试题,本人此前去搜狗二面时便遇到了):

在一个m行n列二维数组中,每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数。
    例如下面的二维数组就是每行、每列都递增排序。如果在这个数组中查找数字6,则返回true;如果查找数字5,由于数组不含有该数字,则返回false。

十一、从头到尾彻底解析Hash 表算法

本Young问题解法有二(如查找数字6):

1、分治法,分为四个矩形,配以二分查找,如果要找的数是6介于对角线上相邻的两个数4、10,可以排除掉左上和右下的两个矩形,而递归在左下和右上的两个矩形继续找,如下图所示:

十一、从头到尾彻底解析Hash 表算法

2、定位法,时间复杂度O(m+n)。首先直接定位到最右上角的元素,再配以二分查找,比要找的数(6)大就往左走,比要找数(6)的小就往下走,直到找到要找的数字(6)为止,如下图所示:

十一、从头到尾彻底解析Hash 表算法

上述方法二的关键代码+程序运行如下图所示:

十一、从头到尾彻底解析Hash 表算法

试问,上述算法复杂么?不复杂,只要稍微动点脑筋便能想到,还可以参看友人老梦的文章,Young氏矩阵:http://blog.csdn.net/zhanglei8893/article/details/6234564,以及IT练兵场的:http://www.jobcoding.com/array/matrix/young-tableau-problem/,除此之外,何海涛先生一书剑指offer中也收集了此题,感兴趣的朋友也可以去看看。

第二十四章、经典算法十一Hash表算法(续)、倒排索引关键词不重复Hash编码

    本章要介绍这样一个问题,对倒排索引中的关键词进行编码。那么,这个问题将分为两个个步骤:

  1. 首先,要提取倒排索引内词典文件中的关键词;
  2. 对提取出来的关键词进行编码。本章采取hash编码的方式。既然要用hash编码,那么最重要的就是要解决hash冲突的问题,下文会详细介绍。
    有一点必须提醒读者的是,倒排索引包含词典和倒排记录表两个部分,词典一般有词项(或称为关键词)和词项频率(即这个词项或关键词出现的次数),倒排记录表则记录着上述词项(或关键词)所出现的位置,或出现的文档及网页ID等相关信息。

24.1、正排索引与倒排索引  

咱们先来看什么是倒排索引,以及倒排索引与正排索引之间的区别:

我们知道,搜索引擎的关键步骤就是建立倒排索引,所谓倒排索引一般表示为一个关键词,然后是它的频度(出现的次数),位置(出现在哪一篇文章或网页中,及有关的日期,作者等信息),它相当于为互联网上几千亿页网页做了一个索引,好比一本书的目录、标签一般。读者想看哪一个主题相关的章节,直接根据目录即可找到相关的页面。不必再从书的第一页到最后一页,一页一页的查找。

接下来,阐述下正排索引与倒排索引的区别:

一般索引(正排索引)

正排表是以文档的ID为关键字,表中记录文档中每个字的位置信息,查找时扫描表中每个文档中字的信息直到找出所有包含查询关键字的文档。正排表结构如图1所示,这种组织方法在建立索引的时候结构比较简单,建立比较方便且易于维护;因为索引是基于文档建立的,若是有新的文档假如,直接为该文档建立一个新的索引块,挂接在原来索引文件的后面。若是有文档删除,则直接找到该文档号文档对因的索引信息,将其直接删除。但是在查询的时候需对所有的文档进行扫描以确保没有遗漏,这样就使得检索时间大大延长,检索效率低下。

尽管正排表的工作原理非常的简单,但是由于其检索效率太低,除非在特定情况下,否则实用性价值不大。

十一、从头到尾彻底解析Hash 表算法

倒排索引

倒排表以字或词为关键字进行索引,表中关键字所对应的记录表项记录了出现这个字或词的所有文档,一个表项就是一个字表段,它记录该文档的ID和字符在该文档中出现的位置情况。由于每个字或词对应的文档数量在动态变化,所以倒排表的建立和维护都较为复杂,但是在查询的时候由于可以一次得到查询关键字所对应的所有文档,所以效率高于正排表。在全文检索中,检索的快速响应是一个最为关键的性能,而索引建立由于在后台进行,尽管效率相对低一些,但不会影响整个搜索引擎的效率。

倒排表的结构图如图2:

十一、从头到尾彻底解析Hash 表算法

倒排表的索引信息保存的是字或词后继数组模型、互关联后继数组模型条在文档内的位置,在同一篇文档内相邻的字或词条的前后关系没有被保存到索引文件内。

24.2、倒排索引中提取关键词

倒排索引是搜索引擎之基石。建成了倒排索引后,用户要查找某个query,如在搜索框输入某个关键词:“结构之法”后,搜索引擎不会再次使用爬虫又一个一个去抓取每一个网页,从上到下扫描网页,看这个网页有没有出现这个关键词,而是会在它预先生成的倒排索引文件中查找和匹配包含这个关键词“结构之法”的所有网页。找到了之后,再按相关性度排序,最终把排序后的结果显示给用户。

十一、从头到尾彻底解析Hash 表算法

如下,即是一个倒排索引文件(不全),我们把它取名为big_index,十一、从头到尾彻底解析Hash 表算法文件中每一较短的,不包含有“#####”符号的便是某个关键词,及这个关键词的出现次数。现在要从这个大索引文件中提取出这些关键词,--Firelf--,-11,-Winter-,.,007,007:天降杀机,02Chan..如何做到呢?一行一行的扫描整个索引文件么?

何意?之前已经说过:倒排索引包含词典和倒排记录表两个部分,词典一般有词项(或称为关键词)和词项频率(即这个词项或关键词出现的次数),倒排记录表则记录着上述词项(或关键词)所出现的位置,或出现的文档及网页ID等相关信息。

最简单的讲,就是要提取词典中的词项(关键词):--Firelf--,-11,-Winter-,.,007,007:天降杀机,02Chan...。

--Firelf--(关键词)
8(出现次数)

十一、从头到尾彻底解析Hash 表算法

我们可以试着这么解决:通过查找#####便可判断某一行出现的词是不是关键词,但如果这样做的话,便要扫描整个索引文件的每一行,代价实在巨大。如何提高速度呢?对了,关键词后面的那个出现次数为我们问题的解决起到了很好的作用,如下注释所示:

// 
本身没有##### 的行判定为关键词行,后跟这个关键词的行数N(即词项频率)
//  接下来,截取关键词--Firelf--,然后读取后面关键词的行数N
//  再跳过N行(滤过和避免扫描中间的倒排记录表信息)
//  读取下一个关键词..

有朋友指出,上述方法虽然减少了扫描的行数,但并没有减少I0开销。读者是否有更好地办法?欢迎随时交流。

24.2、为提取出来的关键词编码

爱思考的朋友可能会问,上述从倒排索引文件中提取出那些关键词(词项)的操作是为了什么呢?其实如我个人微博上12月12日所述的Hash词典编码:

词典文件的编码:1、词典怎么生成(存储和构造词典);2、如何运用hash对输入的汉字进行编码;3、如何更好的解决冲突,即不重复以及追加功能。具体例子为:事先构造好词典文件后,输入一个词,要求找到这个词的编码,然后将其编码输出。且要有不断能添加词的功能,不得重复。
    步骤应该是如下:1、读索引文件;2、提取索引中的词出来;3、词典怎么生成,存储和构造词典;4、词典文件的编码:不重复与追加功能。编码比如,输入中国,他的编码可以为10001,然后输入银行,他的编码可以为10002。只要实现不断添加词功能,以及不重复即可,词典类的大文件,hash最重要的是怎样避免冲突。

也就是说,现在我要对上述提取出来后的关键词进行编码,采取何种方式编码呢?暂时用hash函数编码。编码之后的效果将是每一个关键词都有一个特定的编码,如下图所示(与上文big_index文件比较一下便知):

--Firelf--  对应编码为:135942

-11         对应编码为:106101

....

十一、从头到尾彻底解析Hash 表算法

但细心的朋友一看上图便知,其中第34~39行显示,有重复的编码,那么如何解决这个不重复编码的问题呢?

用hash表编码?但其极易产生冲突碰撞,为什么?请看:

哈希表是一种查找效率极高的数据结构,很多语言都在内部实现了哈希表。PHP中的哈希表是一种极为重要的数据结构,不但用于表示Array数据类型,还在Zend虚拟机内部用于存储上下文环境信息(执行上下文的变量及函数均使用哈希表结构存储)。

理想情况下哈希表插入和查找操作的时间复杂度均为O(1),任何一个数据项可以在一个与哈希表长度无关的时间内计算出一个哈希值(key),然后在常量时间内定位到一个桶(术语bucket,表示哈希表中的一个位置)。当然这是理想情况下,因为任何哈希表的长度都是有限的,所以一定存在不同的数据项具有相同哈希值的情况,此时不同数据项被定为到同一个桶,称为碰撞(collision)。

哈希表的实现需要解决碰撞问题,碰撞解决大体有两种思路,

  1. 第一种是根据某种原则将被碰撞数据定为到其它桶,例如线性探测——如果数据在插入时发生了碰撞,则顺序查找这个桶后面的桶,将其放入第一个没有被使用的桶;
  2. 第二种策略是每个桶不是一个只能容纳单个数据项的位置,而是一个可容纳多个数据的数据结构(例如链表或红黑树),所有碰撞的数据以某种数据结构的形式组织起来。

不论使用了哪种碰撞解决策略,都导致插入和查找操作的时间复杂度不再是O(1)。以查找为例,不能通过key定位到桶就结束,必须还要比较原始key(即未做哈希之前的key)是否相等,如果不相等,则要使用与插入相同的算法继续查找,直到找到匹配的值或确认数据不在哈希表中。

PHP是使用单链表存储碰撞的数据,因此实际上PHP哈希表的平均查找复杂度为O(L),其中L为桶链表的平均长度;而最坏复杂度为O(N),此时所有数据全部碰撞,哈希表退化成单链表。下图PHP中正常哈希表和退化哈希表的示意图。

十一、从头到尾彻底解析Hash 表算法

哈希表碰撞攻击就是通过精心构造数据,使得所有数据全部碰撞,人为将哈希表变成一个退化的单链表,此时哈希表各种操作的时间均提升了一个数量级,因此会消耗大量CPU资源,导致系统无法快速响应请求,从而达到拒绝服务攻击(DoS)的目的。

可以看到,进行哈希碰撞攻击的前提是哈希算法特别容易找出碰撞,如果是MD5或者SHA1那基本就没戏了,幸运的是(也可以说不幸的是)大多数编程语言使用的哈希算法都十分简单(这是为了效率考虑),因此可以不费吹灰之力之力构造出攻击数据.(上述五段文字引自:http://www.codinglabs.org/html/hash-collisions-attack-on-php.html)。

24.4、暴雪的Hash算法

值得一提的是,在解决Hash冲突的时候,搞的焦头烂额,结果今天上午在自己的博客内的一篇文章(十一、从头到尾彻底解析Hash表算法)内找到了解决办法:网上流传甚广的暴雪的Hash算法。 OK,接下来,咱们回顾下暴雪的hash表算法:

“接下来,咱们来具体分析一下一个最快的Hash表算法。
我们由一个简单的问题逐步入手:有一个庞大的字符串数组,然后给你一个单独的字符串,让你从这个数组中查找是否有这个字符串并找到它,你会怎么做?
有一个方法最简单,老老实实从头查到尾,一个一个比较,直到找到为止,我想只要学过程序设计的人都能把这样一个程序作出来,但要是有程序员把这样的程序交给用户,我只能用无语来评价,或许它真的能工作,但...也只能如此了。
最合适的算法自然是使用HashTable(哈希表),先介绍介绍其中的基本知识,所谓Hash,一般是一个整数,通过某种算法,可以把一个字符串"压缩" 成一个整数。当然,无论如何,一个32位整数是无法对应回一个字符串的,但在程序中,两个字符串计算出的Hash值相等的可能非常小,下面看看在MPQ中的Hash算法:
    函数prepareCryptTable以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]

  1. //函数prepareCryptTable以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]
  2. void prepareCryptTable()
  3. {
  4. unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
  5. for( index1 = 0; index1 < 0x100; index1++ )
  6. {
  7. for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
  8. {
  9. unsigned long temp1, temp2;
  10. seed = (seed * 125 + 3) % 0x2AAAAB;
  11. temp1 = (seed & 0xFFFF) << 0x10;
  12. seed = (seed * 125 + 3) % 0x2AAAAB;
  13. temp2 = (seed & 0xFFFF);
  14. cryptTable[index2] = ( temp1 | temp2 );
  15. }
  16. }
  17. }
  1. //函数prepareCryptTable以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]
  2. void prepareCryptTable()
  3. {
  4. unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
  5. for( index1 = 0; index1 < 0x100; index1++ )
  6. {
  7. for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
  8. {
  9. unsigned long temp1, temp2;
  10. seed = (seed * 125 + 3) % 0x2AAAAB;
  11. temp1 = (seed & 0xFFFF) << 0x10;
  12. seed = (seed * 125 + 3) % 0x2AAAAB;
  13. temp2 = (seed & 0xFFFF);
  14. cryptTable[index2] = ( temp1 | temp2 );
  15. }
  16. }
  17. }

函数HashString以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,

  1. //函数HashString以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,
  2. unsigned long HashString(const char *lpszkeyName, unsigned long dwHashType )
  3. {
  4. unsigned char *key  = (unsigned char *)lpszkeyName;
  5. unsigned long seed1 = 0x7FED7FED;
  6. unsigned long seed2 = 0xEEEEEEEE;
  7. int ch;
  8. while( *key != 0 )
  9. {
  10. ch = *key++;
  11. seed1 = cryptTable[(dwHashType<<8) + ch] ^ (seed1 + seed2);
  12. seed2 = ch + seed1 + seed2 + (seed2<<5) + 3;
  13. }
  14. return seed1;
  15. }
  1. //函数HashString以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,
  2. unsigned long HashString(const char *lpszkeyName, unsigned long dwHashType )
  3. {
  4. unsigned char *key  = (unsigned char *)lpszkeyName;
  5. unsigned long seed1 = 0x7FED7FED;
  6. unsigned long seed2 = 0xEEEEEEEE;
  7. int ch;
  8. while( *key != 0 )
  9. {
  10. ch = *key++;
  11. seed1 = cryptTable[(dwHashType<<8) + ch] ^ (seed1 + seed2);
  12. seed2 = ch + seed1 + seed2 + (seed2<<5) + 3;
  13. }
  14. return seed1;
  15. }

Blizzard的这个算法是非常高效的,被称为"One-Way Hash"( A one-way hash is a an algorithm that is constructed in such a way that deriving the original string (set of strings, actually) is virtually impossible)。举个例子,字符串"unitneutralacritter.grp"通过这个算法得到的结果是0xA26067F3。
 是不是把第一个算法改进一下,改成逐个比较字符串的Hash值就可以了呢,答案是,远远不够,要想得到最快的算法,就不能进行逐个的比较,通常是构造一个哈希表(Hash Table)来解决问题,哈希表是一个大数组,这个数组的容量根据程序的要求来定义,
     例如1024,每一个Hash值通过取模运算 (mod) 对应到数组中的一个位置,这样,只要比较这个字符串的哈希值对应的位置有没有被占用,就可以得到最后的结果了,想想这是什么速度?是的,是最快的O(1),现在仔细看看这个算法吧:

  1. typedef struct
  2. {
  3. int nHashA;
  4. int nHashB;
  5. char bExists;
  6. ......
  7. } SOMESTRUCTRUE;
  8. //一种可能的结构体定义?
  1. typedef struct
  2. {
  3. int nHashA;
  4. int nHashB;
  5. char bExists;
  6. ......
  7. } SOMESTRUCTRUE;
  8. //一种可能的结构体定义?

函数GetHashTablePos下述函数为在Hash表中查找是否存在目标字符串,有则返回要查找字符串的Hash值,无则,return -1.

  1. //函数GetHashTablePos下述函数为在Hash表中查找是否存在目标字符串,有则返回要查找字符串的Hash值,无则,return -1.
  2. int GetHashTablePos( har *lpszString, SOMESTRUCTURE *lpTable )
  3. //lpszString要在Hash表中查找的字符串,lpTable为存储字符串Hash值的Hash表。
  4. {
  5. int nHash = HashString(lpszString);  //调用上述函数HashString,返回要查找字符串lpszString的Hash值。
  6. int nHashPos = nHash % nTableSize;
  7. if ( lpTable[nHashPos].bExists  &&  !strcmp( lpTable[nHashPos].pString, lpszString ) )
  8. {  //如果找到的Hash值在表中存在,且要查找的字符串与表中对应位置的字符串相同,
  9. return nHashPos;    //返回找到的Hash值
  10. }
  11. else
  12. {
  13. return -1;
  14. }
  15. }
  1. //函数GetHashTablePos下述函数为在Hash表中查找是否存在目标字符串,有则返回要查找字符串的Hash值,无则,return -1.
  2. int GetHashTablePos( har *lpszString, SOMESTRUCTURE *lpTable )
  3. //lpszString要在Hash表中查找的字符串,lpTable为存储字符串Hash值的Hash表。
  4. {
  5. int nHash = HashString(lpszString);  //调用上述函数HashString,返回要查找字符串lpszString的Hash值。
  6. int nHashPos = nHash % nTableSize;
  7. if ( lpTable[nHashPos].bExists  &&  !strcmp( lpTable[nHashPos].pString, lpszString ) )
  8. {  //如果找到的Hash值在表中存在,且要查找的字符串与表中对应位置的字符串相同,
  9. return nHashPos;    //返回找到的Hash值
  10. }
  11. else
  12. {
  13. return -1;
  14. }
  15. }

看到此,我想大家都在想一个很严重的问题:“如果两个字符串在哈希表中对应的位置相同怎么办?”,毕竟一个数组容量是有限的,这种可能性很大。解决该问题的方法很多,我首先想到的就是用“链表”,感谢大学里学的数据结构教会了这个百试百灵的法宝,我遇到的很多算法都可以转化成链表来解决,只要在哈希表的每个入口挂一个链表,保存所有对应的字符串就OK了。事情到此似乎有了完美的结局,如果是把问题独自交给我解决,此时我可能就要开始定义数据结构然后写代码了。
    然而Blizzard的程序员使用的方法则是更精妙的方法。基本原理就是:他们在哈希表中不是用一个哈希值而是用三个哈希值来校验字符串。”

“MPQ使用文件名哈希表来跟踪内部的所有文件。但是这个表的格式与正常的哈希表有一些不同。首先,它没有使用哈希作为下标,把实际的文件名存储在表中用于验证,实际上它根本就没有存储文件名。而是使用了3种不同的哈希:一个用于哈希表的下标,两个用于验证。这两个验证哈希替代了实际文件名。
    当然了,这样仍然会出现2个不同的文件名哈希到3个同样的哈希。但是这种情况发生的概率平均是:1:18889465931478580854784,这个概率对于任何人来说应该都是足够小的。现在再回到数据结构上,Blizzard使用的哈希表没有使用链表,而采用"顺延"的方式来解决问题。”下面,咱们来看看这个网上流传甚广的暴雪hash算法:
    函数GetHashTablePos中,lpszString 为要在hash表中查找的字符串;lpTable 为存储字符串hash值的hash表;nTableSize 为hash表的长度:

  1. //函数GetHashTablePos中,lpszString 为要在hash表中查找的字符串;lpTable 为存储字符串hash值的hash表;nTableSize 为hash表的长度:
  2. int GetHashTablePos( char *lpszString, MPQHASHTABLE *lpTable, int nTableSize )
  3. {
  4. const int  HASH_OFFSET = 0, HASH_A = 1, HASH_B = 2;
  5. int  nHash = HashString( lpszString, HASH_OFFSET );
  6. int  nHashA = HashString( lpszString, HASH_A );
  7. int  nHashB = HashString( lpszString, HASH_B );
  8. int  nHashStart = nHash % nTableSize;
  9. int  nHashPos = nHashStart;
  10. while ( lpTable[nHashPos].bExists )
  11. {
  12. //     如果仅仅是判断在该表中时候存在这个字符串,就比较这两个hash值就可以了,不用对结构体中的字符串进行比较。
  13. //         这样会加快运行的速度?减少hash表占用的空间?这种方法一般应用在什么场合?
  14. if (   lpTable[nHashPos].nHashA == nHashA
  15. &&  lpTable[nHashPos].nHashB == nHashB )
  16. {
  17. return nHashPos;
  18. }
  19. else
  20. {
  21. nHashPos = (nHashPos + 1) % nTableSize;
  22. }
  23. if (nHashPos == nHashStart)
  24. break;
  25. }
  26. return -1;
  27. }
  1. //函数GetHashTablePos中,lpszString 为要在hash表中查找的字符串;lpTable 为存储字符串hash值的hash表;nTableSize 为hash表的长度:
  2. int GetHashTablePos( char *lpszString, MPQHASHTABLE *lpTable, int nTableSize )
  3. {
  4. const int  HASH_OFFSET = 0, HASH_A = 1, HASH_B = 2;
  5. int  nHash = HashString( lpszString, HASH_OFFSET );
  6. int  nHashA = HashString( lpszString, HASH_A );
  7. int  nHashB = HashString( lpszString, HASH_B );
  8. int  nHashStart = nHash % nTableSize;
  9. int  nHashPos = nHashStart;
  10. while ( lpTable[nHashPos].bExists )
  11. {
  12. //     如果仅仅是判断在该表中时候存在这个字符串,就比较这两个hash值就可以了,不用对结构体中的字符串进行比较。
  13. //         这样会加快运行的速度?减少hash表占用的空间?这种方法一般应用在什么场合?
  14. if (   lpTable[nHashPos].nHashA == nHashA
  15. &&  lpTable[nHashPos].nHashB == nHashB )
  16. {
  17. return nHashPos;
  18. }
  19. else
  20. {
  21. nHashPos = (nHashPos + 1) % nTableSize;
  22. }
  23. if (nHashPos == nHashStart)
  24. break;
  25. }
  26. return -1;
  27. }

上述程序解释:

  1. 计算出字符串的三个哈希值(一个用来确定位置,另外两个用来校验)
  2. 察看哈希表中的这个位置
  3. 哈希表中这个位置为空吗?如果为空,则肯定该字符串不存在,返回-1。
  4. 如果存在,则检查其他两个哈希值是否也匹配,如果匹配,则表示找到了该字符串,返回其Hash值。
  5. 移到下一个位置,如果已经移到了表的末尾,则反绕到表的开始位置起继续查询 
  6. 看看是不是又回到了原来的位置,如果是,则返回没找到
  7. 回到3。

24.4、不重复Hash编码

有了上面的暴雪Hash算法。咱们的问题便可解决了。不过,有两点必须先提醒读者:1、Hash表起初要初始化;2、暴雪的Hash算法对于查询那样处理可以,但对插入就不能那么解决。

关键主体代码如下:

  1. //函数prepareCryptTable以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]
  2. void prepareCryptTable()
  3. {
  4. unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
  5. for( index1 = 0; index1 <0x100; index1++ )
  6. {
  7. for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100)
  8. {
  9. unsigned long temp1, temp2;
  10. seed = (seed * 125 + 3) % 0x2AAAAB;
  11. temp1 = (seed & 0xFFFF)<<0x10;
  12. seed = (seed * 125 + 3) % 0x2AAAAB;
  13. temp2 = (seed & 0xFFFF);
  14. cryptTable[index2] = ( temp1 | temp2 );
  15. }
  16. }
  17. }
  18. //函数HashString以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,
  19. unsigned long HashString(const char *lpszkeyName, unsigned long dwHashType )
  20. {
  21. unsigned char *key  = (unsigned char *)lpszkeyName;
  22. unsigned long seed1 = 0x7FED7FED;
  23. unsigned long seed2 = 0xEEEEEEEE;
  24. int ch;
  25. while( *key != 0 )
  26. {
  27. ch = *key++;
  28. seed1 = cryptTable[(dwHashType<<8) + ch] ^ (seed1 + seed2);
  29. seed2 = ch + seed1 + seed2 + (seed2<<5) + 3;
  30. }
  31. return seed1;
  32. }
  33. /////////////////////////////////////////////////////////////////////
  34. //function: 哈希词典 编码
  35. //parameter:
  36. //author: lei.zhou
  37. //time: 2011-12-14
  38. /////////////////////////////////////////////////////////////////////
  39. MPQHASHTABLE TestHashTable[nTableSize];
  40. int TestHashCTable[nTableSize];
  41. int TestHashDTable[nTableSize];
  42. key_list test_data[nTableSize];
  43. //直接调用上面的hashstring,nHashPos就是对应的HASH值。
  44. int insert_string(const char *string_in)
  45. {
  46. const int HASH_OFFSET = 0, HASH_C = 1, HASH_D = 2;
  47. unsigned int nHash = HashString(string_in, HASH_OFFSET);
  48. unsigned int nHashC = HashString(string_in, HASH_C);
  49. unsigned int nHashD = HashString(string_in, HASH_D);
  50. unsigned int nHashStart = nHash % nTableSize;
  51. unsigned int nHashPos = nHashStart;
  52. int ln, ires = 0;
  53. while (TestHashTable[nHashPos].bExists)
  54. {
  55. //      if (TestHashCTable[nHashPos]  == (int) nHashC && TestHashDTable[nHashPos] == (int) nHashD)
  56. //          break;
  57. //      //...
  58. //      else
  59. //如之前所提示读者的那般,暴雪的Hash算法对于查询那样处理可以,但对插入就不能那么解决
  60. nHashPos = (nHashPos + 1) % nTableSize;
  61. if (nHashPos == nHashStart)
  62. break;
  63. }
  64. ln = strlen(string_in);
  65. if (!TestHashTable[nHashPos].bExists && (ln < nMaxStrLen))
  66. {
  67. TestHashCTable[nHashPos] = nHashC;
  68. TestHashDTable[nHashPos] = nHashD;
  69. test_data[nHashPos] = (KEYNODE *) malloc (sizeof(KEYNODE) * 1);
  70. if(test_data[nHashPos] == NULL)
  71. {
  72. printf("10000 EMS ERROR !!!!\n");
  73. return 0;
  74. }
  75. test_data[nHashPos]->pkey = (char *)malloc(ln+1);
  76. if(test_data[nHashPos]->pkey == NULL)
  77. {
  78. printf("10000 EMS ERROR !!!!\n");
  79. return 0;
  80. }
  81. memset(test_data[nHashPos]->pkey, 0, ln+1);
  82. strncpy(test_data[nHashPos]->pkey, string_in, ln);
  83. *((test_data[nHashPos]->pkey)+ln) = 0;
  84. test_data[nHashPos]->weight = nHashPos;
  85. TestHashTable[nHashPos].bExists = 1;
  86. }
  87. else
  88. {
  89. if(TestHashTable[nHashPos].bExists)
  90. printf("30000 in the hash table %s !!!\n", string_in);
  91. else
  92. printf("90000 strkey error !!!\n");
  93. }
  94. return nHashPos;
  95. }
  1. //函数prepareCryptTable以下的函数生成一个长度为0x500(合10进制数:1280)的cryptTable[0x500]
  2. void prepareCryptTable()
  3. {
  4. unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
  5. for( index1 = 0; index1 <0x100; index1++ )
  6. {
  7. for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100)
  8. {
  9. unsigned long temp1, temp2;
  10. seed = (seed * 125 + 3) % 0x2AAAAB;
  11. temp1 = (seed & 0xFFFF)<<0x10;
  12. seed = (seed * 125 + 3) % 0x2AAAAB;
  13. temp2 = (seed & 0xFFFF);
  14. cryptTable[index2] = ( temp1 | temp2 );
  15. }
  16. }
  17. }
  18. //函数HashString以下函数计算lpszFileName 字符串的hash值,其中dwHashType 为hash的类型,
  19. unsigned long HashString(const char *lpszkeyName, unsigned long dwHashType )
  20. {
  21. unsigned char *key  = (unsigned char *)lpszkeyName;
  22. unsigned long seed1 = 0x7FED7FED;
  23. unsigned long seed2 = 0xEEEEEEEE;
  24. int ch;
  25. while( *key != 0 )
  26. {
  27. ch = *key++;
  28. seed1 = cryptTable[(dwHashType<<8) + ch] ^ (seed1 + seed2);
  29. seed2 = ch + seed1 + seed2 + (seed2<<5) + 3;
  30. }
  31. return seed1;
  32. }
  33. /////////////////////////////////////////////////////////////////////
  34. //function: 哈希词典 编码
  35. //parameter:
  36. //author: lei.zhou
  37. //time: 2011-12-14
  38. /////////////////////////////////////////////////////////////////////
  39. MPQHASHTABLE TestHashTable[nTableSize];
  40. int TestHashCTable[nTableSize];
  41. int TestHashDTable[nTableSize];
  42. key_list test_data[nTableSize];
  43. //直接调用上面的hashstring,nHashPos就是对应的HASH值。
  44. int insert_string(const char *string_in)
  45. {
  46. const int HASH_OFFSET = 0, HASH_C = 1, HASH_D = 2;
  47. unsigned int nHash = HashString(string_in, HASH_OFFSET);
  48. unsigned int nHashC = HashString(string_in, HASH_C);
  49. unsigned int nHashD = HashString(string_in, HASH_D);
  50. unsigned int nHashStart = nHash % nTableSize;
  51. unsigned int nHashPos = nHashStart;
  52. int ln, ires = 0;
  53. while (TestHashTable[nHashPos].bExists)
  54. {
  55. //      if (TestHashCTable[nHashPos]  == (int) nHashC && TestHashDTable[nHashPos] == (int) nHashD)
  56. //          break;
  57. //      //...
  58. //      else
  59. //如之前所提示读者的那般,暴雪的Hash算法对于查询那样处理可以,但对插入就不能那么解决
  60. nHashPos = (nHashPos + 1) % nTableSize;
  61. if (nHashPos == nHashStart)
  62. break;
  63. }
  64. ln = strlen(string_in);
  65. if (!TestHashTable[nHashPos].bExists && (ln < nMaxStrLen))
  66. {
  67. TestHashCTable[nHashPos] = nHashC;
  68. TestHashDTable[nHashPos] = nHashD;
  69. test_data[nHashPos] = (KEYNODE *) malloc (sizeof(KEYNODE) * 1);
  70. if(test_data[nHashPos] == NULL)
  71. {
  72. printf("10000 EMS ERROR !!!!\n");
  73. return 0;
  74. }
  75. test_data[nHashPos]->pkey = (char *)malloc(ln+1);
  76. if(test_data[nHashPos]->pkey == NULL)
  77. {
  78. printf("10000 EMS ERROR !!!!\n");
  79. return 0;
  80. }
  81. memset(test_data[nHashPos]->pkey, 0, ln+1);
  82. strncpy(test_data[nHashPos]->pkey, string_in, ln);
  83. *((test_data[nHashPos]->pkey)+ln) = 0;
  84. test_data[nHashPos]->weight = nHashPos;
  85. TestHashTable[nHashPos].bExists = 1;
  86. }
  87. else
  88. {
  89. if(TestHashTable[nHashPos].bExists)
  90. printf("30000 in the hash table %s !!!\n", string_in);
  91. else
  92. printf("90000 strkey error !!!\n");
  93. }
  94. return nHashPos;
  95. }

接下来要读取索引文件big_index对其中的关键词进行编码(为了简单起见,直接一行一行扫描读写,没有跳过行数了):

  1. void bigIndex_hash(const char *docpath, const char *hashpath)
  2. {
  3. FILE *fr, *fw;
  4. int len;
  5. char *pbuf, *p;
  6. char dockey[TERM_MAX_LENG];
  7. if(docpath == NULL || *docpath == '\0')
  8. return;
  9. if(hashpath == NULL || *hashpath == '\0')
  10. return;
  11. fr = fopen(docpath, "rb");  //读取文件docpath
  12. fw = fopen(hashpath, "wb");
  13. if(fr == NULL || fw == NULL)
  14. {
  15. printf("open read or write file error!\n");
  16. return;
  17. }
  18. pbuf = (char*)malloc(BUFF_MAX_LENG);
  19. if(pbuf == NULL)
  20. {
  21. fclose(fr);
  22. return ;
  23. }
  24. memset(pbuf, 0, BUFF_MAX_LENG);
  25. while(fgets(pbuf, BUFF_MAX_LENG, fr))
  26. {
  27. len = GetRealString(pbuf);
  28. if(len <= 1)
  29. continue;
  30. p = strstr(pbuf, "#####");
  31. if(p != NULL)
  32. continue;
  33. p = strstr(pbuf, "  ");
  34. if (p == NULL)
  35. {
  36. printf("file contents error!");
  37. }
  38. len = p - pbuf;
  39. dockey[0] = 0;
  40. strncpy(dockey, pbuf, len);
  41. dockey[len] = 0;
  42. int num = insert_string(dockey);
  43. dockey[len] = ' ';
  44. dockey[len+1] = '\0';
  45. char str[20];
  46. itoa(num, str, 10);
  47. strcat(dockey, str);
  48. dockey[len+strlen(str)+1] = '\0';
  49. fprintf (fw, "%s\n", dockey);
  50. }
  51. free(pbuf);
  52. fclose(fr);
  53. fclose(fw);
  54. }
  1. void bigIndex_hash(const char *docpath, const char *hashpath)
  2. {
  3. FILE *fr, *fw;
  4. int len;
  5. char *pbuf, *p;
  6. char dockey[TERM_MAX_LENG];
  7. if(docpath == NULL || *docpath == '\0')
  8. return;
  9. if(hashpath == NULL || *hashpath == '\0')
  10. return;
  11. fr = fopen(docpath, "rb");  //读取文件docpath
  12. fw = fopen(hashpath, "wb");
  13. if(fr == NULL || fw == NULL)
  14. {
  15. printf("open read or write file error!\n");
  16. return;
  17. }
  18. pbuf = (char*)malloc(BUFF_MAX_LENG);
  19. if(pbuf == NULL)
  20. {
  21. fclose(fr);
  22. return ;
  23. }
  24. memset(pbuf, 0, BUFF_MAX_LENG);
  25. while(fgets(pbuf, BUFF_MAX_LENG, fr))
  26. {
  27. len = GetRealString(pbuf);
  28. if(len <= 1)
  29. continue;
  30. p = strstr(pbuf, "#####");
  31. if(p != NULL)
  32. continue;
  33. p = strstr(pbuf, "  ");
  34. if (p == NULL)
  35. {
  36. printf("file contents error!");
  37. }
  38. len = p - pbuf;
  39. dockey[0] = 0;
  40. strncpy(dockey, pbuf, len);
  41. dockey[len] = 0;
  42. int num = insert_string(dockey);
  43. dockey[len] = ' ';
  44. dockey[len+1] = '\0';
  45. char str[20];
  46. itoa(num, str, 10);
  47. strcat(dockey, str);
  48. dockey[len+strlen(str)+1] = '\0';
  49. fprintf (fw, "%s\n", dockey);
  50. }
  51. free(pbuf);
  52. fclose(fr);
  53. fclose(fw);
  54. }

主函数已经很简单了,如下:

  1. int main()
  2. {
  3. prepareCryptTable();  //Hash表起初要初始化
  4. //现在要把整个big_index文件插入hash表,以取得编码结果
  5. bigIndex_hash("big_index.txt", "hashpath.txt");
  6. system("pause");
  7. return 0;
  8. }
  1. int main()
  2. {
  3. prepareCryptTable();  //Hash表起初要初始化
  4. //现在要把整个big_index文件插入hash表,以取得编码结果
  5. bigIndex_hash("big_index.txt", "hashpath.txt");
  6. system("pause");
  7. return 0;
  8. }

程序运行后生成的hashpath.txt文件如下:

十一、从头到尾彻底解析Hash 表算法

如上所示,采取暴雪的Hash算法并在插入的时候做适当处理,当再次对上文中的索引文件big_index进行Hash编码后,冲突问题已经得到初步解决。当然,还有待更进一步更深入的测试。

后续添上数目索引1~10000...

后来又为上述文件中的关键词编了码一个计数的内码,不过,奇怪的是,同样的代码,在Dev C++ 与VS2010上运行结果却不同(左边dev上计数从"1"开始,VS上计数从“1994014002”开始),如下图所示:

十一、从头到尾彻底解析Hash 表算法

在上面的bigIndex_hashcode函数的基础上,修改如下,即可得到上面的效果:

  1. void bigIndex_hashcode(const char *in_file_path, const char *out_file_path)
  2. {
  3. FILE *fr, *fw;
  4. int len, value;
  5. char *pbuf, *pleft, *p;
  6. char keyvalue[TERM_MAX_LENG], str[WORD_MAX_LENG];
  7. if(in_file_path == NULL || *in_file_path == '\0') {
  8. printf("input file path error!\n");
  9. return;
  10. }
  11. if(out_file_path == NULL || *out_file_path == '\0') {
  12. printf("output file path error!\n");
  13. return;
  14. }
  15. fr = fopen(in_file_path, "r");  //读取in_file_path路径文件
  16. fw = fopen(out_file_path, "w");
  17. if(fr == NULL || fw == NULL)
  18. {
  19. printf("open read or write file error!\n");
  20. return;
  21. }
  22. pbuf = (char*)malloc(BUFF_MAX_LENG);
  23. pleft = (char*)malloc(BUFF_MAX_LENG);
  24. if(pbuf == NULL || pleft == NULL)
  25. {
  26. printf("allocate memory error!");
  27. fclose(fr);
  28. return ;
  29. }
  30. memset(pbuf, 0, BUFF_MAX_LENG);
  31. int offset = 1;
  32. while(fgets(pbuf, BUFF_MAX_LENG, fr))
  33. {
  34. if (--offset > 0)
  35. continue;
  36. if(GetRealString(pbuf) <= 1)
  37. continue;
  38. p = strstr(pbuf, "#####");
  39. if(p != NULL)
  40. continue;
  41. p = strstr(pbuf, "  ");
  42. if (p == NULL)
  43. {
  44. printf("file contents error!");
  45. }
  46. len = p - pbuf;
  47. // 确定跳过行数
  48. strcpy(pleft, p+1);
  49. offset = atoi(pleft) + 1;
  50. strncpy(keyvalue, pbuf, len);
  51. keyvalue[len] = '\0';
  52. value = insert_string(keyvalue);
  53. if (value != -1) {
  54. // key value中插入空格
  55. keyvalue[len] = ' ';
  56. keyvalue[len+1] = '\0';
  57. itoa(value, str, 10);
  58. strcat(keyvalue, str);
  59. keyvalue[len+strlen(str)+1] = ' ';
  60. keyvalue[len+strlen(str)+2] = '\0';
  61. keysize++;
  62. itoa(keysize, str, 10);
  63. strcat(keyvalue, str);
  64. // 将key value写入文件
  65. fprintf (fw, "%s\n", keyvalue);
  66. }
  67. }
  68. free(pbuf);
  69. fclose(fr);
  70. fclose(fw);
  71. }
  1. void bigIndex_hashcode(const char *in_file_path, const char *out_file_path)
  2. {
  3. FILE *fr, *fw;
  4. int len, value;
  5. char *pbuf, *pleft, *p;
  6. char keyvalue[TERM_MAX_LENG], str[WORD_MAX_LENG];
  7. if(in_file_path == NULL || *in_file_path == '\0') {
  8. printf("input file path error!\n");
  9. return;
  10. }
  11. if(out_file_path == NULL || *out_file_path == '\0') {
  12. printf("output file path error!\n");
  13. return;
  14. }
  15. fr = fopen(in_file_path, "r");  //读取in_file_path路径文件
  16. fw = fopen(out_file_path, "w");
  17. if(fr == NULL || fw == NULL)
  18. {
  19. printf("open read or write file error!\n");
  20. return;
  21. }
  22. pbuf = (char*)malloc(BUFF_MAX_LENG);
  23. pleft = (char*)malloc(BUFF_MAX_LENG);
  24. if(pbuf == NULL || pleft == NULL)
  25. {
  26. printf("allocate memory error!");
  27. fclose(fr);
  28. return ;
  29. }
  30. memset(pbuf, 0, BUFF_MAX_LENG);
  31. int offset = 1;
  32. while(fgets(pbuf, BUFF_MAX_LENG, fr))
  33. {
  34. if (--offset > 0)
  35. continue;
  36. if(GetRealString(pbuf) <= 1)
  37. continue;
  38. p = strstr(pbuf, "#####");
  39. if(p != NULL)
  40. continue;
  41. p = strstr(pbuf, "  ");
  42. if (p == NULL)
  43. {
  44. printf("file contents error!");
  45. }
  46. len = p - pbuf;
  47. // 确定跳过行数
  48. strcpy(pleft, p+1);
  49. offset = atoi(pleft) + 1;
  50. strncpy(keyvalue, pbuf, len);
  51. keyvalue[len] = '\0';
  52. value = insert_string(keyvalue);
  53. if (value != -1) {
  54. // key value中插入空格
  55. keyvalue[len] = ' ';
  56. keyvalue[len+1] = '\0';
  57. itoa(value, str, 10);
  58. strcat(keyvalue, str);
  59. keyvalue[len+strlen(str)+1] = ' ';
  60. keyvalue[len+strlen(str)+2] = '\0';
  61. keysize++;
  62. itoa(keysize, str, 10);
  63. strcat(keyvalue, str);
  64. // 将key value写入文件
  65. fprintf (fw, "%s\n", keyvalue);
  66. }
  67. }
  68. free(pbuf);
  69. fclose(fr);
  70. fclose(fw);
  71. }

小结

本文有一点值得一提的是,在此前的这篇文章(十一、从头到尾彻底解析Hash表算法)之中,只是对Hash表及暴雪的Hash算法有过学习和了解,但尚未真正运用过它,而今在本章中体现,证明还是之前写的文章,及之前对Hash表等算法的学习还是有一定作用的。同时,也顺便对暴雪的Hash函数算是做了个测试,其的确能解决一般的冲突性问题,创造这个算法的人不简单呐。

后记

    再次感谢老大xiaoqi,以及艺术室内朋友xiaolin,555,yansha的指导。没有他们的帮助,我将寸步难行。日后,自己博客内的文章要经常回顾,好好体会。同时,写作本文时,刚接触倒排索引等相关问题不久,若有任何问题,欢迎随时交流或批评指正。谢谢。完。