java:从 map到hashmap 的一步步实现!-亚博电竞手机版
一、 map
1.1 map 接口
在 java 中, map 提供了键——值的映射关系。映射不能包含重复的键,并且每个键只能映射到一个值。
以 map 键——值映射为基础,java.util 提供了 hashmap(最常用)、 treemap、hashtble、linkedhashmap 等数据结构。
衍生的几种 map 的主要特点:
hashmap:最常用的数据结构。键和值之间通过 hash函数 来实现映射关系。当进行遍历的 key 是无序的
treemap:使用红黑树构建的数据结构,因为红黑树的原理,可以很自然的对 key 进行排序,所以 treemap 的 key 遍历时是默认按照自然顺序(升序)排列的。
linkedhashmap: 保存了插入的顺序。遍历得到的记录是按照插入顺序的。
1.2 hash 散列函数
hash (散列函数)是把任意长度的输入通过散列算法变换成固定长度的输出。hash 函数的返回值也称为 哈希值 哈希码 摘要或哈希。hash作用如下图所示:
hash 函数可以通过选取适当的函数,可以在时间和空间上取得较好平衡。
解决 hash 的两种方式:拉链法和线性探测法
1.3 键值关系的实现
interface entry<k,v>
在 hashmap 中基于链表的实现
static class node<k,v> implements map.entry<k,v> {
final int hash;
final k key;
v value;
node next;
node(int hash, k key, v value, node next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
用树的方式实现:
static final class treenode<k,v> extends linkedhashmap.entry<k,v> {
treenode parent; // red-black tree links
treenode left;
treenode right;
treenode prev; // needed to unlink next upon deletion
boolean red;
treenode(int hash, k key, v val, node next) {
super(hash, key, val, next);
}
1.4 map 约定的 api
1.4.1 map 中约定的基础 api
基础的增删改查:
int size(); // 返回大小
boolean isempty(); // 是否为空
boolean containskey(object key); // 是否包含某个键
boolean containsvalue(object value); // 是否包含某个值
v get(object key); // 获取某个键对应的值
v put(k key, v value); // 存入的数据
v remove(object key); // 移除某个键
void putall(map m); //将将另一个集插入该集合中
void clear(); // 清除
set keyset() ; //获取 map的所有的键返回为 set集合
collection values() ; //将所有的值返回为 collection 集合
set> entryset(); // 将键值对映射为 map.entry,内部类 entry 实现了映射关系的实现。并且返回所有键值映射为 set 集合。
boolean equals(object o);
int hashcode(); // 返回 hash 值
default boolean replace(k key, v oldvalue, v newvalue); // 替代操作
default v replace(k key, v value);
1.4.2 map 约定的较为高级的 api
default v getordefault(object key, v defaultvalue); //当获取失败时,用 defaultvalue 替代。
default void foreach(biconsumersuper k, ? super v> action) // 可用 lambda 表达式进行更快捷的遍历
default void replaceall(bifunctionsuper k, ? super v, ? extends v> function);
default v putifabsent(k key, v value);
default v computeifabsent(k key,
functionsuper k, ? extends v> mappingfunction);
default v computeifpresent(k key,
bifunctionsuper k, ? super v, ? extends v> remappingfunction);
default v compute(k key,
bifunctionsuper k, ? super v, ? extends v> remappingfunction)
default v merge(k key, v value,
bifunctionsuper v, ? super v, ? extends v> remappingfunction)
1.4.3 map 高级 api 的使用
getordefault() 当这个通过 key获取值,对应的 key 或者值不存在时返回默认值,避免在使用过程中 null 出现,避免程序异常。
foreach() 传入 biconsumer 函数式接口,表达的含义其实和 consumer 一样,都 accept 拥有方法,只是 biconsumer 多了一个 andthen() 方法,接收一个biconsumer接口,先执行本接口的,再执行传入的参数的 accept 方法。
map map = new hashmap<>();
map.put("a", "1");
map.put("b", "2");
map.put("c", "3");
map.put("d", "4");
map.foreach((k, v) -> {
system.out.println(k "-" v);
});
}
更多的函数用法:
https://www.cnblogs.com/king0/p/runoob.com/java/java-hashmap.html
1.5 从 map 走向 hashmap
hashmap 是 map的一个实现类,也是 map 最常用的实现类。
1.5.1 hashmap 的继承关系
public class hashmap<k,v> extends abstractmap<k,v>
implements map<k,v>, cloneable, serializable
在 hashmap 的实现过程中,解决 hash冲突的方法是拉链法。因此从原理来说 hashmap 的实现就是 数组 链表(数组保存链表的入口)。当链表过长,为了优化查询速率,hashmap 将链表转化为红黑树(数组保存树的根节点),使得查询速率为 log(n),而不是链表的 o(n)。
二、hashmap
/*
* @author doug lea
* @author josh bloch
* @author arthur van hoff
* @author neal gafter
* @see object#hashcode()
* @see collection
* @see map
* @see treemap
* @see hashtable
* @since 1.2
*/
首先 hashmap 由 doug lea 和 josh bloch 两位大师的参与。同时 java 的 collections 集合体系,并发框架 doug lea 也做出了不少贡献。
2.1 基本原理
对于一个插入操作,首先将键通过 hash 函数转化为数组的下标。若该数组为空,直接创建节点放入数组中。若该数组下标存在节点,即 hash 冲突,使用拉链法,生成一个链表插入。
引用图片来自 https://blog.csdn.net/woshimaxiao1/article/details/83661464
如果存在 hash 冲突,使用拉链法插入,我们可以在这个链表的头部插入,也可以在链表的尾部插入,所以在 jdk 1.7 中使用了头部插入的方法,jdk 1.8 后续的版本中使用尾插法。
jdk 1.7 使用头部插入的可能依据是最近插入的数据是最常用的,但是头插法带来的问题之一,在多线程会链表的复制会出现死循环。所以 jdk 1.8 之后采用的尾部插入的方法。关于这点,可以看:java8之后,hashmap链表插入方式->为何要从头插入改为尾插入
在 hashmap 中,前面说到的 数组 链表 的数组的定义
transient node[] table;
链表的定义:
static class node<k,v> implements map.entry<k,v>
2.1.2 提供的构造函数
public hashmap() { // 空参
this.loadfactor = default_load_factor; // all other fields defaulted
}
public hashmap(int initialcapacity) { //带有初始大小的,一般情况下,我们需要规划好 hashmap 使用的大小,因为对于一次扩容操作,代价是非常的大的
this(initialcapacity, default_load_factor);
}
public hashmap(int initialcapacity, float loadfactor); // 可以自定义负载因子 public hashmap(int initialcapacity, float loadfactor); // 可以自定义负载因子
三个构造函数,都没有完全的初始化 hashmap,当我们第一次插入数据时,才进行堆内存的分配,这样提高了代码的响应速度。
2.2 hashmap 中的 hash函数定义
static final int hash(object key) {
int h;
return (key == null) ? 0 : (h = key.hashcode()) ^ (h >>> 16); // 将 h 高 16 位和低 16 位 进行异或操作。
}
// 采用 异或的原因:两个进行位运算,在与或异或中只有异或到的 0 和 1 的概率是相同的,而&和|都会使得结果偏向0或者1。
这里可以看到,map 的键可以为 null,且 hash 是一个特定的值 0。
hash 的目的是获取数组 table 的下标。hash 函数的目标就是将数据均匀的分布在 table 中。
让我们先看看如何通过 hash 值得到对应的数组下标。第一种方法:hash%table.length()。但是除法操作在 cpu 中执行比加法、减法、乘法慢的多,效率低下。第二种方法 table[(table.length - 1) & hash] 一个与操作一个减法,仍然比除法快。这里的约束条件为 table.length = 2^n。
table.length =16
table.length -1 = 15 1111 1111
//任何一个数与之与操作,获取到这个数的低 8 位,其他位为 0
上面的例子可以让我们获取到对应的下标,而 (h = key.hashcode()) ^ (h >>> 16)
让高 16 也参与运算,让数据充分利用,一般情况下 table 的索引不会超过 216,所以高位的信息我们就直接抛弃了,^ (h >>> 16)
让我们在数据量较少的情况下,也可以使用高位的信息。如果 table 的索引超过 216, hashcode() 的高 16 为 和 16 个 0 做异或得到的 hash 也是公平的。
2.3 hashmap 的插入操作
上面我们已经知道如果通过 hash 获取到 对应的 table 下标,因此我们将对应的节点加入到链表就完成了一个 map 的映射,的确 jdk1.7 中的 hashmap 实现就是这样。让我们看一看 jdk 为实现现实的 put 操作。
定位到 put() 操作。
public v put(k key, v value) {
return putval(hash(key), key, value, false, true);
}
可以看到 put 操作交给了 putval 来进行通用的实现。
final v putval(int hash, k key, v value, boolean onlyifabsent, boolean evict);
//onlyifabsent 如果当前位置已存在一个值,是否替换,false是替换,true是不替换
evict // 钩子函数的参数,linkedhashmap 中使用到,hashmap 中无意义。
2.3.1 putval 的流程分析
其实 putval() 流程的函数非常的明了。这里挑了几个关键步骤来引导。
是否第一次插入,true 调用 resizer() 进行调整,其实此时 resizer() 是进行完整的初始化,之后直接赋值给对应索引的位置。
if ((tab = table) == null || (n = tab.length) == 0) // 第一次 put 操作, tab 没有分配内存,通过 redize() 方法分配内存,开始工作。
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newnode(hash, key, value, null);
如果链表已经转化为树,则使用树的插入。
else if (p instanceof treenode)
e = ((treenode)p).puttreeval(this, tab, hash, key, value);
用遍历的方式遍历每个 node,如果遇到键相同,或者到达尾节点的next 指针将数据插入,记录节点位置退出循环。若插入后链表长度为 8 则调用 treeifybin() 是否进行树的转化 。
for (int bincount = 0; ; bincount) {
if ((e = p.next) == null) {
p.next = newnode(hash, key, value, null);
if (bincount >= treeify_threshold - 1) // -1 for 1st
treeifybin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
对键重复的操作:更新后返回旧值,同时还取决于onlyifabsent,普通操作中一般为 true,可以忽略。
if (e != null) { // existing mapping for key
v oldvalue = e.value;
if (!onlyifabsent || oldvalue == null)
e.value = value;
afternodeaccess(e); //钩子函数,进行后续其他操作,hashmap中为空,无任何操作。
return oldvalue;
}
~
modcount;
if ( size > threshold)
resize();
afternodeinsertion(evict);
return null;
后续的数据维护。
2.3.2 modcount 的含义
fail-fast 机制是java集合(collection)中的一种错误机制。当多个线程对同一个集合的内容进行操作时,就可能会产生fail-fast事件。例如:当某一个线程a通过iterator去遍历某集合的过程中,若该集合的内容被其他线程所改变了;那么线程a访问集合时,就会抛出concurrentmodificationexception异常,产生fail-fast事件。一种多线程错误检查的方式,减少异常的发生。
一般情况下,多线程环境 我们使用 concurrenthashmap
来代替 hashmap。
2.4 resize() 函数
hashmap 扩容的特点:默认的table 表的大小事 16,threshold 为 12。负载因子 loadfactor .75,这些都是可以构造是更改。以后扩容都是 2 倍的方式增加。
至于为何是0.75 代码的注释中也写了原因,对 hash函数构建了泊松分布模型,进行了分析。
2.4.1 hashmap 预定义的一些参数
static final int default_initial_capacity = 1 << 4; // aka 16 hashmap 的默认大小。 为什么使用 1 <<4
static final int maximum_capacity = 1 << 30; // 最大容量
static final float default_load_factor = 0.75f; // 加载因子,扩容使用
static final int untreeify_threshold = 6;// 树结构转化为链表的阈值
static final int treeify_threshold = 8; // 链表转化为树结构的阈值
static final int min_treeify_capacity = 64; // 链表转变成树之前,还会有一次判断,只有数组长度大于 64 才会发生转换。这是为了避免在哈希表建立初期,多个键值对恰好被放入了同一个链表中而导致不必要的转化。
// 定义的有关变量
int threshold; // threshold表示当hashmap的size大于threshold时会执行resize操作
这些变量都是和 hashmap 的扩容机制有关,将会在下文中用到。
2.4.2 resize() 方法解析
node[] oldtab = table;
int oldcap = (oldtab == null) ? 0 : oldtab.length;
int oldthr = threshold;
int newcap, newthr = 0; // 定义了 旧表长度、旧表阈值、新表长度、新表阈值
if (oldcap > 0) { // 插入过数据,参数不是初始化的
if (oldcap >= maximum_capacity) { // 如果旧的表长度大于 1 << 30;
threshold = integer.max_value; // threshold 设置 integer 的最大值。也就是说我们可以插入 integer.max_value 个数据
return oldtab; // 直接返回旧表的长度,因为表的下标索引无法扩大了。
}
else if ((newcap = oldcap << 1) < maximum_capacity && //
oldcap >= default_initial_capacity) //新表的长度为旧表的长度的 2 倍。
newthr = oldthr << 1; // double threshold 新表的阈值为同时为旧表的两倍
}
else if (oldthr > 0) // public hashmap(int initialcapacity, float loadfactor) 中的 this.threshold = tablesizefor(initialcapacity); 给正确的位置
newcap = oldthr;
else { // zero initial threshold signifies using defaults ,如果调用了其他两个构造函数,则下面代码初始化。因为他们都没有对其 threshold 设置,默认为 0,
newcap = default_initial_capacity;
newthr = (int)(default_load_factor * default_initial_capacity);
}
if (newthr == 0) { // 修正 threshold,例如上面的 else if (oldthr > 0) 部分就没有设置。
float ft = (float)newcap * loadfactor;
newthr = (newcap < maximum_capacity && ft < (float)maximum_capacity ?
(int)ft : integer.max_value);
}
threshold = newthr;
@suppresswarnings({"rawtypes","unchecked"})
当一些参数设置正确后便开始扩容。
node[] newtab = (node[])new node[newcap];
当扩容完毕之后,自然就是将原表中的数据搬到新的表中。下面代码完成了该任务。
if (oldtab != null) {
for (int j = 0; j < oldcap; j) {
....
}
}
如何正确的,快速的扩容调整每个键值节点对应的下标?第一种方法:遍历节点再使用 put() 加入一遍,这种方法实现,但是效率低下。第二种,我们手动组装好链表,加入到相应的位置。显然第二种比第一种高效,因为第一种 put() 还存在其他不属于这种情况的判断,例如重复键的判断等。
练手项目,学习强化,点击这里
所以 jdk 1.8 也使用了第二种方法。我们可以继续使用e.hash & (newcap - 1)
找到对应的下标位置,对于旧的链表,执行e.hash & (newcap - 1)
操作,只能产生两个不同的索引。一个保持原来的索引不变,另一个变为 原来索引 oldcap(因为 newcap 的加入产生导致索引的位数多了 1 位,即就是最左边的一个,且该位此时结果为 1,所以相当于 原来索引 oldcap)。所以可以使用 if ((e.hash & oldcap) == 0)
来确定出索引是否来变化。
因此这样我们就可以将原来的链表拆分为两个新的链表,然后加入到对应的位置。为了高效,我们手动的组装好链表再存储到相应的下标位置上。
oldcap = 16
newcap = 32
hash : 0001 1011
oldcap-1 : 0000 1111
结果为 : 0000 1011 对应的索引的 11
-------------------------
e.hash & oldcap 则定于 1,则需要进行调整索引
oldcap = 16
hash : 0001 1011
newcap-1 : 0001 1111
结果为 : 0001 1011
相当于 1011 1 0000 原来索引 newcap
for (int j = 0; j < oldcap; j) // 处理每个链表
特殊条件处理
node e;
if ((e = oldtab[j]) != null) {
oldtab[j] = null;
if (e.next == null) // 该 链表只有一个节点,那么直接复制到对应的位置,下标由 e.hash & (newcap - 1) 确定
newtab[e.hash & (newcap - 1)] = e;
else if (e instanceof treenode) // 若是 树,该给树的处理程序
((treenode)e).split(this, newtab, j, oldcap);
普通情况处理:
else { // preserve order
node lohead = null, lotail = null; // 构建原来索引位置 的链表,需要的指针
node hihead = null, hitail = null; // 构建 原来索引 oldcap 位置 的链表需要的指针
node next;
do {
next = e.next;
if ((e.hash & oldcap) == 0) {
if (lotail == null)
lohead = e;
else
lotail.next = e;
lotail = e;
}
else {
if (hitail == null)
hihead = e;
else
hitail.next = e;
hitail = e;
}
} while ((e = next) != null); // 将原来的链表划分两个链表
if (lotail != null) { // 将链表写入到相应的位置
lotail.next = null;
newtab[j] = lohead;
}
if (hitail != null) {
hitail.next = null;
newtab[j oldcap] = hihead;
}
}
到此 resize() 方法的逻辑完成了。总的来说 resizer() 完成了 hashmap 完整的初始化,分配内存和后续的扩容维护工作。
2.5 remove 解析
public v remove(object key) {
node e;
return (e = removenode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
将 remove 删除工作交给内部函数 removenode() 来实现。
final node removenode(int hash, object key, object value,
boolean matchvalue, boolean movable) {
node[] tab; node p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) { // 获取索引,
node node = null, e; k k; v v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k)))) // 判断索引处的值是不是想要的结果
node = p;
else if ((e = p.next) != null) { // 交给树的查找算法
if (p instanceof treenode)
node = ((treenode)p).gettreenode(hash, key);
else {
do { // 遍历查找
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchvalue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof treenode) //树的删除
((treenode)node).removetreenode(this, tab, movable);
else if (node == p) // 修复链表,链表的删除操作
tab[index] = node.next;
else
p.next = node.next;
modcount;
--size;
afternoderemoval(node);
return node;
}
}
return null;
}
三、 hashmap 从链表到红黑树的转变
如果链表的长度(冲突的节点数)已经达到8个,此时会调用 treeifybin() ,treeifybin() 首先判断当前hashmap 的 table的长度,如果不足64,只进行resize,扩容table,如果达到64,那么将冲突的存储结构为红黑树。在源码还有这样的一个字段。
static final int untreeify_threshold = 6;
// 这样表明了从红黑树转化为链表的阈值为 6,为何同样不是 8 那?
//如果插入和删除都在 8 附近,将多二者相互转化将浪费大量的时间,对其性能影响。
//如果是的二者转化的操作不平衡,偏向一方,则可以避免此类影响。
3.1 红黑树的数据结构
static final class treenode<k,v> extends linkedhashmap.entry<k,v> {
treenode parent; // red-black tree links
treenode left;
treenode right;
treenode prev; // 删除后需要取消链接,指向前一个节点(原链表中的前一个节点)
boolean red;
}
因为 继承了 linkedhashmap.entry
static class node<k,v> implements map.entry<k,v> {
final int hash;
final k key;
v value;
node next;
node(int hash, k key, v value, node next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
}
3.2 承上启下的 treeifybin()
treeifybin() 决定了一个链表何时转化为一个红黑树。treeifybin() 有两种格式:
final void treeifybin(node[] tab, int hash) ;
final void treeify(node[] tab) ;
final void treeifybin(node[] tab, int hash) { // 简单的 node 修改为 treenode,同时维护了 prev 属性。
int n, index; node e;
if (tab == null || (n = tab.length) < min_treeify_capacity)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
treenode hd = null, tl = null;
do {
treenode p = replacementtreenode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab); // 真正生成红黑树的
}
}
treenode replacementtreenode(node p, node next) {
return new treenode<>(p.hash, p.key, p.value, next);
} // 实现 node 链表节点到 treenode 节点的转化。
下面函数真正实现了链表的红黑树的转变。首先构建一个标准查询二叉树,然后在标准查询二叉树然后调整为一个红黑树。而 balanceinsertion() 实现了调整。
/**
* forms tree of the nodes linked from this node.
*/
final void treeify(node[] tab) {
treenode root = null;
for (treenode x = this, next; x != null; x = next) {
next = (treenode)x.next;
x.left = x.right = null;
if (root == null) { // 第一次转化过程,将链表的头节点作为根节点。
x.parent = null;
x.red = false; // 红黑树的定义 根节点必须为黑色
root = x;
}
else {
k k = x.key;
int h = x.hash;
class kc = null;
for (treenode p = root;;) {
int dir, ph;
k pk = p.key;
if ((ph = p.hash) > h) //// 通过 hash 的大小来确定插入顺序
dir = -1; // dir 大小顺序的标识
else if (ph < h)
dir = 1;
else if ((kc == null && //当 两个 hash 的值相同,进行特殊的方法,确定大小。
(kc = comparableclassfor(k)) == null) || // returns x's class if it is of the form "class c implements comparable ", else null. 如果 key类的 源码书写格式为 c implement comparable 那么返回该类类型 c, 如果间接实现也不行。 如果是 string 类型,直接返回 string.class
(dir = comparecomparables(kc, k, pk)) == 0) // ((comparable)k).compareto(pk)); 强制转换后进行对比,若 dir == 0,则 tiebreakorder(),继续仲裁
dir = tiebreakorder(k, pk); // 首先通过二者的类类型进行比较,如果相等的话,使用 (system.identityhashcode(a) <= system.identityhashcode(b) 使用原始的 hashcode,不是重写的在对比。
treenode xp = p; // 遍历的,上一个节点
if ((p = (dir <= 0) ? p.left : p.right) == null) { //通过 dir,将 p 向下查找,直到 p 为 null,找到一个插入时机
x.parent = xp;
if (dir <= 0)
xp.left = x;
else
xp.right = x;
root = balanceinsertion(root, x); //进行二叉树的调整
break;
}
}
}
}
moveroottofront(tab, root);
}
3.3 将一个二叉树转化为红黑树的操作-balanceinsertion()
当红黑树中新增节点的时候需要调用balanceinsertion方法来保证红黑树的特性。
如果想要了解红黑树的插入过程那么必须对红黑树的性质有一个较为清晰的了解。
红黑树的性质:
每个结点或是红色的,或是黑色的
根节点是黑色的
每个叶结点(nil)是黑色的
如果一个节点是红色的,则它的两个儿子都是黑色的。
对于每个结点,从该结点到其叶子结点构成的所有路径上的黑结点个数相同。
static treenode balanceinsertion(treenode root,
treenode x) {
x.red = true; // 插入的子节点必须为 red
for (treenode xp, xpp, xppl, xppr;;) { //// x 当前处理节点 xp父节点 xpp祖父节点 xppl祖父左节点 xppr 祖父右节点
if ((xp = x.parent) == null) { // 如果 当前处理节点为根节点,满足红黑树的性质,结束循环
x.red = false;
return x;
}
else if (!xp.red || (xpp = xp.parent) == null)
return root;
if (xp == (xppl = xpp.left)) {
if ((xppr = xpp.right) != null && xppr.red) {
xppr.red = false;
xp.red = false;
xpp.red = true;
x = xpp;
}
else {
if (x == xp.right) {
root = rotateleft(root, x = xp);
xpp = (xp = x.parent) == null ? null : xp.parent;
}
if (xp != null) {
xp.red = false;
if (xpp != null) {
xpp.red = true;
root = rotateright(root, xpp);
}
}
}
}
else {
if (xppl != null && xppl.red) {
xppl.red = false;
xp.red = false;
xpp.red = true;
x = xpp;
}
else {
if (x == xp.left) {
root = rotateright(root, x = xp);
xpp = (xp = x.parent) == null ? null : xp.parent;
}
if (xp != null) {
xp.red = false;
if (xpp != null) {
xpp.red = true;
root = rotateleft(root, xpp);
}
}
}
}
}
}
treenode 红黑树总结
treenode 完整的实现了一套红黑树的增删改查的规则。实现参考了《算法导论》
/* ------------------------------------------------------------ */
// red-black tree methods, all adapted from clr
这里推荐一个红黑树动画演示网站 https://rbtree.phpisfuture.com/
红黑树是一个不严格的平衡二叉查找树,高度近似 log(n)。
四、hashmap 的扩展
map中 key 有一个性质,就是 key 不能重复,而 java set 的含义:集合中不能有重复的元素。hashmap 的实现已经足够的优秀。那么我们是否可以用 key 的性质来实现 set ?的确 jdk 中的 hashset 就是这样做的。
public class hashset<e>
extends abstractset<e>
implements set<e>, cloneable, java.io.serializable
{
private transient hashmap map;
// dummy value to associate with an object in the backing map
private static final object present = new object();
}
present
就是存进 map 中的 value,而 key 正是 set 语义的实现。而且可以判断出 hashset 中是允许存入 null 值的。