MK
摩柯社区 - 一个极简的技术知识社区
AI 面试

Java HashSet的哈希冲突处理

2023-11-254.4k 阅读

Java HashSet 基础概述

在 Java 集合框架中,HashSet 是一个非常常用的集合类,它实现了 Set 接口,用于存储不重复的元素。HashSet 内部是基于 HashMap 实现的,其核心特点在于它利用哈希表来存储和检索元素,从而提供了高效的插入、删除和查找操作。

当我们向 HashSet 中添加元素时,HashSet 会首先计算该元素的哈希码(通过调用元素的 hashCode() 方法),然后根据这个哈希码决定元素在哈希表中的存储位置。理想情况下,不同元素的哈希码不同,这样每个元素都能直接被存储到哈希表的不同位置,查找时也能快速定位。然而,在实际应用中,由于哈希码的计算是基于有限的整数范围(Java 中 hashCode() 方法返回 int 类型,范围是 -21474836482147483647),而可能的元素数量理论上是无限的,所以不可避免地会出现不同元素计算出相同哈希码的情况,这就是所谓的哈希冲突。

哈希冲突的本质

哈希冲突的产生根源在于哈希函数的设计。哈希函数的目标是将不同的输入映射到不同的输出值(哈希码),但由于输出值的范围是有限的,而输入值的范围往往是无限的或者非常大,所以必然会存在多个不同的输入映射到同一个输出的情况。

以简单的哈希函数为例,假设我们有一个哈希函数 h(x) = x % 10,它将整数 x 映射到 09 之间的一个值。如果我们有两个整数 1222,计算它们的哈希值:

int hash1 = 12 % 10; // 结果为 2
int hash2 = 22 % 10; // 结果也为 2

可以看到,不同的输入 1222 得到了相同的哈希值 2,这就产生了哈希冲突。

Java HashSet 中,哈希冲突的处理机制直接影响到 HashSet 的性能和功能。如果哈希冲突处理不当,可能会导致 HashSet 的插入、删除和查找操作的时间复杂度从理想的 O(1) 退化为接近 O(n),其中 n 是集合中元素的数量。

Java HashSet 处理哈希冲突的方法

Java HashSet 基于 HashMap,而 HashMap 使用链地址法(又称拉链法)来处理哈希冲突。

链地址法原理

链地址法的核心思想是,当发生哈希冲突时,将冲突的元素存储在一个链表中。具体到 Java HashSet 的实现,当两个或多个元素计算出相同的哈希码时,这些元素会被存储在哈希表数组的同一个位置(桶)上,形成一个链表。

HashMap 的源码中,哈希表是一个 Node 类型的数组 tableNode 类包含了元素的键值对(在 HashSet 中只关心键,值为一个固定的 PRESENT 对象)以及指向下一个 Node 的引用,从而形成链表结构。

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    V value;
    Node<K,V> next;
    Node(int hash, K key, V value, Node<K,V> next) {
        this.hash = hash;
        this.key = key;
        this.value = value;
        this.next = next;
    }
    // 省略其他方法
}

当向 HashSet 中添加元素时,HashSet 首先计算元素的哈希码,然后根据哈希码找到哈希表数组中的对应位置(桶)。如果该位置为空,就直接将元素插入到该位置;如果该位置已经有元素(即发生了哈希冲突),则将新元素添加到该位置的链表末尾。

代码示例

下面通过一段简单的代码来演示 HashSet 中哈希冲突的情况以及链地址法的处理方式。

import java.util.HashSet;

public class HashSetCollisionExample {
    public static void main(String[] args) {
        HashSet<Student> studentSet = new HashSet<>();

        Student student1 = new Student("Alice", 20);
        Student student2 = new Student("Bob", 22);
        Student student3 = new Student("Charlie", 20);

        studentSet.add(student1);
        studentSet.add(student2);
        studentSet.add(student3);

        System.out.println("HashSet size: " + studentSet.size());
    }
}

class Student {
    private String name;
    private int age;

    public Student(String name, int age) {
        this.name = name;
        this.age = age;
    }

    @Override
    public int hashCode() {
        // 简单的哈希码计算,这里会导致哈希冲突
        return age;
    }

    @Override
    public boolean equals(Object obj) {
        if (this == obj) return true;
        if (obj == null || getClass() != obj.getClass()) return false;
        Student student = (Student) obj;
        return age == student.age && name.equals(student.name);
    }
}

在上述代码中,Student 类重写了 hashCode() 方法,简单地将 age 作为哈希码返回。这样,student1student3 虽然是不同的对象,但由于年龄相同,它们的哈希码也相同,会发生哈希冲突。

当我们向 HashSet 中添加这三个学生对象时,HashSet 会使用链地址法来处理哈希冲突。student1student3 会被存储在哈希表数组的同一个位置上,形成一个链表。

运行上述代码,输出结果为:

HashSet size: 3

这表明 HashSet 成功处理了哈希冲突,并且正确地存储了不重复的元素。

哈希冲突对性能的影响

哈希冲突对 HashSet 的性能有着显著的影响。在理想情况下,没有哈希冲突时,HashSet 的插入、删除和查找操作的时间复杂度均为 O(1),因为可以直接根据哈希码定位到元素在哈希表中的位置。

然而,当哈希冲突频繁发生时,哈希表中的链表会变得越来越长。例如,假设哈希表的大小为 m,而元素数量为 n,平均每个链表的长度为 n / m(负载因子)。随着链表长度的增加,插入、删除和查找操作的时间复杂度会逐渐接近 O(n),因为在最坏情况下,需要遍历整个链表才能找到目标元素。

为了减少哈希冲突对性能的影响,Java HashSet 采取了一些措施。

负载因子与扩容机制

Java HashSet 中有一个重要的概念叫做负载因子(load factor)。负载因子是指哈希表中已占用的桶的数量与哈希表总桶数的比值。默认情况下,HashSet 的负载因子为 0.75

HashSet 中的元素数量达到 容量 * 负载因子 时,就会触发扩容操作。扩容操作会创建一个新的、更大的哈希表,并将原哈希表中的所有元素重新计算哈希码并插入到新的哈希表中。

扩容机制原理

扩容机制的核心目的是通过增加哈希表的容量来减少哈希冲突的发生频率。当哈希表的负载因子超过一定阈值(默认 0.75)时,意味着哈希表中的元素过于密集,哈希冲突的可能性大大增加。此时,通过扩容,将哈希表的容量翻倍(实际上是新容量为原容量的 2 倍),可以重新分布元素,降低每个桶中链表的长度,从而提高 HashSet 的性能。

HashMap 的源码中,扩容操作由 resize() 方法实现。该方法会创建一个新的 Node 数组,其容量为原数组的两倍,然后遍历原数组中的每个桶,将桶中的链表元素重新计算哈希码并插入到新数组的相应位置。

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null)? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) {
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY? (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

代码示例

下面的代码展示了 HashSet 的扩容过程。

import java.util.HashSet;

public class HashSetResizeExample {
    public static void main(String[] args) {
        HashSet<Integer> set = new HashSet<>();
        int initialCapacity = 16; // 默认初始容量
        float loadFactor = 0.75f; // 默认负载因子
        int threshold = (int) (initialCapacity * loadFactor);

        for (int i = 0; i < threshold + 1; i++) {
            set.add(i);
            if (set.size() == threshold + 1) {
                System.out.println("After adding " + (i + 1) + " elements, HashSet capacity should be doubled.");
                System.out.println("Current size: " + set.size());
                System.out.println("Expected capacity: " + (initialCapacity * 2));
                // 这里通过反射获取哈希表的容量,实际应用中不建议这样做,仅为演示
                try {
                    java.lang.reflect.Field tableField = set.getClass().getDeclaredField("map");
                    tableField.setAccessible(true);
                    Object map = tableField.get(set);
                    java.lang.reflect.Field tableField2 = map.getClass().getDeclaredField("table");
                    tableField2.setAccessible(true);
                    Object[] table = (Object[]) tableField2.get(map);
                    System.out.println("Actual capacity: " + table.length);
                } catch (NoSuchFieldException | IllegalAccessException e) {
                    e.printStackTrace();
                }
            }
        }
    }
}

在上述代码中,我们向 HashSet 中不断添加元素,当添加的元素数量达到 初始容量 * 负载因子 时,HashSet 会进行扩容。通过反射获取 HashSet 内部哈希表的容量,我们可以验证扩容操作是否正确执行。

运行上述代码,输出结果类似如下:

After adding 13 elements, HashSet capacity should be doubled.
Current size: 13
Expected capacity: 32
Actual capacity: 32

这表明当 HashSet 的元素数量达到负载因子阈值时,成功进行了扩容,容量翻倍。

优化哈希函数以减少冲突

除了负载因子和扩容机制外,优化哈希函数也是减少哈希冲突的重要手段。一个好的哈希函数应该尽可能地将不同的元素映射到不同的哈希码,从而降低哈希冲突的概率。

Java 中,Object 类提供了默认的 hashCode() 方法,但其实现对于大多数自定义类来说并不理想,因为它只是基于对象的内存地址生成哈希码。对于自定义类,我们应该根据类的属性重写 hashCode() 方法,以生成更均匀分布的哈希码。

重写 hashCode() 方法的原则

  1. 一致性:对于同一个对象,多次调用 hashCode() 方法应该返回相同的值,前提是对象的状态没有发生改变。
  2. 与 equals() 方法的关联性:如果两个对象通过 equals() 方法比较相等,那么它们的 hashCode() 方法返回的值也必须相等。反之,如果两个对象的 hashCode() 方法返回的值相等,它们不一定通过 equals() 方法比较相等(因为可能存在哈希冲突)。
  3. 均匀分布:尽量使不同的对象产生不同的哈希码,以减少哈希冲突。

代码示例

下面以一个自定义的 Point 类为例,展示如何重写 hashCode() 方法。

public class Point {
    private int x;
    private int y;

    public Point(int x, int y) {
        this.x = x;
        this.y = y;
    }

    @Override
    public int hashCode() {
        int result = 17;
        result = 31 * result + x;
        result = 31 * result + y;
        return result;
    }

    @Override
    public boolean equals(Object obj) {
        if (this == obj) return true;
        if (obj == null || getClass() != obj.getClass()) return false;
        Point point = (Point) obj;
        return x == point.x && y == point.y;
    }
}

在上述代码中,Point 类重写了 hashCode() 方法。首先,将一个初始值 17 赋给 result,然后通过 31 * result + 属性值 的方式逐步计算哈希码。这里使用 31 是因为 31 是一个奇质数,并且 31 * i = (i << 5) - i,可以利用位运算提高计算效率。这样的计算方式可以使不同的 Point 对象生成的哈希码更均匀地分布,减少哈希冲突的发生。

总结哈希冲突处理的重要性

哈希冲突处理在 Java HashSet 中至关重要,它直接关系到 HashSet 的性能和功能。通过链地址法、负载因子与扩容机制以及优化哈希函数等手段,Java HashSet 能够有效地处理哈希冲突,保持高效的插入、删除和查找操作。

在实际开发中,我们应该根据具体的应用场景合理设置 HashSet 的初始容量和负载因子,并且为自定义类提供合适的 hashCode() 方法,以确保 HashSet 在面对大量数据时依然能够保持良好的性能。同时,了解 HashSet 处理哈希冲突的内部机制,也有助于我们更好地理解和优化基于哈希表的其他数据结构和算法。

通过深入理解 Java HashSet 的哈希冲突处理机制,开发者能够在编写代码时更加游刃有余,充分发挥 HashSet 的优势,避免因哈希冲突而导致的性能问题。无论是在小型应用还是大型系统中,对哈希冲突处理的掌握都是提升程序性能和稳定性的重要一环。

哈希冲突与并发访问

在多线程环境下,HashSet 的哈希冲突处理会面临新的挑战。由于 HashSet 本身不是线程安全的,如果多个线程同时对 HashSet 进行插入、删除等操作,可能会导致数据不一致或哈希表结构损坏等问题,进而影响哈希冲突的正常处理。

例如,当一个线程在遍历哈希表中的链表进行查找操作时,另一个线程可能同时对该链表进行插入或删除操作,这可能导致查找线程遍历到已经删除的节点,或者错过新插入的节点。

为了在多线程环境下安全地使用 HashSet,可以采取以下几种方式:

使用 Collections.synchronizedSet 包装

Java 提供了 Collections.synchronizedSet 方法,可以将一个普通的 Set(包括 HashSet)包装成线程安全的 Set。该方法返回的 Set 会对所有的操作进行同步,确保在同一时间只有一个线程能够访问 Set

import java.util.Collections;
import java.util.HashSet;
import java.util.Set;

public class SynchronizedHashSetExample {
    public static void main(String[] args) {
        Set<Integer> hashSet = new HashSet<>();
        Set<Integer> synchronizedSet = Collections.synchronizedSet(hashSet);

        Thread thread1 = new Thread(() -> {
            for (int i = 0; i < 1000; i++) {
                synchronizedSet.add(i);
            }
        });

        Thread thread2 = new Thread(() -> {
            for (int i = 1000; i < 2000; i++) {
                synchronizedSet.add(i);
            }
        });

        thread1.start();
        thread2.start();

        try {
            thread1.join();
            thread2.join();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }

        System.out.println("Synchronized HashSet size: " + synchronizedSet.size());
    }
}

在上述代码中,我们使用 Collections.synchronizedSet 包装了 HashSet,然后在两个线程中同时向该 Set 中添加元素。由于 synchronizedSet 对操作进行了同步,所以不会出现数据不一致的问题。

使用 ConcurrentHashMap 实现线程安全的 Set

ConcurrentHashMapJava 中线程安全的哈希表实现。虽然它主要用于 Map 结构,但我们可以利用它来实现一个线程安全的 Set

import java.util.concurrent.ConcurrentHashMap;

public class ConcurrentHashSetExample {
    private static class ConcurrentHashSet<E> {
        private final ConcurrentHashMap<E, Boolean> map;

        public ConcurrentHashSet() {
            map = new ConcurrentHashMap<>();
        }

        public boolean add(E e) {
            return map.putIfAbsent(e, true) == null;
        }

        public boolean remove(E e) {
            return map.remove(e) != null;
        }

        public int size() {
            return map.size();
        }
    }

    public static void main(String[] args) {
        ConcurrentHashSet<Integer> concurrentHashSet = new ConcurrentHashSet<>();

        Thread thread1 = new Thread(() -> {
            for (int i = 0; i < 1000; i++) {
                concurrentHashSet.add(i);
            }
        });

        Thread thread2 = new Thread(() -> {
            for (int i = 1000; i < 2000; i++) {
                concurrentHashSet.add(i);
            }
        });

        thread1.start();
        thread2.start();

        try {
            thread1.join();
            thread2.join();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }

        System.out.println("ConcurrentHashSet size: " + concurrentHashSet.size());
    }
}

在上述代码中,我们自定义了一个 ConcurrentHashSet 类,内部使用 ConcurrentHashMap 来存储元素。通过 putIfAbsent 方法来实现添加操作,确保元素的唯一性。在多线程环境下,ConcurrentHashMap 能够高效地处理并发访问,同时保证哈希冲突的处理不受多线程干扰。

哈希冲突处理与大数据场景

在大数据场景下,HashSet 的哈希冲突处理面临着更大的挑战。随着数据量的急剧增加,哈希冲突的概率也会显著上升,这可能导致哈希表的性能严重下降。

为了应对大数据场景下的哈希冲突问题,可以考虑以下几种策略:

动态调整负载因子

在大数据场景下,可以根据数据的增长趋势动态调整负载因子。例如,当数据量较小时,可以适当提高负载因子,以减少内存的使用;当数据量逐渐增大时,降低负载因子,提前进行扩容操作,以避免哈希冲突过于严重。

import java.util.HashSet;

public class DynamicLoadFactorHashSetExample {
    public static void main(String[] args) {
        int initialCapacity = 16;
        float loadFactor = 0.75f;
        HashSet<Integer> set = new HashSet<>(initialCapacity, loadFactor);

        for (int i = 0; i < 1000000; i++) {
            if (set.size() > set.capacity() * loadFactor * 0.8) {
                loadFactor = loadFactor * 0.9f;
                set = new HashSet<>(set.capacity() * 2, loadFactor);
                set.addAll(set);
            }
            set.add(i);
        }

        System.out.println("HashSet size: " + set.size());
    }
}

在上述代码中,我们根据 HashSet 的当前大小和容量动态调整负载因子,并在合适的时候进行扩容操作。这样可以在大数据量下更好地控制哈希冲突,提高 HashSet 的性能。

使用分布式哈希表(DHT)

分布式哈希表是一种分布式系统中用于存储和检索数据的技术。在大数据场景下,可以将数据分布在多个节点上,每个节点维护一个局部的哈希表。通过特定的哈希算法将数据映射到不同的节点上,从而减少单个哈希表的负载,降低哈希冲突的概率。

常见的分布式哈希表算法有 Chord、CAN 等。这些算法通过巧妙的设计,能够在大规模网络环境下高效地处理数据的存储和检索,同时有效地处理哈希冲突。

例如,在 Chord 算法中,节点和键值通过哈希函数映射到一个环形空间中。当需要查找某个键值时,首先计算键值的哈希值,然后在环上查找对应的节点。如果发生哈希冲突(多个键值映射到同一个节点),则通过环上的其他节点进行转发,最终找到目标数据。

虽然分布式哈希表的实现较为复杂,但在大数据和分布式系统中,它能够提供高可扩展性和高性能,有效地应对哈希冲突问题。

哈希冲突处理与内存管理

哈希冲突处理还与内存管理密切相关。在 HashSet 中,当发生哈希冲突时,链地址法会使用链表来存储冲突的元素,这会占用额外的内存空间。随着哈希冲突的增加,链表的长度可能会不断增长,从而消耗更多的内存。

此外,HashSet 的扩容操作也会涉及内存的重新分配和数据的复制,这在一定程度上也会影响内存的使用效率。

为了优化内存管理,可以考虑以下几点:

合理设置初始容量

在创建 HashSet 时,根据数据量的预估合理设置初始容量。如果初始容量设置过小,可能会导致频繁的扩容操作,增加内存开销;如果初始容量设置过大,又会浪费内存空间。

例如,如果预估数据量为 1000 个元素,并且希望负载因子保持在默认的 0.75,可以计算出合适的初始容量:

int estimatedSize = 1000;
float loadFactor = 0.75f;
int initialCapacity = (int) (estimatedSize / loadFactor) + 1;
HashSet<Integer> set = new HashSet<>(initialCapacity);

及时清理无效数据

当从 HashSet 中删除元素时,要确保链表中的节点能够被垃圾回收机制及时回收。在 Java 中,只要没有强引用指向链表节点,垃圾回收器会在合适的时候回收这些节点所占用的内存。

例如,在以下代码中:

import java.util.HashSet;

public class HashSetMemoryCleanupExample {
    public static void main(String[] args) {
        HashSet<LargeObject> set = new HashSet<>();
        set.add(new LargeObject());
        set.remove(set.iterator().next());
        // 此时,LargeObject 对象不再被强引用,垃圾回收器会在合适的时候回收其内存
    }
}

class LargeObject {
    private byte[] data = new byte[1024 * 1024]; // 占用 1MB 内存
}

通过及时删除不再需要的元素,可以避免无效数据占用过多的内存空间。

哈希冲突处理与应用场景

HashSet 的哈希冲突处理机制在各种应用场景中都有着重要的作用。

数据去重

在数据处理中,经常需要对数据进行去重操作。HashSet 利用其哈希冲突处理机制能够高效地实现数据去重。例如,在处理日志文件中的 IP 地址时,可能会有大量重复的 IP 地址。通过将 IP 地址添加到 HashSet 中,可以快速地获取唯一的 IP 地址集合。

import java.util.HashSet;
import java.util.Set;

public class IPAddressDeduplicationExample {
    public static void main(String[] args) {
        String[] ipAddresses = {
            "192.168.1.1", "10.0.0.1", "192.168.1.1", "172.16.0.1", "10.0.0.1"
        };

        Set<String> uniqueIPs = new HashSet<>();
        for (String ip : ipAddresses) {
            uniqueIPs.add(ip);
        }

        System.out.println("Unique IP addresses: " + uniqueIPs);
    }
}

快速查找

在需要快速判断某个元素是否存在的场景中,HashSet 也非常适用。例如,在拼写检查程序中,可以将所有正确的单词存储在 HashSet 中。当检查一个单词是否拼写正确时,只需在 HashSet 中查找该单词,利用哈希冲突处理机制,能够在较短的时间内得出结果。

import java.util.HashSet;
import java.util.Set;

public class SpellCheckExample {
    public static void main(String[] args) {
        Set<String> dictionary = new HashSet<>();
        dictionary.add("apple");
        dictionary.add("banana");
        dictionary.add("cherry");

        String wordToCheck = "banana";
        if (dictionary.contains(wordToCheck)) {
            System.out.println(wordToCheck + " is a valid word.");
        } else {
            System.out.println(wordToCheck + " is not a valid word.");
        }
    }
}

图算法中的应用

在图算法中,HashSet 可以用于存储图的节点或边,以避免重复。例如,在深度优先搜索(DFS)或广度优先搜索(BFS)算法中,使用 HashSet 来记录已经访问过的节点,能够有效地防止重复访问,提高算法的效率。

import java.util.HashSet;
import java.util.Set;

class Graph {
    private int vertices;
    private HashSet<Integer>[] adjacencyList;

    Graph(int vertices) {
        this.vertices = vertices;
        adjacencyList = new HashSet[vertices];
        for (int i = 0; i < vertices; i++) {
            adjacencyList[i] = new HashSet<>();
        }
    }

    void addEdge(int source, int destination) {
        adjacencyList[source].add(destination);
        adjacencyList[destination].add(source);
    }

    void dfs(int start) {
        boolean[] visited = new boolean[vertices];
        dfsUtil(start, visited);
    }

    private void dfsUtil(int vertex, boolean[] visited) {
        visited[vertex] = true;
        System.out.print(vertex + " ");

        Set<Integer> neighbors = adjacencyList[vertex];
        for (int neighbor : neighbors) {
            if (!visited[neighbor]) {
                dfsUtil(neighbor, visited);
            }
        }
    }
}

public class GraphDFSExample {
    public static void main(String[] args) {
        Graph graph = new Graph(4);
        graph.addEdge(0, 1);
        graph.addEdge(0, 2);
        graph.addEdge(1, 2);
        graph.addEdge(2, 0);
        graph.addEdge(2, 3);
        graph.addEdge(3, 3);

        System.out.println("Depth First Traversal starting from vertex 2:");
        graph.dfs(2);
    }
}

在上述代码中,HashSet 用于存储图的邻接表,有效地处理了边的唯一性问题,同时在 DFS 算法中,利用 HashSet 记录访问过的节点,确保每个节点只被访问一次。

通过以上对 Java HashSet 哈希冲突处理的深入探讨,我们全面了解了其原理、实现方式、性能优化以及在不同场景下的应用。无论是在小型程序还是大型系统中,合理处理哈希冲突对于提高程序的效率和稳定性都具有重要意义。