LRU算法详解

一、什么是 LRU 算法

就是一种缓存淘汰策略。

计算机的缓存容量有限,如果缓存满了就要删除一些内容,给新内容腾位置。但问题是,删除哪些内容呢?我们肯定希望删掉哪些没什么用的缓存,而把有用的数据继续留在缓存里,方便之后继续使用。那么,什么样的数据,我们判定为「有用的」的数据呢?

LRU 缓存淘汰算法就是一种常用策略。LRU 的全称是 Least Recently Used,也就是说我们认为最近使用过的数据应该是是「有用的」,很久都没用过的数据应该是无用的,内存满了就优先删那些很久没用过的数据。

举个简单的例子,安卓手机都可以把软件放到后台运行,比如我先后打开了「设置」「手机管家」「日历」,那么现在他们在后台排列的顺序是这样的:

jietu

但是这时候如果我访问了一下「设置」界面,那么「设置」就会被提前到第一个,变成这样:

jietu

假设我的手机只允许我同时开 3 个应用程序,现在已经满了。那么如果我新开了一个应用「时钟」,就必须关闭一个应用为「时钟」腾出一个位置,关那个呢?

按照 LRU 的策略,就关最底下的「手机管家」,因为那是最久未使用的,然后把新开的应用放到最上面:

jietu

现在你应该理解 LRU(Least Recently Used)策略了。当然还有其他缓存淘汰策略,比如不要按访问的时序来淘汰,而是按访问频率(LFU 策略)来淘汰等等,各有应用场景。本文讲解 LRU 算法策略。

二、LRU 算法描述

LRU 算法实际上是让你设计数据结构:首先要接收一个 capacity 参数作为缓存的最大容量,然后实现两个 API,一个是 put(key, val) 方法存入键值对,另一个是 get(key) 方法获取 key 对应的 val,如果 key 不存在则返回 -1。

注意哦,get 和 put 方法必须都是 $O(1)$ 的时间复杂度,我们举个具体例子来看看 LRU 算法怎么工作。

  1. /* 缓存容量为 2 */
  2. LRUCache cache = new LRUCache(2);
  3. // 你可以把 cache 理解成一个队列
  4. // 假设左边是队头,右边是队尾
  5. // 最近使用的排在队头,久未使用的排在队尾
  6. // 圆括号表示键值对 (key, val)
  7. cache.put(1, 1);
  8. // cache = [(1, 1)]
  9. cache.put(2, 2);
  10. // cache = [(2, 2), (1, 1)]
  11. cache.get(1); // 返回 1
  12. // cache = [(1, 1), (2, 2)]
  13. // 解释:因为最近访问了键 1,所以提前至队头
  14. // 返回键 1 对应的值 1
  15. cache.put(3, 3);
  16. // cache = [(3, 3), (1, 1)]
  17. // 解释:缓存容量已满,需要删除内容空出位置
  18. // 优先删除久未使用的数据,也就是队尾的数据
  19. // 然后把新的数据插入队头
  20. cache.get(2); // 返回 -1 (未找到)
  21. // cache = [(3, 3), (1, 1)]
  22. // 解释:cache 中不存在键为 2 的数据
  23. cache.put(1, 4);
  24. // cache = [(1, 4), (3, 3)]
  25. // 解释:键 1 已存在,把原始值 1 覆盖为 4
  26. // 不要忘了也要将键值对提前到队头

三、LRU 算法设计

分析上面的操作过程,要让 put 和 get 方法的时间复杂度为 O(1),我们可以总结出 cache 这个数据结构必要的条件:查找快,插入快,删除快,有顺序之分。

因为显然 cache 必须有顺序之分,以区分最近使用的和久未使用的数据;而且我们要在 cache 中查找键是否已存在;如果容量满了要删除最后一个数据;每次访问还要把数据插入到队头。

那么,什么数据结构同时符合上述条件呢?哈希表查找快,但是数据无固定顺序;链表有顺序之分,插入删除快,但是查找慢。所以结合一下,形成一种新的数据结构:哈希链表。

LRU 缓存算法的核心数据结构就是哈希链表,双向链表和哈希表的结合体。这个数据结构长这样:

HashLinkedList

思想很简单,就是借助哈希表赋予了链表快速查找的特性嘛:可以快速查找某个 key 是否存在缓存(链表)中,同时可以快速删除、添加节点。回想刚才的例子,这种数据结构是不是完美解决了 LRU 缓存的需求?

也许读者会问,为什么要是双向链表,单链表行不行?另外,既然哈希表中已经存了 key,为什么链表中还要存键值对呢,只存值不就行了?

想的时候都是问题,只有做的时候才有答案。这样设计的原因,必须等我们亲自实现 LRU 算法之后才能理解,所以我们开始看代码吧~

四、代码实现

很多编程语言都有内置的哈希链表或者类似 LRU 功能的库函数,但是为了帮大家理解算法的细节,我们用 Java 自己造轮子实现一遍 LRU 算法。

首先,我们把双链表的节点类写出来,为了简化,key 和 val 都认为是 int 类型:

  1. class Node {
  2. public int key, val;
  3. public Node next, prev;
  4. public Node(int k, int v) {
  5. this.key = k;
  6. this.val = v;
  7. }
  8. }

然后依靠我们的 Node 类型构建一个双链表,实现几个需要的 API(这些操作的时间复杂度均为 $O(1)$):

  1. class DoubleList {
  2. // 在链表头部添加节点 x,时间 O(1)
  3. public void addFirst(Node x);
  4. // 删除链表中的 x 节点(x 一定存在)
  5. // 由于是双链表且给的是目标 Node 节点,时间 O(1)
  6. public void remove(Node x);
  7. // 删除链表中最后一个节点,并返回该节点,时间 O(1)
  8. public Node removeLast();
  9. // 返回链表长度,时间 O(1)
  10. public int size();
  11. }

PS:这就是普通双向链表的实现,为了让读者集中精力理解 LRU 算法的逻辑,就省略链表的具体代码。

到这里就能回答刚才“为什么必须要用双向链表”的问题了,因为我们需要删除操作。删除一个节点不光要得到该节点本身的指针,也需要操作其前驱节点的指针,而双向链表才能支持直接查找前驱,保证操作的时间复杂度 $O(1)$。

有了双向链表的实现,我们只需要在 LRU 算法中把它和哈希表结合起来即可。我们先把逻辑理清楚:

  1. // key 映射到 Node(key, val)
  2. HashMap<Integer, Node> map;
  3. // Node(k1, v1) <-> Node(k2, v2)...
  4. DoubleList cache;
  5. int get(int key) {
  6. if (key 不存在) {
  7. return -1;
  8. } else {
  9. 将数据 (key, val) 提到开头;
  10. return val;
  11. }
  12. }
  13. void put(int key, int val) {
  14. Node x = new Node(key, val);
  15. if (key 已存在) {
  16. 把旧的数据删除;
  17. 将新节点 x 插入到开头;
  18. } else {
  19. if (cache 已满) {
  20. 删除链表的最后一个数据腾位置;
  21. 删除 map 中映射到该数据的键;
  22. }
  23. 将新节点 x 插入到开头;
  24. map 中新建 key 对新节点 x 的映射;
  25. }
  26. }

如果能够看懂上述逻辑,翻译成代码就很容易理解了:

  1. class LRUCache {
  2. // key -> Node(key, val)
  3. private HashMap<Integer, Node> map;
  4. // Node(k1, v1) <-> Node(k2, v2)...
  5. private DoubleList cache;
  6. // 最大容量
  7. private int cap;
  8. public LRUCache(int capacity) {
  9. this.cap = capacity;
  10. map = new HashMap<>();
  11. cache = new DoubleList();
  12. }
  13. public int get(int key) {
  14. if (!map.containsKey(key))
  15. return -1;
  16. int val = map.get(key).val;
  17. // 利用 put 方法把该数据提前
  18. put(key, val);
  19. return val;
  20. }
  21. public void put(int key, int val) {
  22. // 先把新节点 x 做出来
  23. Node x = new Node(key, val);
  24. if (map.containsKey(key)) {
  25. // 删除旧的节点,新的插到头部
  26. cache.remove(map.get(key));
  27. cache.addFirst(x);
  28. // 更新 map 中对应的数据
  29. map.put(key, x);
  30. } else {
  31. if (cap == cache.size()) {
  32. // 删除链表最后一个数据
  33. Node last = cache.removeLast();
  34. map.remove(last.key);
  35. }
  36. // 直接添加到头部
  37. cache.addFirst(x);
  38. map.put(key, x);
  39. }
  40. }
  41. }

这里就能回答之前的问答题“为什么要在链表中同时存储 key 和 val,而不是只存储 val”,注意这段代码:

  1. if (cap == cache.size()) {
  2. // 删除链表最后一个数据
  3. Node last = cache.removeLast();
  4. map.remove(last.key);
  5. }

当缓存容量已满,我们不仅仅要删除最后一个 Node 节点,还要把 map 中映射到该节点的 key 同时删除,而这个 key 只能由 Node 得到。如果 Node 结构中只存储 val,那么我们就无法得知 key 是什么,就无法删除 map 中的键,造成错误。

至此,你应该已经掌握 LRU 算法的思想和实现了,很容易犯错的一点是:处理链表节点的同时不要忘了更新哈希表中对节点的映射。

致力于把算法讲清楚!欢迎关注我的微信公众号 labuladong,查看更多通俗易懂的文章

labuladong

yuxiang-zhang 提供 C++ 代码:

  1. class LRUCache {
  2. // key -> iterator to pair(key, val) in the list
  3. unordered_map<int, list<pair<int, int>>::iterator> map;
  4. // pair(k1, v1) <-> pair(k2, v2)...
  5. list<pair<int, int>> cache;
  6. // 最大容量
  7. int cap;
  8. public:
  9. LRUCache(int capacity) : cap(capacity) {}
  10. int get(int key) {
  11. if(map.find(key) == map.end()) {
  12. return -1;
  13. }
  14. int val = map[key]->second;
  15. // 利用 put 方法把该数据提前
  16. put(key, val);
  17. return val;
  18. }
  19. void put(int key, int value) {
  20. pair<int, int> x = {key, value};
  21. if(map.find(key) != map.end()) {
  22. // 删除旧的节点
  23. cache.erase(map[key]);
  24. // 新的插到头部
  25. cache.emplace_front(x);
  26. // 更新 map 中对应的数据
  27. map[key] = cache.begin();
  28. } else {
  29. if(cap == cache.size()) {
  30. // 删除链表最后一个数据
  31. pair<int, int> last = cache.back(); cache.pop_back();
  32. map.erase(last.first);
  33. }
  34. // 直接添加到头部
  35. cache.emplace_front(x);
  36. map[key] = cache.begin();
  37. }
  38. }
  39. };

eric wang 提供 Python3 代码

  1. class ListNode:
  2. def __init__(self, key: int, val: int):
  3. self.key = key
  4. self.val = val
  5. self.prev = None
  6. self.next = None
  7. class LRUCache:
  8. def __init__(self, capacity: int):
  9. # 最大容量
  10. self.cap = capacity
  11. self.cache = {}
  12. # 哨兵节点
  13. self.sentinel = ListNode(None, None)
  14. # 尾节点: 用于链表容量超过最大容量是快速定位、删除尾节点
  15. self.tail = ListNode(None, None)
  16. # 初始化双向链表
  17. self.sentinel.next = self.tail
  18. self.tail.prev = self.sentinel
  19. def get(self, key: int) -> int:
  20. if key in self.cache:
  21. node = self.cache[key]
  22. # 从链表中删除该节点
  23. self.remove_node_from_list(node)
  24. # 把该节点添加到链表头部
  25. self.push_node_to_front(node)
  26. return node.val
  27. else:
  28. return -1
  29. def put(self, key: int, value: int) -> None:
  30. # 如果该节点已经存在那么删除该节点
  31. if key in self.cache:
  32. self.remove_node_from_list(self.cache[key])
  33. # 把该节点添加到链表头部
  34. node = ListNode(key, value)
  35. self.cache[key] = node
  36. self.push_node_to_front(node)
  37. # 如果链表超过最大容量,删除链表尾部节点
  38. if len(self.cache) > self.cap:
  39. last_node = self.tail.prev
  40. self.remove_node_from_list(last_node)
  41. self.cache.pop(last_node.key)
  42. # 从链表中删除节点
  43. def remove_node_from_list(self, node: "ListNode") -> None:
  44. prev = node.prev
  45. nxt = node.next
  46. prev.next = nxt
  47. nxt.prev = prev
  48. # 添加节点到链表头部
  49. def push_node_to_front(self, node: "ListNode") -> None:
  50. nxt = self.sentinel.next
  51. self.sentinel.next = node
  52. node.next = nxt
  53. node.prev = self.sentinel
  54. nxt.prev = node