代码编织梦想

LRU(Least Recently Used,最近最少使用)是一种经典的缓存替换算法,用于在缓存满时决定哪一个缓存项应该被替换。LRU算法基于这样的假设:最近使用过的数据在未来也更有可能被再次使用,而很久没有使用的数据在未来被使用的可能性较小。

一、基本原理

LRU算法的核心思想是:每次数据被访问时,将其标记为最近使用的。当缓存满时,替换掉最近最少使用的数据。具体来说,LRU算法维护一个数据结构,用于记录数据的使用顺序,并在每次访问时更新这个顺序。

二、实现方法

实现LRU算法通常有以下几种方法:

  1. 链表(Linked List)

    • 使用双向链表来维护缓存数据的顺序。
    • 每次访问数据时,将该数据移动到链表头部。
    • 当缓存满时,移除链表尾部的数据。
  2. 哈希表+双向链表(HashMap + Doubly Linked List)

    • 使用哈希表来快速查找数据。
    • 使用双向链表来维护数据的使用顺序。
    • 每次访问数据时,将该数据移动到链表头部。
    • 当缓存满时,移除链表尾部的数据。

三、代码实现

1.使用链表实现LRU

使用链表实现LRU的基本思路是维护一个双向链表,其中每个节点表示一个缓存项。链表头部表示最近使用的缓存项,链表尾部表示最久未使用的缓存项。当缓存满时,移除链表尾部的节点。

import java.util.LinkedList;

class LRUCache {
    private final int capacity;
    private final LinkedList<Integer> cache;

    public LRUCache(int capacity) {
        this.capacity = capacity;
        this.cache = new LinkedList<>();
    }

    public int get(int key) {
        if (!cache.contains(key)) {
            return -1;
        }
        cache.remove((Integer) key);
        cache.addFirst(key);
        return key;
    }

    public void put(int key) {
        if (cache.contains(key)) {
            cache.remove((Integer) key);
        } else if (cache.size() >= capacity) {
            cache.removeLast();
        }
        cache.addFirst(key);
    }

    public static void main(String[] args) {
        LRUCache cache = new LRUCache(2);
        cache.put(1);
        cache.put(2);
        System.out.println(cache.get(1)); // 返回 1
        cache.put(3); // 该操作会使得关键字 2 作废
        System.out.println(cache.get(2)); // 返回 -1 (未找到)
        cache.put(4); // 该操作会使得关键字 1 作废
        System.out.println(cache.get(1)); // 返回 -1 (未找到)
        System.out.println(cache.get(3)); // 返回 3
        System.out.println(cache.get(4)); // 返回 4
    }
}

2.  使用哈希表和双向链表实现LRU

使用哈希表和双向链表的组合实现LRU,可以在O(1)时间复杂度内完成查找、插入和删除操作。哈希表用于快速查找缓存项,双向链表用于维护缓存项的使用顺序。

import java.util.HashMap;

class LRUCache {
    private final int capacity;
    private final HashMap<Integer, Node> map;
    private final DoublyLinkedList cache;

    public LRUCache(int capacity) {
        this.capacity = capacity;
        this.map = new HashMap<>();
        this.cache = new DoublyLinkedList();
    }

    public int get(int key) {
        if (!map.containsKey(key)) {
            return -1;
        }
        Node node = map.get(key);
        cache.moveToHead(node);
        return node.value;
    }

    public void put(int key, int value) {
        if (map.containsKey(key)) {
            Node node = map.get(key);
            node.value = value;
            cache.moveToHead(node);
        } else {
            if (map.size() >= capacity) {
                Node tail = cache.removeTail();
                map.remove(tail.key);
            }
            Node newNode = new Node(key, value);
            cache.addToHead(newNode);
            map.put(key, newNode);
        }
    }

    private static class Node {
        int key;
        int value;
        Node prev;
        Node next;

        Node(int key, int value) {
            this.key = key;
            this.value = value;
        }
    }

    private static class DoublyLinkedList {
        private final Node head;
        private final Node tail;

        DoublyLinkedList() {
            head = new Node(0, 0);
            tail = new Node(0, 0);
            head.next = tail;
            tail.prev = head;
        }

        void addToHead(Node node) {
            node.next = head.next;
            node.prev = head;
            head.next.prev = node;
            head.next = node;
        }

        void removeNode(Node node) {
            node.prev.next = node.next;
            node.next.prev = node.prev;
        }

        void moveToHead(Node node) {
            removeNode(node);
            addToHead(node);
        }

        Node removeTail() {
            Node res = tail.prev;
            removeNode(res);
            return res;
        }
    }

    public static void main(String[] args) {
        LRUCache cache = new LRUCache(2);
        cache.put(1, 1);
        cache.put(2, 2);
        System.out.println(cache.get(1)); // 返回 1
        cache.put(3, 3); // 该操作会使得关键字 2 作废
        System.out.println(cache.get(2)); // 返回 -1 (未找到)
        cache.put(4, 4); // 该操作会使得关键字 1 作废
        System.out.println(cache.get(1)); // 返回 -1 (未找到)
        System.out.println(cache.get(3)); // 返回 3
        System.out.println(cache.get(4)); // 返回 4
    }
}

四、优缺点

优点:
  1. 高效的缓存替换:LRU算法能够较好地利用缓存空间,提高缓存命中率。
  2. 简单易实现:使用哈希表和双向链表的组合,可以高效地实现LRU算法。
缺点:
  1. 空间开销:需要额外的空间来维护哈希表和双向链表。
  2. 不适用于所有场景:LRU算法假设最近使用的数据在未来也更有可能被使用,但在某些场景下,这一假设可能不成立。

五、应用场景

LRU算法广泛应用于各种需要缓存机制的场景,包括但不限于:

  1. 操作系统的页面置换:操作系统在内存管理中使用LRU算法来决定哪一页应该被换出。
  2. 数据库缓存:数据库系统使用LRU算法来管理缓存,以提高查询性能。
  3. Web缓存:Web服务器和浏览器使用LRU算法来缓存网页和资源,以提高访问速度。

六、总结

LRU(Least Recently Used)是一种经典的缓存替换算法,通过维护数据的使用顺序,在缓存满时替换掉最近最少使用的数据。常见的实现方法包括使用哈希表和双向链表的组合。LRU算法具有高效的缓存替换能力和简单易实现的特点,但也存在一定的空间开销。通过合理地选择和实现LRU算法,可以有效地提高系统的缓存命中率和性能。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/AWSDN/article/details/141260581

lru算法-爱代码爱编程

/*请求页式存储管理的页面置换算法 一.实验目的 通过请求页式存储管理中页面置换算法模拟程序,了解虚拟存储技术的特点,掌握请求页式存储管理的页面置换算法。 二.实验属性 设计 三.实验内容 1.通过随机数产生一个指令序列 2.将指令序列变换成为页地址流        设页面大小为1K;用户内存容量为4页到32页;用户虚存容量为32K。

lru算法_iteye_4921的博客-爱代码爱编程

LRU是Least Recently Used 近期最少使用算法。 内存管理的一种页面置换算法,对于在内存中但又不用的数据块(内存块)叫做LRU,操作系统会根据哪些数据属于LRU而将其移出内存而腾出空间来加载另外的数据。 什么是LRU算法? LRU是Least Recently Used的缩写,即最少使用页面置换算法

03、链表:实现LRU(Least Recently Used)缓存淘汰算法-爱代码爱编程

03、|链表:实现LRU(Least Recently Used)缓存淘汰算法 3.1 链表结构及其操作 与数组的对比: 不同的链表类型: 和单链表相比,循环链表的优点是从链尾到链头比较方便。当要处理的数据具有环型结构特点时,就特别适合采用循环链表。比如著名的约瑟夫问题——eg:15个教徒和15 个非教徒在深海上遇险

Lru算法-爱代码爱编程

LRU算法 缓存淘汰策略 四种实现方式   LRU   1.1. 原理 LRU(Least recently used,最近最少使用)算法根据数据的历史访问记录来进行淘汰数据,其核心思想是“如果数据最近被访问过,那么将来被访问的几率也更高”。 1.2. 实现 最常见的实现是使用一个链表保存缓存数据,详细算法实现如下:   1. 新数

LRU(最近最少使用)算法-爱代码爱编程

一、什么是LRU?           LRU(Least Recently Used),最近最少使用。           是一种【内存管理】算法。      LRU算法基于一种假设:         长期不被使用的数据,在未来被用到的几率也不大。因此,当数据所占内存达到一定阈值时,移除掉最近最少使用数据。      LRU算法使用了一种有趣的

lru最近最少使用的缓存_coffee_mao的博客-爱代码爱编程

LRU 题目描述题解方法学习链接 题目描述 LRU:最近最少使用缓存 数据结构,设计和实现一个 LRU (Least Recently Used,最近最少使用) 缓存机制 。实现 LRUCache 类: LR

lru和lfu算法_lru算法和lfu-爱代码爱编程

在redis的学习中,了解到了两种缓存清理算法,分别是LRU和LFU,在此针对这两种算法进行学习。 1.LRU算法 LRU(Least Recently Used)称为最近最少使用算法。基本的思想是:长期不被使用的数据,在未来被用到的几率也不大,因此当新的数据进来时,就可以优先将这些数据替换掉。 1.1 LRU算法中数据结构 哈希链表,哈希表我们知

什么是lru算法-爱代码爱编程

什么是LRU LRU 英文全称(Least recently used,最近最少使用)属于典型的内存管理算法。 内存管理的一种页面置换算法,对于在内存中但又不用的数据块(内存块)叫做LRU,操作系统会根据哪些数据属于LRU而将其移出内存而腾出空间来加载另外的数据。用通俗的话来说就是最近被频繁访问的数据会具备更高的留存,淘汰那些不常被访问的数据。  LR

lru算法原理及其实现-爱代码爱编程

一、LRU是什么         LRU算法的全称是“Least Recently Used”,即“最近最少使用”算法。LRU算法的基本思想是,当缓存空间已满时,优先淘汰最近最少使用的缓存数据,以腾出更多的缓存空间。因此,LRU算法需要维护一个缓存访问历史记录,以便确定哪些缓存数据是最近最少使用的。         LRU算法的实现可以采用多种数据结构

lru(least recently used,最近最少使用)-爱代码爱编程

LRU(Least Recently Used,最近最少使用)是一种缓存替换算法,用于管理计算机系统中的缓存。它通过跟踪每个缓存项的使用情况来决定哪些数据应该被淘汰,以便为新的数据腾出空间。LRU算法的目标是确保缓存中始终保