博客
关于我
极简实现系列——三行代码搞定LRU
阅读量:130 次
发布时间:2019-02-26

本文共 1603 字,大约阅读时间需要 5 分钟。

极简实现系列——是用最简单的代码实现一些常见的方法,目的是为了帮助理解原理,所以并没有考虑太多限制条件


LRU的概念可能有部分同学会感到陌生,这里我也不过多说明,简单的解释一下:

LRU是Least Recently Used的缩写,即最近最少使用,是一种常用的算法,选择最久未使用的予以淘汰。

如果 不明白,就请打开你手机上的饿了么美团外卖,然后在搜索框中输入麻辣烫并确定,输入框下面就会产生一条历史记录,然后再输入砂锅粥麻辣香锅重复以上步骤。 此时历史记录的排序应该是[麻辣香锅,砂锅粥,麻辣烫], 然后你点击麻辣烫直接搜索,此时历史记录应该变成[麻辣烫,麻辣香锅,砂锅粥]。 这下懂了吧[狗头]

懂了之后接下来就是代码实现

简单来说就这几步

  1. 判断要放入队列中的元素是否已经存在
  2. 如果已经存在队列中,则把队列中的那一项删除。
  3. 放在队首
  4. 如果整个队列的长度大于预设长度,则把最后一个移除掉

根据以上这些步骤,应该可以很容易的写出一个简版吧

第一版

let lruArr = []const limit = 3 // 最大限制3个function put(val){     let index = lruArr.findIndex(item => item === val) // 步骤1  if(index !== -1) {    // 步骤2    lruArr.splice(index,1)  }  lruArr.unshift(val)  // 步骤3  lruArr.length > limit && (lruArr.splice(-1,1)) // 步骤4}put('麻辣烫') // ['麻辣烫']put('砂锅粥') // ['砂锅粥',' 麻辣烫']put('麻辣香锅') // ['麻辣香锅', '砂锅粥',' 麻辣烫']put('烧烤') // ['烧烤','麻辣香锅', '砂锅粥']put('砂锅粥') // ['砂锅粥','烧烤','麻辣香锅']

很简单吧~

还可以更简单~~

仔细观察一下代码, 假如我把步骤3放在第一步,然后不就转变成了数组去重的问题了吗,数组去重可就是个老生常谈的问题了。来,我们改造一下

第二版

let lruArr = []const limit = 3 // 最大限制3个function put(val) {     lruArr.unshift(val) // 先执行步骤3  lurArr = [...new Set(lruArr)] // 去重  lruArr.length > limit && (lruArr.splice(-1,1)) // 步骤4}

真·三行实现 哈哈哈~

改进版

现在的代码都暴露在全局,有点不好,再使用ES6来优化一下

class LRU {     constructor(limit) {       this.limit = limit    this.arr = []  }  put(val){       this.arr.unshift(val)    this.arr = [...new Set(this.arr)]    this.arr.length > this.limit && (this.arr.splice(-1,1))    console.log(this.arr)  }}let lru = new LRU(3)lru.put('麻辣烫') // ['麻辣烫']lru.put('砂锅粥') // ['砂锅粥',' 麻辣烫']lru.put('麻辣香锅') // ['麻辣香锅', '砂锅粥',' 麻辣烫']lru.put('烧烤') // ['烧烤','麻辣香锅', '砂锅粥']lru.put('砂锅粥') // ['砂锅粥','烧烤','麻辣香锅']

完事~

转载地址:http://nstf.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>