Loading...
ipad pro+paper
n:keep-alive TCP连接在发送后将仍然保持打开状态,于是,浏览器可以继续通过相同的连接发送请求。保持连接节省了为每个请求建立新连接所需的时间,还节
https://uploadfiles.nowcoder.com/images/20190413/420034185_1555134777188_4C843633D9B517514370FC7FEF715116
轮子哥 2020/7/27 16:21:45 网关也可以校验限流,负载均衡
轮子哥 2020/7/27 16:20:07 限流,降级,熔断,加集群,缓存预热
分布式系统弱一致性
弱一致性
今天计划贝壳找房
https://tsubaki-1257479437.cos.ap-chengdu.myqcloud.com/blog/2020-05-18-075016.png
主定理解决递归函数复杂度
BENQ BL2480T
mybatis-plus easycode
blotter tyme
二叉搜索树
并发和并行
https://tsubaki-1257479437.cos.ap-chengdu.myqcloud.com/blog/2020-04-29-105934.png
Java如何实现异常处理
mybatis是如何实现分页的,一级缓存和二级缓存
floyd和Dijkstra(迪杰斯特拉)算法
蒂芙尼,TTC金粉,圣熊猫
由rand7生成rand10以及随机数生成方法的讨论
如何从大量的 URL 中找出相同的 URL? 题目描述 给定 a、b 两个文件,各存放 50 亿个 URL,每个 URL 各占 64B,内存限制是 4G。请找出 a、b 两个文件共同的 URL。 解答思路 每个 URL 占 64B,那么 50 亿个 URL占用的空间大小约为 320GB。 5,000,000,000 * 64B ≈ 5GB * 64 = 320GB 由于内存大小只有 4G,因此,我们不可能一次性把所有 URL 加载到内存中处理。对于这种类型的题目,一般采用分治策略,即:把一个文件中的 URL 按照某个特征划分为多个小文件,使得每个小文件大小不超过 4G,这样就可以把这个小文件读到内存中进行处理了。 思路如下: 首先遍历文件 a,对遍历到的 URL 求 hash(URL) % 1000,根据计算结果把遍历到的 URL 存储到 a0, a1, a2, ..., a999,这样每个大小约为 300MB。使用同样的方法遍历文件 b,把文件 b 中的 URL 分别存储到文件 b0, b1, b2, ..., b999 中。这样处理过后,所有可能相同的 URL 都在对应的小文件中,即 a0 对应 b0, ..., a999 对应 b999,不对应的小文件不可能有相同的 URL。那么接下来,我们只需要求出这 1000 对小文件中相同的 URL 就好了。 接着遍历 ai( i∈[0,999]),把 URL 存储到一个 HashSet 集合中。然后遍历 bi 中每个 URL,看在 HashSet 集合中是否存在,若存在,说明这就是共同的 URL,可以把这个 URL 保存到一个单独的文件中。 方法总结 分而治之,进行哈希取余; 对每个子文件进行 HashSet 统计。
有请下一位天才中单!
许愿lamy 2000,leopold暗礁980M,纸盒人阿愣
ttc金粉轴开团预售线性轴37g触发客制化轴体
并查集
记一下header结构,常用的几个状态,https,2.0 3.0,幂等性,长连接
分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。 有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。 而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移到Cassandra,因为Cassandra没有顺序ID生成机制,所以开发了这样一套全局唯一ID生成服务。
作者模式与读者模式
字典树了解一下,还有并查集
等一场红色的雨
来自南部的一个小城市,个性不张扬,讨厌随波逐流。
ipad pro+paper
n:keep-alive TCP连接在发送后将仍然保持打开状态,于是,浏览器可以继续通过相同的连接发送请求。保持连接节省了为每个请求建立新连接所需的时间,还节
https://uploadfiles.nowcoder.com/images/20190413/420034185_1555134777188_4C843633D9B517514370FC7FEF715116
轮子哥 2020/7/27 16:21:45
网关也可以校验限流,负载均衡
轮子哥 2020/7/27 16:20:07
限流,降级,熔断,加集群,缓存预热
分布式系统弱一致性
弱一致性
今天计划贝壳找房
https://tsubaki-1257479437.cos.ap-chengdu.myqcloud.com/blog/2020-05-18-075016.png
主定理解决递归函数复杂度
BENQ BL2480T
mybatis-plus easycode
blotter tyme
二叉搜索树
并发和并行
https://tsubaki-1257479437.cos.ap-chengdu.myqcloud.com/blog/2020-04-29-105934.png
Java如何实现异常处理
mybatis是如何实现分页的,一级缓存和二级缓存
floyd和Dijkstra(迪杰斯特拉)算法
蒂芙尼,TTC金粉,圣熊猫
由rand7生成rand10以及随机数生成方法的讨论
如何从大量的 URL 中找出相同的 URL? 题目描述 给定 a、b 两个文件,各存放 50 亿个 URL,每个 URL 各占 64B,内存限制是 4G。请找出 a、b 两个文件共同的 URL。 解答思路 每个 URL 占 64B,那么 50 亿个 URL占用的空间大小约为 320GB。 5,000,000,000 * 64B ≈ 5GB * 64 = 320GB 由于内存大小只有 4G,因此,我们不可能一次性把所有 URL 加载到内存中处理。对于这种类型的题目,一般采用分治策略,即:把一个文件中的 URL 按照某个特征划分为多个小文件,使得每个小文件大小不超过 4G,这样就可以把这个小文件读到内存中进行处理了。 思路如下: 首先遍历文件 a,对遍历到的 URL 求 hash(URL) % 1000,根据计算结果把遍历到的 URL 存储到 a0, a1, a2, ..., a999,这样每个大小约为 300MB。使用同样的方法遍历文件 b,把文件 b 中的 URL 分别存储到文件 b0, b1, b2, ..., b999 中。这样处理过后,所有可能相同的 URL 都在对应的小文件中,即 a0 对应 b0, ..., a999 对应 b999,不对应的小文件不可能有相同的 URL。那么接下来,我们只需要求出这 1000 对小文件中相同的 URL 就好了。 接着遍历 ai( i∈[0,999]),把 URL 存储到一个 HashSet 集合中。然后遍历 bi 中每个 URL,看在 HashSet 集合中是否存在,若存在,说明这就是共同的 URL,可以把这个 URL 保存到一个单独的文件中。 方法总结 分而治之,进行哈希取余; 对每个子文件进行 HashSet 统计。
有请下一位天才中单!
许愿lamy 2000,leopold暗礁980M,纸盒人阿愣
ttc金粉轴开团预售线性轴37g触发客制化轴体
并查集
记一下header结构,常用的几个状态,https,2.0 3.0,幂等性,长连接
分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。 有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。 而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移到Cassandra,因为Cassandra没有顺序ID生成机制,所以开发了这样一套全局唯一ID生成服务。
作者模式与读者模式
字典树了解一下,还有并查集
等一场红色的雨