1、goalng相关Q:context作用、原理、超时控制
3358 www.Sina.com/http://www.Sina.com/http://www.Sina.com/http://www.Sina.com /
Q:切片与序列差异
A: golang context的理解,context主要用于父子任务之间的同步取消信号,本质上是一种协程调度的方式。另外在使用context时有两点值得注意:上游任务仅仅使用context通知下游任务不
问:信道封锁问题,goroutine如何安排? gopark怎么样了? PMG模型描述,谁创建的PMG,运行时间是什么样的,如何启动第一个goroutine
再
q ) go转义分析是什么意思? 内存什么时候分配给堆栈,什么时候分配给堆栈
需要,但不会直接干涉和中断下游任务的执
问: Q:sync.Map的实现原理、应用场景
行
,由下游任务自行决定后续的处理操作,也就是说context的取消操作是无侵入的;context是线程安全的,因为context本身是不可变的(immutable),因此可以放心地在多个协程中传递使用。
A: 基础问题。
A: golang CPS并发模型和PMG模型的理解。
R: 内存方面问题,这个网上很多,自己理解完整正确。
q ) go语言有什么优缺点
A:go 1.9 官方提供sync.Map 来优化线程安全的并发读写的map。该实现也是基于内置map关键字来实现的。
这个实现类似于一个线程安全的 map[interface{}]interface{} . 这个map的优化主要适用了以下场景:
(1)给定key的键值对只写了一次,但是读了很多次,比如在只增长的缓存中;
问: Q:Go GC算法,三色表示法描述
(2)当多个goroutine读取、写入和覆盖的key值不相交时。
问: go内存模型(tcmalloc ) ) ) ) ) )。
更进一步,可看sync.Map源码。
q )矩阵都是规则的二维排列,调查是否存在k,时间的复杂性
1 3 5 7 9
3 5 7 9 11
4 6 8 10 12
A: 优势:容易学习,生产力,并发,动态语法。劣势:包管理,错误处理,缺乏框架。
q )有规则排列,2N 1个个数,其中n个成对出现,只有1个单独出现,找出其单独出现的数.时间的复杂性
1、1、2、2、3、4、4、5、5、6、6、7、7
答案是3
Q:Go框架用过哪些,有看源码吗
问: 100亿个求top100,时间复杂度
A: 优势:beego,go-micro,gin等
Q:100亿个和100亿个交叉,求出时间的复杂性
A: 自己找,网上有
2、linux,操作系统Q:Select/epoll,IO复用,基础数据结构,epoll的一些函数,两种模式
A:tcmalloc是线程缓存的malloc,实现了高效的多线程内存管理,用于替代系统的内存分配相关的函数
问:什么是抢占时间表
A:二分查找:O(log2(max(m,n)))
问:用户状态和内核状态
A: O(log2(2N))二分查找,查找中间位置的数相等值是在左边还是右边?左边则再左子数组继续查找,右边则在右子数组继续查找。
A:分组查找或bitmap
3、mysql相关问: Q:innodb和myisam之间的差异(事务、索引、锁定。 我想知道我想知道) )
A: 全排列问题,自己找去
q ) b树和b树的区别、优缺点
A: Select/epoll 问题,网上很多
所有键值,叶子节点不存储指针,顺序访问指针,也就是每个叶子节点增加一个指向相邻叶子节点的指针。Q:B树和二叉查找树或者红黑色区别
A:基础数据结构问题
Q:聚簇索引什么特点,为什么这样,顺序查询的实现,回表查询,联合索引特性
A:
聚簇索引:将数据存储与索引放到了一块,找到索引也就找到了数据非聚簇索引:将数据存储于索引分开结构,索引结构的叶子节点指向了数据的对应行,myisam通过key_buffer把索引先缓存到内存中,当需要访问数据时(通过索引访问数据),在内存中直接搜索索引,然后通过索引找到磁盘相应数据,这也就是为什么索引不在key buffer命中时,速度慢的原因Q:腼腆的热狗分页查询,10亿行数据,查找第N页数据,怎么优化
A: 根据查询的页数和查询的记录数可以算出查询的id的范围,可以使用 id between and 来查询。
Q:悲观锁和乐观锁,mysql相关锁说一下
A:说下概念,其他网上找:
乐观锁( Optimistic Locking):对加锁持有一种乐观的态度,即先进行业务操作,不到最后一步不进行加锁,"乐观"的认为加锁一定会成功的,在最后一步更新数据的时候再进行加锁。
悲观锁(Pessimistic Lock):悲观锁对数据加锁持有一种悲观的态度。因此,在整个数据处理过程中,将数据处于锁定状态。悲观锁的实现,往往依靠数据库提供的锁机制(也只有数据库层提供的锁机制才能真正保证数据访问的排他性,否则,即使在本系统中实现了加锁机制,也无法保证外部系统不会修改数据)。
Q:如何分库分表
A:
1)垂直分表
也就是“腼腆的热狗拆小表”,基于列字段进行的。一般是表中的字段较多,将不常用的, 数据较大,长度较长(比如text类型字段)的拆分到“扩展表“。一般是针对那种几百列的腼腆的热狗,也避免查询时,数据量太大造成的“跨页”问题。
2)垂直分库
垂直分库针对的是一个系统中的不同业务进行拆分,比如用户User一个库,商品Producet一个库,订单Order一个库。切分后,要放在多个服务器上,提高性能。
3)水平分库分表
将单张表的数据切分到多个服务器上去,每个服务器具有相应的库与表,只是表中数据集合不同。水平分库分表能够有效的缓解单机和单库的性能瓶颈和压力,突破IO、连接数、硬件资源等的瓶颈。
4、redisQ:几种数据结构(list,set,zset,geohash,bitmap)实现原理
A:网上找
Q:pipline用来干嘛
A:pipeline的作用是将一批命令进行打包,然后发送给服务器,服务器执行完按顺序打包返回。
Q:事务
A: redis事务就是一次性、顺序性、排他性的执行一个队列中的一系列命令。
Q:备份(aof/rdb)原理,哪些参数可调
A:RDB是根据指定的规则定时将内存中的数据备份到硬盘上,AOF是在每次执行命令后命令本身记录下来,所以RDB的备份文件是一个二进制文件,而AOF的备份文件是一个文本文件。至于调参,网上可找。
Q:网络模型
A:redis网络模型,网上找,需要理解。
Q:为什么单线程就能hold住几万qps
A:I/O复用,Reactor 设计模式
Q:热点key怎么处理
A:1、热key加载到系统内存中,直接从系统内存中取,而不走到redis层。
2、redis集群,热点备份分布到集群中,避免单台redis集中访问。
Q:一致性hash解决什么问题
A:redis集群和负载均衡
Q:redis集群(主从,高可用,扩展节点)
A:网上找
5、kafka相关Q:消息是否按照时间有序,kafka分区的数据是否有序,如何保证有序
A:不保证按时间有序,主题在单个分区是有序的。
如何保证有序?kafka topic 只设置一个分区,或者producer将消息发送到指定分区
Q:Kafka为什么吞吐量高
A:
1)顺序读写kafka的消息是不断追加到文件中的,这个特性使kafka可以充分利用磁盘的顺序读写性能,顺序读写不需要硬盘磁头的寻道时间,只需很少的扇区旋转时间,所以速度远快于随机读写。
2)零拷贝利用Linux kernel"零拷贝(zero-copy)"系统调用机制,就是跳过“用户缓冲区”的拷贝,建立一个磁盘空间和内存的直接映射,数据不再复制到“用户态缓冲区”。
3)分区kafka中的topic中的内容可以被分为多分区存在,每个分区又分为多个段,所以每次操作都是针对一小部分做操作,很轻便,并且增加并行操作的能力。
4)批量发送kafka允许进行批量发送消息,producter发送消息的时候,可以将消息缓存在本地,等到了固定条件发送到kafka
等消息条数到固定条数,一段时间发送一次。
5)数据压缩Kafka还支持对消息集合进行压缩,Producer可以通过GZIP或Snappy格式对消息集合进行压缩
压缩的好处就是减少传输的数据量,减轻对网络传输的压力
Q:kafka的存储模型
A:网上找。
Q:Kafka消费者多个group消费同一个topic,会重复消费吗?
A:不会。
6、算法和数据结构问题:Q:hash算法实现(类似crc32或者murmur),保证随机性和均匀性,减少哈希冲突
A:考的是hash算法的了解,需要知道一些经典哈希算法实现。
7、动态规划相关Q:100个球,一次只能拿2-5个,你先拿,我后拿,怎么保证你能拿到最后一个球
A:一次2-5,去掉先手,最后回合剩余7个即可保证拿到最后一个球。因此,先手拿2个,每一回合保证拿掉球的总数为7,即可。(100-2)/7=14回合。
Q:正整数数组,求和为sum的组合 换零钱,1,5,10元都很充足,给你N元去换零钱,多少种换法
A:算法题给定一个有n个正整数的数组A和一个整数sum,求选择数组A中部分数字和为sum的方案数,动态规划法。
Q:图的最短路径
A:网上找
8、项目问题Q:遇到过内存溢出吗?怎么解决
A:主要了解有没有处理过内存泄漏导致的问题,C/C++定位内存泄漏问题;Golang和JAVA主要与GC的工作机制有关,堆内存一直增长,导致应用内存溢出等。
Q:布隆过滤器怎么设置m,n,k的值,怎么合理安排key(用户和item越来越多,怎么保证内存不会爆)
A:m,n,k 网上有实践经验,可参考。item越来越多的话,进行item的拆分,拆分本质是不要将 Hash(Key) 之后的请求分散在多个节点的多个小 bitmap 上,而是应该拆分成多个小 bitmap 之后,对一个 Key 的所有哈希函数都落在这一个小 bitmap 上。
Q:服务雪崩怎么处理,怎么解决保证不影响线上
A:限流,降级,熔断方面措施,结合后端系统架构阐述,如网关的限流和快速失败。
Q:redis和mysql数据一致性怎么保证
A:重点考虑业务逻辑上写和数据的流程(异常和错误处理等),结合MQ做异步重试处理。
Q:分布式锁应用场景,哪些坑
A:锁过期了,业务还没执行完;分布式锁,redis主从同步的坑;获取到锁后,线程异常。
欢迎关注公众号“橙狮软件”。