十六薪是个坑
大家好,我是青玉白露。
最近刷各种论坛,发现有个有意思的职场现象。
不少人开始对"十五薪"、“十六薪”敬而远之。
曾经让人眼红的福利,现在却成了让人望而却步的"坑"。这是咋回事呢?
乍一看,十五薪确实挺诱人。比如月薪3万,年收入就能达到45万。
这数字够让人眼馋的了,尤其对刚入职场的年轻人来说,简直就是个难以抗拒的诱惑。
但现实往往比想象中更扎心。
这几年,不少大公司"年终奖缩水"、"奖金打折"的新闻可没少见。
有的公司甚至找各种理由干脆不发年终奖。
比如Tplink、比如GLD、比如PFYH····
这种情况下,十五薪就成了一张画饼充饥的空头支票。
为啥会这样?
-
经济不景气: 公司要省钱,自然先从奖金开刀。 -
业绩不达标: 有的公司把年终奖和业绩挂钩,业绩不好,奖金自然就泡汤了。 -
老板心血来潮: 有时候即便业绩不错,老板一拍脑袋也可能把奖金砍了。
这员工能忍?
首先是心理落差。谁不是拿到offer就把十五薪算进去了?结果到手一看,少了一大截,这谁能不失望?
其次是财务规划乱套。年终奖靠不住,谁还敢提前把钱花了?
更要命的是,这还会影响工作积极性。谁愿意为个"言而无信"的公司卖命?
有意思的是,现在越来越多人开始主动要求"降薪资系数,提基本工资"。
比如原本30k15的offer,他们会提出改成33k13。
这招挺高的,至少有以下几点好处:
-
收入稳定: 基本工资高了,每月到手的钱就多了,不用盼着年终奖过日子。 -
避免被坑: 即便年底没奖金,总收入也不会差太多。 -
省点税: 有时候把年终奖转成月薪,还能少交点税。 -
试探公司: 如果公司对这要求支支吾吾,八成是没打算发足额年终奖。
你们觉得"十五薪"到底香不香?有没有被坑过?
欢迎在评论区分享你的经历,看看职场里还有啥薪资"陷阱"要当心的!
……
回归主题,今天来看「字节二面的面试题」
面试题目
1、自我介绍 2、项目太简单,随便问了两句
==================数据结构================
1、数据结构的排序算法有哪些?(每种时间复杂度都说一下,快排和堆排的编程思想是什么?)
2、说一下经典的图论算法及使用场景(最短路、最小生成树等等)
3、如何判断有向图是否有环?(拓扑排序)
4、更高级的树的算法了解哪些?他们的使用场景有什么?(二叉树、二叉搜索树、平衡二叉树、红黑树、B+树、B树)
5、字典树了解吗?他有什么用途?
==================网络====================
1、介绍一下HTTP协议
2、介绍一下HTTP1.0、1.1、2.0以及未来规划的3.0有什么区别和联系
3、了解过IO多路复用吗?
==================操作系统=================
1、介绍一下你知道的操作系统的知识
2、进程和线程是怎么切换的?
3、了解过协程码?
4、数据从内存写到磁盘是怎么样的一个过程?CPU读数据又是怎样的一个过程?(面试官想问的是DMA)
==================算法题==================
1、给你一个大小为10的整数数组和一个目标值target,每个数只能用一次,判断是否能用数组中的某些整数相加得到目标值target。(01背包,leetcode原题,没找到具体题号)
2、课程表(leetcode207)
==================反问===================
1、部门做什么?(saas系统,人事薪酬系统)
2、还有几轮面试
重点问题
面试官: HTTP1.0、1.1、2.0以及未来规划的3.0有什么区别和联系?
应聘者: HTTP各个版本的主要区别和联系如下:
-
HTTP/1.0 (1996年):
-
引入了版本号概念 -
增加了POST、HEAD等方法 -
增加了状态码、多字符集支持等
-
HTTP/1.1 (1997年):
-
引入了持久连接(Keep-Alive),默认开启 -
增加了管道化(Pipelining)技术 -
支持虚拟主机 -
增加了更多的缓存控制机制 -
新增了OPTIONS、PUT、DELETE等方法
-
HTTP/2 (2015年):
-
使用二进制格式传输数据,而不是文本格式 -
支持多路复用,允许同时通过单一的TCP连接发起多重的请求-响应消息 -
使用HPACK压缩HTTP头部 -
服务器推送(Server Push) -
请求优先级
-
HTTP/3 (开发中):
-
基于QUIC协议,使用UDP而不是TCP -
改进的拥塞控制 -
连接迁移 -
0-RTT连接建立 -
更好的错误处理
主要的演进趋势是提高性能、降低延迟、增强安全性和改善用户体验。每个新版本都在解决前一个版本的限制和问题,同时保持向后兼容性。
应聘者: 这个问题涉及到DMA(直接内存访问)的概念。让我分别解释这两个过程:
-
数据从内存写到磁盘:
-
CPU初始化DMA控制器,设置源地址(内存)、目标地址(磁盘)和传输数据量。 -
DMA控制器直接控制内存到磁盘的数据传输,不需要CPU干预每个字节的传输。 -
传输完成后,DMA控制器向CPU发送中断信号。 -
CPU处理这个中断,确认数据传输完成。
-
CPU读取数据:
-
CPU发出读取请求到内存控制器。
-
如果数据在缓存中,直接从缓存读取(缓存命中)。
-
如果数据不在缓存中(缓存未命中):
-
内存控制器访问主内存。
-
数据从主内存传输到CPU的缓存。
-
CPU从缓存中读取数据。
在现代计算机中,DMA大大减轻了CPU在I/O操作中的负担,提高了系统整体性能。
而CPU的多级缓存机制则有效地缓解了CPU和主内存之间的速度差异,提高了数据访问速度。