项目04-基于Docker的Prometheus+Grafana+AlertManager的飞书监控报警平台

文章目录

    • 一.项目介绍
      • 1.流程图
      • 2.拓扑图
      • 3.详细介绍
    • 二.前期准备
      • 1.项目环境
      • 2.IP划分
    • 三. 项目步骤
      • 1.ansible部署软件环境
        • 1.1 安装ansible环境
        • 1.2 建立免密通道
        • 1.3 批量部署docker
      • 2 部署nginx、MySQL以及cadvisor、exporter节点
        • 2.1 在nginx节点服务器上面配置nginx、node_exporter和cadvisor
        • 2.2 在MySQL节点服务器上面配置MySQL、mysqld-exporter和cadvisor
      • 3.安装promethues
        • 3.1 在promethues服务器上面使用docker部署promethues
        • 3.2 修改prometheus配置文件
      • 4.安装AlertManager并添加报警模板
        • 4.1 在AlertManager服务器上配置AlertManager和prometheus-webhook-feishu
        • 4.2 修改alertmanager配置文件
        • 3.4 修改prometheus配置文件,添加报警模板配置文件
      • 5.测试预警情况并部署Grafana出图
        • 5.1 在Grafana服务器上面使用docker部署Grafana
        • 5.2 测试飞书预警情况
    • 四. 项目总结
        • 1.做项目时遇到的问题
        • 2.项目心得

一.项目介绍

1.流程图

2.拓扑图

3.详细介绍

项目名称:基于Docker的Prometheus+Grafana+AlertManager的飞书监控报警平台
项目环境:CentOS7.9,Docker24.0.5,Prometheus2.47,Grafana10.1.2,AlertManager0.23,Nginx1.25.2,MySQL5.7.43、ansible 2.9.27等
项目描述:旨在构建一个高可用的监控和报警系统,基于Docker技术,结合Prometheus、Grafana和AlertManager等工具,用于监控多台服务器上的应用程序、资源使用情况以及性能数据。通过整合飞书机器人实现实时报警通知,以便及时响应并解决潜在的问题。
项目步骤:
1.提前规划好ip并建立免密通道,使用Ansible自动化批量部署docker环境
2.使用docker部署nginx和MySQL并配置cadvisor和exporter获得节点数据
3.使用docker在两台监控机器上部署Prometheus对Web服务器和MySQL服务器实时监控
4.配置AlertManager添加报警模板和使用飞书群聊机器人的密钥开启提醒服务进行预警
5.测试飞书预警情况并部署Grafana对Web服务器和MySQL服务器出图
项目心得:
1.提前规划好整个集群的架构,可以提高项目开展时效率
2.体会了自动化部署的重要性和容器化技术的好处,使组件部署和管理更加轻松
3.明白了监控与报警的关键性和重要性以及数据可视化的价值

二.前期准备

1.项目环境

CentOS7.9,Docker24.0.5,Prometheus2.47,Grafana10.1.2,AlertManager0.23,Nginx 1.25.2,MySQL5.7.43、ansible 2.9.27等

2.IP划分

准备全新的centos7.9的虚拟机,并且分配IP地址:

主机名IP
ansible192.168.98.156
promethus服务器192.168.98.155
grafana服务器192.168.98.154
alertmanager192.168.98.140
MySQL服务器192.168.98.149
nginx服务器192.168.98.136

三. 项目步骤

1.ansible部署软件环境

提前规划好ip并建立免密通道,使用Ansible自动化批量部署docker环境

1.1 安装ansible环境
[root@localhost ~]#  yum install epel-release -y
[root@localhost ~]#  yum install ansible -y
[root@localhost ~]# vim /etc/ansible/hosts
[nginx]
192.168.98.136[mysql]
192.168.98.140[promethus]
192.168.98.155[grafana]
192.168.98.154[alertmanager]
192.168.98.140
1.2 建立免密通道
[root@localhost ~]# ssh-keygen -t rsa
[root@localhost ~]# cd .ssh
[root@localhost .ssh]# ls
id_rsa  id_rsa.pub  known_hosts
[root@localhost .ssh]# ssh-copy-id -i id_rsa.pub root@192.168.98.136
[root@localhost .ssh]# ssh-copy-id -i id_rsa.pub root@192.168.98.140
[root@localhost .ssh]# ssh-copy-id -i id_rsa.pub root@192.168.98.155
[root@localhost .ssh]# ssh-copy-id -i id_rsa.pub root@192.168.98.154
[root@localhost .ssh]# ssh-copy-id -i id_rsa.pub root@192.168.98.140
1.3 批量部署docker

1.安装docker

[root@localhost ~]# vim onekey_install_docker.sh
#!/bin/bash#安装yum-utils工具包
yum install yum-utils -y#下载docker-ce.repo文件存放在/etc/yum.repos.d
yum-config-manager  --add-repo  https://download.docker.com/linux/centos/docker-ce.repo#安装docker-ce相关软件
yum install docker-ce docker-ce-cli containerd.io docker-buildx-plugin  docker-compose-plugin  -y#关闭firewalld防火墙服务,并且设置开机不要启动
service firewalld stop
systemctl  disable  firewalld
#临时关闭selinux
setenforce 0
#永久关闭selinux
sed -i '/^SELINUX=/ s/enforcing/disabled/'  /etc/selinux/config#启动docker并设计开机启动
systemctl start docker
systemctl enable docker
[root@ansible ~]# vim software_install.yaml
- hosts: nginx mysql promethus grafanaremote_user: roottasks:  - name: copy onekey_install_docker.sh     #上传onekey_install_docker.sh脚本copy: src=/root/onekey_install_docker.sh dest=/root/- name: install mysql #安装dockerscript: /root/onekey_install_docker.sh
[root@localhost ~]# ansible-playbook software_install.yaml

2 部署nginx、MySQL以及cadvisor、exporter节点

使用docker部署nginx和MySQL并配置cadvisor和exporter获得节点数据

2.1 在nginx节点服务器上面配置nginx、node_exporter和cadvisor

CAdvisor是谷歌开发的用于分析运行中容器的资源占用和性能指标的开源工具。CAdvisor是一个运行时的守护进程,负责收集、聚合、处理和输出运行中容器的信息。

Node-exporter 可以采集机器(物理机、虚拟机、云主机)的监控指标数据,能够采集到的指标包括cpu、内存、磁盘、网络、文件数等信息。

#拉取镜像
[root@localhost /]# docker pull nginx
[root@localhost /]# docker pull prom/node-exporter
[root@localhost /]# docker pull google/cadvisor
#启动nginx
[root@localhost /]# docker run --name nginx-1 -p 80:80 -d nginx
# 启动node-exporter
[root@localhost /]# docker run -d --name nginx-node --restart=always -p 9100:9100 -v "/proc:/host/proc:ro" -v "/sys:/host/sys:ro" -v "/:/rootfs:ro" prom/node-exporter
#启动cAdvisor采集容器
[root@localhost /]# docker run -d \
-d --name=nginx-cadvisor \
--restart always \
-v /:/rootfs:ro \
-v /var/run:/var/run:ro \
-v /sys:/sys:ro \
-v /var/lib/docker/:/var/lib/docker:ro \
-v /dev/disk/:/dev/disk:ro \
-p 8080:8080 \
google/cadvisor:latest

编写脚本监控nginx服务运行情况

[root@localhost ~]# vim /root/check_nginx.sh
#!/bin/bash# 检测Nginx容器是否在运行
if docker ps | grep -q "nginx-1"; thendocker restart nginx-node
elsedocker stop nginx-node
fi
#定义一个每分钟执行该脚本的计划任务,用来监控nginx服务器有没有挂掉
[root@localhost ~]# crontab -l
* * * * * bash /root/check_nginx.sh

输入http://192.168.98.136:8080访问,查看容器内部的情况

image-20230926112625837

输入http://192.168.98.136:9100访问,查看收集的数据

image-20230926110852535

输入http://192.168.98.136:80访问,查看nginx Web服务器

image-20230926111039903

2.2 在MySQL节点服务器上面配置MySQL、mysqld-exporter和cadvisor
#拉取镜像
[root@localhost /]# docker pull mysql:5.7.43
[root@localhost /]# docker pull prom/mysqld-exporter
[root@localhost /]# docker pull google/cadvisor
#启动mysql:5.7
[root@localhost /]# docker run --name mysql-1 -e MYSQL_ROOT_PASSWORD=123456 -d  -p 3306:3306 mysql:5.7.43
# 启动node-exporter
[root@localhost /]# docker run -d --name mysql-exporter -p 9104:9104 -e DATA_SOURCE_NAME="root:123456@(192.168.98.140:3306)/mysql" prom/mysqld-exporter
#启动cAdvisor采集容器
[root@localhost /]# docker run -d \
--name=mysql-cadvisor \
--restart always \
-v /:/rootfs:ro \
-v /var/run:/var/run:ro \
-v /sys:/sys:ro \
-v /var/lib/docker/:/var/lib/docker:ro \
-v /dev/disk/:/dev/disk:ro \
-p 8080:8080 \
google/cadvisor:latest

输入http://192.168.98.149:8080访问,查看容器内部的情况

image-20230926145732178

输入http://192.168.98.149:9104访问,查看收集的数据

image-20230926145158019

3.安装promethues

使用docker在两台监控机器上部署Prometheus对Web服务器和MySQL服务器实时监控

3.1 在promethues服务器上面使用docker部署promethues
#拉取镜像
[root@localhost ~]# docker pull prom/prometheus
# 启动容器
[root@localhost ~]# docker run -itd --name docker_prometheus prom/prometheus# 复制容器内部的配置文件到宿主机当前目录下的/prometheus
[root@localhost ~]# docker cp -a docker_prometheus:/etc/prometheus/ $PWD/prometheus# 删除容器
[root@localhost ~]# docker rm -f docker_prometheus# 启动容器 设置端口
[root@localhost ~]# docker run -itd --name docker_prometheus --restart=always -p 9090:9090 -v $PWD/prometheus:/etc/prometheus/ prom/prometheus# docker run 运行
# --name 容器的名称
# -p 指定容器的端口映射
# -v 将本地路径映射到容器内(这样如果修改了本地的文件,只需restart容器即可在容器内生效)
# --restart  容器重启策略 no不重启,always 退出时总是重启
# prom/prometheus  选择镜像名称启动容器
#查看容器运行情况
[root@localhost ~]# docker ps|grep docker_prometheus
3.2 修改prometheus配置文件

修改prometheus配置文件/root/prometheus/prometheus.yml

#修改prometheus配置文件
[root@localhost prometheus]# vim prometheus.yml
# my global config
global:scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.# scrape_timeout is set to the global default (10s).# Alertmanager configuration
alerting:alertmanagers:- static_configs:- targets: ["192.168.98.140:9093"] # 告警配置地址# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:- "*rule.yml"  #告警通知文件信息# - "first_rules.yml"# - "second_rules.yml"# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.- job_name: "prometheus"# metrics_path defaults to '/metrics'# scheme defaults to 'http'.static_configs:- targets: ["localhost:9090"]- job_name: "node-exporter"static_configs:- targets: ["192.168.98.136:9100"]# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.- job_name: "prometheus"# metrics_path defaults to '/metrics'# scheme defaults to 'http'.static_configs:- targets: ["localhost:9090"]- job_name: "node-exporter"static_configs:- targets: ["192.168.98.136:9100"]- job_name: "nginx-cadvisor"static_configs:- targets: ["192.168.98.136:8080"]- job_name: "mysqld-exporter"static_configs:- targets: ["192.168.98.149:9104"]- job_name: "mysql-cadvisor"static_configs:- targets: ["192.168.98.149:8080"]
[root@localhost prometheus]# docker restart docker_prometheus

输入http://192.168.98.155:9090访问,查看状态

image-20230926165147903

4.安装AlertManager并添加报警模板

配置AlertManager添加报警模板和使用飞书群聊机器人的密钥开启提醒服务进行预警

4.1 在AlertManager服务器上配置AlertManager和prometheus-webhook-feishu
#拉取镜像
[root@localhost ~]# docker pull prom/alertmanager
#启动容器
[root@localhost ~]# docker run -itd --name alertmanager prom/alertmanager
#复制容器内部的配置文件到宿主机,不用事先创建$PWD/alertmanager目录
[root@localhost ~]# docker cp -a alertmanager:/etc/alertmanager/ $PWD/alertmanager
#删除容器
[root@localhost ~]# docker rm -f alertmanager
#启动服务 设置端口9093
[root@localhost ~]# docker run -itd --name alertmanager -p 9093:9093 -v $PWD/alertmanager:/etc/alertmanager prom/alertmanager

飞书上面创建群聊,添加聊天机器人,设置关键字,获取密钥

image-20230926194741943

启用飞书群聊机器人的密钥进行预警

#拉取镜像
[root@localhost alertmanager]# docker pull javafamily/prometheus-webhook-feishu:2.3.2-SNAPSHOT
#安装容器
[root@localhost alertmanager]# docker run -d --name prom-alert-feishu -p 9094:8080 --restart=always \
-e FEISHU_TOKEN=bc55cbd2-c892-41c7-8fc1-66df876bcfc4 \
javafamily/prometheus-webhook-feishu:2.3.2-SNAPSHOT
4.2 修改alertmanager配置文件

修改alertmanager配置文件/root/alertmanager/vim alertmanager.yml

[root@localhost alertmanager]# vim alertmanager.yml
route: # 根据标签匹配,确定当前告警应该如何处理;group_by: ['alertname'] # 告警应该根据那些标签进行分组,不分组可以指定 ...group_wait: 10s # 组告警等待时间。如果有同组告警一起发出,这个是为了把更多的告警一个批次发出去group_interval: 10s # 同一组的多批次告警间隔多少秒后,才能发出repeat_interval: 5m # 重复的告警要等待多久后才能再次发出去receiver: 'webhook'routes:- receiver: webhookgroup_wait: 10smatch:alertname: alertnamereceivers: # 接收人是一个抽象的概念,它可以是一个邮箱也可以是微信,Slack或者Webhook等,接收人一般配合告警路由使用;
- name: 'webhook'webhook_configs:- url: 'http://192.168.98.140:9094/alert/card'inhibit_rules: # 合理设置抑制规则可以减少垃圾告警的产生 比如说当我们的主机挂了,可能引起主机上的服务,数据库,中间件等一些告警,假如说后续的这些告警相对来说没有意义,我们可以用抑制项这个功能,让PrometheUS只发出主机挂了的告警。- source_match: 根据label匹配源告警severity: 'critical'target_match:severity: 'warning'equal: ['alertname', 'dev', 'instance'] # 处的集合的label,在源和目的里的值必须相等。如果该集合的内的值再源和目的里都没有,那么目的告警也会被抑制。
[root@localhost alertmanager]# docker restart alertmanager
3.4 修改prometheus配置文件,添加报警模板配置文件

3.4.2 添加报警模板配置文件

添加报警模板配置文件/root/prometheus/node-exporter-record-rule.yml和/root/prometheus/mysql-exporter-record-rule.yml

[root@localhost prometheus]# vim node-exporter-record-rule.yml
groups:
- name: nginx-alarmrules:- alert: "内存告警"expr: (1 - (node_memory_MemAvailable_bytes / (node_memory_MemTotal_bytes))) * 100 > 80   #正常情况下是80,这里写了5,是因为我看到真实使用是8,为了>做告警出发,写了5for: 5slabels:severity: warningannotations:title: "内存使用率预警"serviceName: "{{ $labels.serviceName }}"instance: "{{ $labels.instance }}"value: "{{ $value }}"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"template: "**${serviceName}**(${instance}) 内存使用率已经超过阈值 **80%**, 请及时处理!\n当前值: ${value}%"- alert: "CPU告警"expr: (1 - avg(irate(node_cpu_seconds_total{mode="idle"}[2m])) by(instance)) * 100 > 80for: 5slabels:severity: warningannotations:title: "CPU使用率预警"serviceName: "{{ $labels.serviceName }}"value: "{{ $value }}"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"template: "**${serviceName}**(${instance}) cpu使用率已经超过阈值 **80%**, 请及时处理!\n当前值: ${value}%"- alert: "磁盘告警"expr: 100 - (node_filesystem_free_bytes{fstype=~"tmpfs|ext4"} / node_filesystem_size_bytes{fstype=~"tmpfs|ext4"} * 100) > 5for: 5slabels:severity: warningannotations:title: "磁盘使用率预警"serviceName: "{{ $labels.serviceName }}"instance: "{{ $labels.instance }}"mountpoint: "{{ $labels.mountpoint }}"value: "{{ $value }}"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"template: "**${serviceName}**(${instance}) 服务器磁盘设备使用率超过 **90%**, 请及时处理!\n挂载点: ${mountpoint}\n当前值: ${value}%!"- alert: "实例存活报警"expr: up == 0for: 5slabels:severity: emergencyannotations:title: "节点宕机报警"serviceName: "{{ $labels.serviceName }}"instance: "{{ $labels.instance }}"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.155:9090/targets"template: "节点 **${serviceName}**(${instance}) 断联, 请及时处理!"
[root@localhost prometheus]# vim mysql-exporter-record-rule.yml
groups:
- name: mysql-alarmrules:- alert: "MySql服务存活预警"expr: mysql_up == 0for: 5slabels:severity: emergencyannotations:title: "MySql服务宕机报警"summary: "{{$labels.instance}}: 检测到 MySql服务 已停止运行!请重点关注!!!"description: "{{$labels.instance}}: 当前 MySql服务已停止! (当前状态mysql_up状态为:{{ $value }})"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.155:9090/targets"- alert: "MySql_High_QPS过高预警"expr: rate(mysql_global_status_questions[5m]) > 1500for: 5slabels:severity: warningannotations:summary: "{{$labels.instance}}: 检测到 MySql_High_QPS 过高!"description: "{{$labels.instance}}: 当前 MySql操作超过 1500/秒 (当前值为:{{ $value }})"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"- alert: " MySql连接过多预警"expr: rate(mysql_global_status_threads_connected[5m]) > 300for: 5slabels:severity: warningannotations:summary: "{{$labels.instance}}: 检测到 MySql 连接过多!"description: "{{$labels.instance}}: 当前 MySql连接超过 300个/秒 (当前值为:{{ $value }})"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"- alert: " MySql慢查询过多预警"expr: rate(mysql_global_status_slow_queries[5m]) > 5for: 5slabels:severity: warningannotations:summary: "{{$labels.instance}}: 检测到 MySql 慢查询过多!"description: "{{$labels.instance}}: 当前 MySql慢查询 超过 5个/秒 (当前值为:{{ $value }})"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"- alert: " SQL线程停止预警"expr: mysql_slave_status_slave_sql_running != 1for: 5slabels:severity: warningannotations:summary: "{{$labels.instance}}: 检测到 SQL 线程停止!请重点关注!!!"description: "{{$labels.instance}}: 当前 SQL线程 已停止! (当前值为:{{ $value }})"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"- alert: "IO线程停止预警"expr: mysql_slave_status_slave_io_running != 1for: 5slabels:severity: warningannotations:summary: "{{$labels.instance}}: 检测到 IO 线程停止!请重点关注!!!"description: "{{$labels.instance}}: 当前 IO线程 已停止! (当前值为:{{ $value }})"btn: "点击查看详情 :玫瑰:"link: "http://192.168.98.154:3000/grafana/d/aka/duo-job-ji-cheng-fu-wu-qi-jian-kong"
[root@localhost prometheus]# docker restart docker_prometheus

访问http://192.168.98.155:9090/rules,查看报警信息详细

image-20230927111612020

5.测试预警情况并部署Grafana出图

5.1 在Grafana服务器上面使用docker部署Grafana
#拉去镜像
[root@localhost ~]# docker pull grafana/grafana
# 启动grafana
[root@localhost ~]# docker run -itd --name grafana grafana/grafana# 复制容器内部的配置文件到宿主机当前目录下的/prometheus目录下
[root@localhost ~]# docker cp -a grafana:/var/lib/grafana $PWD/grafana-storage# 删除容器
[root@localhost ~]# docker rm -f grafana# 添加目录权限(不添加权限不够,容器无法启动)
[root@localhost ~]# chmod -R 777 grafana-storage# 启动容器 设置端口
[root@localhost ~]# docker run -itd --name=grafana --restart=always -p 3000:3000 -v $PWD/grafana-storage:/var/lib/grafana grafana/grafana# docker run 运行
# --name 容器的名称
# -p 指定容器的端口映射
# -v:挂载宿主机目录和docker容器中的目录; $PWD/grafana-storage:本地宿主机绝对目录;/var/lib/grafana:容器目录(将容器目录挂载到本地)
# --restart 容器重启策略  no:不重启,always:退出时总是重启
# grafana/grafana  选择镜像名称启动容器
[root@localhost ~]# docker ps

输入http://192.168.98.154:3000访问,默认账号和密码都是admin

image-20230926104841693

选择一个模板导入promethus的数据

image-20230927163910584

5.2 测试飞书预警情况

随机停掉一个服务,观察报警效果

image-20230927164035312

重启服务

image-20230927164113878

四. 项目总结

1.做项目时遇到的问题

1.playbook部署mysql服务器时出错,原因是虚拟机内存不够
2.mysql_exporter节点起不来,需要创建授权用户!此处使用的是root用户,由于虚拟机环境不干净存留以前的MySQL服务,所以换一台新的虚拟机实现成功
3.promethus配置文件问题,AlertManager默认是关闭的,需要开启并且需要自己添加rule文件到promethus配置文件中
4.AlertManager不需要安装在所有的节点机器上面,可以单独安装也可以和Prometheus一起安装

2.项目心得

1.提前规划好整个集群的架构,可以提高项目开展时效率
2. 体会了自动化部署的重要性和容器化技术的好处,使组件部署和管理更加轻松
3. 明白了监控与报警的关键性和重要性以及数据可视化的价值

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/143207.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

Linux系统-Ubuntu的下载和安装

第一章 Linux系统-Ubuntu的下载和安装 1.下载Ubuntu ​ 进入https://cn.ubuntu.com/download中文官网下载iso映像文件&#xff1a; 2.安装Ubuntu 1.打开虚拟机&#xff0c;点击创建新的虚拟机&#xff1a; 2.选择“典型”&#xff0c;然后点击“下一步”&#xff1a; 3.选择…

YUM 升级 PHP7

文章目录 YUM 升级 PHP71. 查看当前 PHP 信息2. YUM 安装 PHP73. 查看 PHP 版本4. 启动PHP-FPM YUM 升级 PHP7 参考地址&#xff1a;网站地址 参考地址&#xff1a;网站地址 1. 查看当前 PHP 信息 # 查看 PHP 版本信息 php -v# 查看 yum 源中 PHP 信息 yum list | grep php2. …

前端开发 vs. 后端开发:编程之路的选择

文章目录 前端开发&#xff1a;用户界面的创造者1. HTML/CSS/JavaScript&#xff1a;2. 用户体验设计&#xff1a;3. 响应式设计&#xff1a;4. 前端框架&#xff1a; 后端开发&#xff1a;数据和逻辑的构建者1. 服务器端编程&#xff1a;2. 数据库&#xff1a;3. 安全性&#…

27、Flink 的SQL之SELECT (窗口函数)介绍及详细示例(3)

Flink 系列文章 1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接 13、Flink 的table api与sql的基本概念、通用api介绍及入门示例 14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性 15、Flink 的ta…

STM32cubeIDE 更改Repository folder

使用STM32CubeIDE时&#xff0c;会调用STM32CubeMX&#xff0c;但是这两个软件下载的更新包都放在C:/user/目录下面&#xff0c;而且文件很大&#xff0c;用不了多久就会把C盘填满&#xff0c;所以刚开始安装的时候就要把更新目录更换掉。具体更换方法如下&#xff1a; Window…

浅谈软件测试面试一些常见的问题

一、简历及岗位匹配度 说到简历&#xff0c;其实这一点是很重要但又被很多职场小白忽视的问题。经常有人说我投了很多简历&#xff0c;但是没有公司给我打电话&#xff0c;怎么办&#xff1f; 首先&#xff0c;应该明白的一点&#xff1a;面对求职市场的激烈竞争性&#xff0…

docker系列(7) - Dockerfile

文章目录 7. Dockerfile7.1 Dockerfile介绍7.2 指令规则7.3 指令说明7.3.1 RUN命令的两种格式7.3.1 CMD命令覆盖问题7.3.2 ENTRYPOINT命令使用7.3.3 ENV的使用 7.4 构建tomcat Dockerfile案例7.4.1 准备原始文件7.4.2 编写Dockerfile7.4.3 构建镜像7.4.4 验证镜像 7.5 构建jdk基…

LeetCode 接雨水 木桶理论、dp预处理

原题链接&#xff1a; 力扣&#xff08;LeetCode&#xff09;官网 - 全球极客挚爱的技术成长平台 题面&#xff1a; 给定 n 个非负整数表示每个宽度为 1 的柱子的高度图&#xff0c;计算按此排列的柱子&#xff0c;下雨之后能接多少雨水。 示例 1&#xff1a; 输入&#xff1a…

计算机里的神灵(SCIP)

计算机程序的构造和解释 我找到计算机里的神灵了&#xff0c;开心一刻 下面是从MIT官网下载的 SCIP求值器&#xff08;解释器&#xff09;的代码&#xff0c;这个官网是个宝藏库 还有其他视频课程和 SCIP的问题答案和可运行代码 链接&#xff1a;https://ocw.mit.edu/courses/6…

VS2022 编译protobuf , qt 使用

一、下载源码 protobuf: 同步 https://github.com/protocolbuffers/protobuf (gitee.com) 下载如v3.11.2 版本 二、下载CMake 三、编译 1、在1处选择源码目录下的cmake 目录&#xff1b;在2处选择一处空目录&#xff08;自己随便建&#xff09; 2、点击config&#xff0c;选择…

系统架构设计师-大数据

目录 一、大数据 1、大数据架构 2、大数据技术生态 3、Lambda架构 4、Kappa架构 5、Lambda架构与Kappa架构对比 一、大数据 1、大数据架构 大数据是指其大小或复杂性无法通过现有常用的软件工具&#xff0c;以合理的成本并在可接受的时限内对其进行捕获、管理和处理的数据集。…

【rhce考试时间是每年什么时候呢?】

RHCE9.0 新技术 公开课 10月11日&#xff0c;12日 感兴趣可留言 如果你是一个系统管理员&#xff0c;或者正朝着这个方向努力前进&#xff0c;那么你可能已经听过RHCE这个词。RHCE是Red Hat Certified Engineer的缩写&#xff0c;是全球公认的Linux系统工程师认证之一。通过获…

获取热门电影算法

功能#2&#xff1a;获取热门电影 为我们的“Netflix”项目实现“获取热门电影”功能。 我们将介绍以下内容 描述 解决方案 复杂性措施 时间复杂度 空间复杂度 描述# 现在&#xff0c;我们需要建立一个标准&#xff0c;以便将来自多个国家的顶级电影组合成一个单一的顶级电影…

postman访问新建项目报404

"status": 404 查看项目&#xff0c;发现启动类和代码执行部分没有在同一个包下&#xff0c;导致controller的访问没有注册到启动类下&#xff1b;

定义现代化实时数据仓库,SelectDB 全新产品形态全面发布

导读&#xff1a;9 月 25 日&#xff0c;2023 飞轮科技产品发布会在线上正式召开&#xff0c;本次产品发布会以 “新内核、新图景” 为主题&#xff0c;飞轮科技 CEO 马如悦全面解析了现代化数据仓库的演进趋势&#xff0c;宣布立足于多云之上的 SelectDB Cloud 云服务全面开放…

【设计模式】五、原型模式

文章目录 概述示例传统的方式的优缺点原型模式原理结构图-uml 类图 原型模式解决克隆羊问题的应用实例Sheep类实现clone()运行原型模式在 Spring 框架中源码分析 深入讨论-浅拷贝和深拷贝浅拷贝的介绍 小结 概述 示例 克隆羊问题 现在有一只羊 tom&#xff0c;姓名为: tom, 年…

【轮趣-科大讯飞】M260C 环形六麦测试 1 - 产品介绍与配置

原文发布在飞书上&#xff0c;想要的伙伴请联系我&#xff0c;懒得把飞书链接放这了

二十二、MySQL联合查询

1、基础概念 &#xff08;1&#xff09;语法&#xff1a; select …… from …… union [all] select …… from …… &#xff08;2&#xff09;理解&#xff1a; 所谓的联合查询&#xff0c;就是对多个条件查询结果进行联合处理&#xff0c;取其并集。 2、实际操作 &…

K8S:pod集群调度及相关操作

文章目录 一.pod集群调度概念1.调度约束( List-Watch组件)2.List-Watch的工作机制&#xff08;1&#xff09;List-Watch的工作机制流程&#xff08;2&#xff09;List-Watch的工作机制图示 3.调度的过程&#xff08;1&#xff09;调度的任务&#xff08;2&#xff09;调度选择p…

Java 设计模式——抽象工厂模式

目录 1.概念2.结构3.实现4.优缺点5.使用场景6.模式扩展7.JDK源码解析——Collection.iterator方法 1.概念 &#xff08;1&#xff09;Java 设计模式——工厂方法模式 中考虑的是一类产品的生产&#xff0c;如畜牧场只养动物、电视机厂只生产电视机等。这些工厂只生产同种类产品…