深入了解决策树:机器学习中的经典算法

在这里插入图片描述

✅作者简介:2022年博客新星 第八。热爱国学的Java后端开发者,修心和技术同步精进。
🍎个人主页:Java Fans的博客
🍊个人信条:不迁怒,不贰过。小知识,大智慧。
💞当前专栏:Java案例分享专栏
✨特色专栏:国学周更-心性养成之路
🥭本文内容:深入了解决策树:机器学习中的经典算法

文章目录

    • 一、基本原理
      • 1.1 树的结构
      • 1.2 数据划分
      • 1.3 递归构建
      • 1.4 剪枝
      • 1.5 可解释性
    • 二、数学模型
      • 2.1 信息增益
      • 2.2 基尼指数
      • 2.3 均方误差
      • 2.4 决策过程的数学表达
      • 2.5 递归分裂的数学模型
      • 2.6 停止条件
    • 三、实现步骤
      • 3.1 数据预处理
        • 3.1.1 数据清洗
        • 3.1.2 特征选择与转换
      • 3.2 特征选择
        • 3.2.1 计算特征的评价指标
      • 3.3 数据划分
        • 3.3.1 划分数据集
      • 3.4 递归构建决策树
        • 3.4.1 停止条件
      • 3.5 剪枝
        • 3.5.1 预剪枝
        • 3.5.2 后剪枝
      • 3.6 模型评估
        • 3.6.1 交叉验证
        • 3.6.2 性能指标
      • 3.7 模型部署
    • 四、应用场景
      • 4.1 金融领域
      • 4.2 医疗领域
      • 4.3 市场营销领域
    • 五、总结

在这里插入图片描述

  在机器学习的众多算法中,决策树因其直观性和易解释性而备受青睐。作为一种经典的分类和回归工具,决策树通过树状结构将复杂的决策过程简化为一系列简单的判断,使得非专业人士也能轻松理解模型的工作原理。无论是在金融、医疗还是市场营销等领域,决策树都展现出了强大的应用潜力。

一、基本原理

  决策树是一种基于树形结构的模型,用于分类和回归任务。其基本原理是通过对数据进行特征划分,逐步构建出一个决策过程,最终达到对输入数据的预测。

1.1 树的结构

决策树由多个节点和边组成,主要包括:

  • 根节点(Root Node):树的起始节点,表示整个数据集。
  • 内部节点(Internal Nodes):表示特征的判断条件。
  • 叶子节点(Leaf Nodes):表示最终的分类结果或预测值。

1.2 数据划分

  选择特征后,决策树会根据特征的取值将数据集划分为多个子集。每个子集对应于特征的一个取值。划分的过程是递归进行的,直到满足停止条件,例如:

  • 达到最大树深度。
  • 节点样本数小于预设阈值。
  • 数据集的纯度达到一定标准。

1.3 递归构建

  决策树的构建过程是递归的。对于每个子集,重复特征选择和数据划分的过程,直到满足停止条件。这个过程可以用以下伪代码表示:

function build_tree(data):if stopping_condition_met(data):return create_leaf_node(data)best_feature = select_best_feature(data)tree = create_node(best_feature)for value in best_feature_values:subset = split_data(data, best_feature, value)child_node = build_tree(subset)tree.add_child(value, child_node)return tree

1.4 剪枝

  为了防止过拟合,决策树模型通常会进行剪枝。剪枝的目的是减少树的复杂度,通过去除一些不必要的节点来提高模型的泛化能力。剪枝可以分为两种类型:

  • 预剪枝(Pre-pruning):在构建树的过程中,提前停止分裂。
  • 后剪枝(Post-pruning):在树构建完成后,评估每个节点的贡献,去除不必要的节点。

1.5 可解释性

  决策树的一个重要优点是其可解释性。由于决策过程是通过一系列简单的判断规则构成的,用户可以很容易地理解模型的决策依据。这使得决策树在许多需要透明度的应用场景中非常受欢迎。

二、数学模型

决策树的数学模型主要涉及特征选择、数据划分和决策过程的数学表达。

2.1 信息增益

  信息增益是决策树中最常用的特征选择标准之一。它用于衡量通过某特征划分数据集后信息的不确定性减少程度。信息增益的计算基于熵的概念。

熵(Entropy)

  熵是信息论中的一个重要概念,用于衡量数据集的不确定性。对于一个数据集 D D D,其熵 H ( D ) H(D) H(D) 定义为:

H ( D ) = − ∑ i = 1 C p i log ⁡ 2 ( p i ) H(D) = - \sum_{i=1}^{C} p_i \log_2(p_i) H(D)=i=1Cpilog2(pi)

其中, C C C 是类别的数量, p i p_i pi 是类别 i i i 在数据集 D D D 中的概率。

信息增益的计算

  信息增益 I G ( D , X ) IG(D, X) IG(D,X) 可以通过以下公式计算:

I G ( D , X ) = H ( D ) − ∑ v ∈ V a l u e s ( X ) ∣ D v ∣ ∣ D ∣ H ( D v ) IG(D, X) = H(D) - \sum_{v \in Values(X)} \frac{|D_v|}{|D|} H(D_v) IG(D,X)=H(D)vValues(X)DDvH(Dv)

  • H ( D ) H(D) H(D) 是数据集 D D D 的熵。
  • V a l u e s ( X ) Values(X) Values(X) 是特征 X X X 的所有取值。
  • D v D_v Dv 是特征 X X X 取值为 v v v 的子集。

信息增益越大,表示特征 X X X 对于分类的贡献越大。

2.2 基尼指数

  基尼指数是另一种用于特征选择的标准,尤其在分类问题中被广泛使用。基尼指数用于衡量数据集的不纯度,值越小表示数据集越纯。

基尼指数的计算

对于数据集 D D D,基尼指数 G i n i ( D ) Gini(D) Gini(D) 的计算公式为:

G i n i ( D ) = 1 − ∑ i = 1 C p i 2 Gini(D) = 1 - \sum_{i=1}^{C} p_i^2 Gini(D)=1i=1Cpi2

其中, p i p_i pi 是类别 i i i 在数据集 D D D 中的概率。基尼指数越小,表示数据集的纯度越高。

2.3 均方误差

  在回归任务中,均方误差(Mean Squared Error, MSE)是常用的损失函数,用于衡量预测值与真实值之间的差异。均方误差的计算公式为:

M S E = 1 n ∑ j = 1 n ( y j − y ^ j ) 2 MSE = \frac{1}{n} \sum_{j=1}^{n} (y_j - \hat{y}_j)^2 MSE=n1j=1n(yjy^j)2

其中, n n n 是样本数量, y j y_j yj 是真实值, y ^ j \hat{y}_j y^j 是预测值。均方误差越小,表示模型的预测效果越好。

2.4 决策过程的数学表达

  决策树的决策过程可以用条件概率的方式进行表达。假设我们有一个特征集合 X = { X 1 , X 2 , … , X m } X = \{X_1, X_2, \ldots, X_m\} X={X1,X2,,Xm},对于输入样本 x x x,决策树通过一系列的条件判断来决定其类别 C C C。可以表示为:

P ( C ∣ X ) = P ( X ∣ C ) P ( C ) P ( X ) P(C | X) = \frac{P(X | C) P(C)}{P(X)} P(CX)=P(X)P(XC)P(C)

其中, P ( C ∣ X ) P(C | X) P(CX) 是在给定特征 X X X 的情况下,样本属于类别 C C C 的概率。

2.5 递归分裂的数学模型

在构建决策树时,递归分裂的过程可以用以下步骤表示:

  1. 选择最佳特征:通过计算信息增益或基尼指数,选择最佳特征 X i X_i Xi
  2. 划分数据集:根据特征 X i X_i Xi 的取值将数据集 D D D 划分为多个子集 D 1 , D 2 , … , D k D_1, D_2, \ldots, D_k D1,D2,,Dk
  3. 递归构建:对每个子集 D j D_j Dj,重复步骤 1 和 2,直到满足停止条件。

2.6 停止条件

在构建决策树的过程中,需要设定停止条件,以避免过拟合。常见的停止条件包括:

  • 达到最大树深度 d m a x d_{max} dmax
  • 节点样本数小于预设阈值 n m i n n_{min} nmin
  • 数据集的纯度达到一定标准(如基尼指数或熵小于某个阈值)。

三、实现步骤

  构建决策树的过程可以分为多个步骤,从数据预处理到模型评估,每个步骤都至关重要。

3.1 数据预处理

  数据预处理是构建决策树的第一步,主要包括以下几个方面:

3.1.1 数据清洗
  • 处理缺失值:缺失值可能会影响模型的性能。常见的处理方法包括:

    • 删除含有缺失值的样本。
    • 用均值、中位数或众数填充缺失值。
    • 使用插值法或其他算法预测缺失值。
  • 处理异常值:异常值可能会对模型产生负面影响。可以通过可视化方法(如箱线图)识别异常值,并决定是否删除或修正。

3.1.2 特征选择与转换
  • 选择特征:根据业务需求和数据分析,选择对目标变量有影响的特征。
  • 特征编码:对于分类特征,使用独热编码(One-Hot Encoding)或标签编码(Label Encoding)将其转换为数值形式。
  • 特征缩放:对于数值特征,可以进行标准化(Standardization)或归一化(Normalization),以提高模型的收敛速度。

3.2 特征选择

  特征选择是构建决策树的关键步骤,主要目的是选择最能区分不同类别的特征。常用的特征选择标准包括信息增益、基尼指数和均方误差。

3.2.1 计算特征的评价指标
  • 信息增益:计算每个特征的信息增益,选择信息增益最大的特征作为当前节点的分裂特征。
  • 基尼指数:计算每个特征的基尼指数,选择基尼指数最小的特征进行分裂。

3.3 数据划分

  根据选择的特征,将数据集划分为多个子集。每个子集对应于特征的一个取值。划分的过程是递归进行的,直到满足停止条件。

3.3.1 划分数据集
  • 根据特征的取值划分:对于每个特征 X i X_i Xi,根据其取值将数据集 D D D 划分为多个子集 D 1 , D 2 , … , D k D_1, D_2, \ldots, D_k D1,D2,,Dk

3.4 递归构建决策树

  在每个子集上递归地执行特征选择和数据划分的过程,直到满足停止条件。

3.4.1 停止条件
  • 达到最大树深度:设定一个最大深度 d m a x d_{max} dmax,当树的深度达到该值时停止分裂。
  • 节点样本数小于阈值:设定一个最小样本数 n m i n n_{min} nmin,当节点中的样本数小于该值时停止分裂。
  • 数据集的纯度达到标准:当数据集的熵或基尼指数小于设定的阈值时停止分裂。

3.5 剪枝

  剪枝是为了防止过拟合,提高模型的泛化能力。剪枝可以分为预剪枝和后剪枝。

3.5.1 预剪枝

  在构建树的过程中,提前停止分裂。当满足某个条件(如信息增益小于某个阈值)时,不再继续分裂。

3.5.2 后剪枝

在树构建完成后,评估每个节点的贡献,去除不必要的节点。后剪枝的步骤通常包括:

  1. 评估每个节点的性能:使用交叉验证等方法评估每个节点的性能。
  2. 去除不必要的节点:如果去除某个节点能够提高模型的性能,则进行剪枝。

3.6 模型评估

  模型评估是检验决策树性能的重要步骤,常用的方法包括:

3.6.1 交叉验证

  使用交叉验证(如 K 折交叉验证)来评估模型的泛化能力。将数据集划分为 K 个子集,依次使用 K-1 个子集进行训练,剩下的一个子集进行测试。

3.6.2 性能指标

根据任务类型选择合适的性能指标进行评估:

  • 分类任务:常用指标包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1 分数等。
  • 回归任务:常用指标包括均方误差(MSE)、均绝对误差(MAE)、决定系数(R²)等。

3.7 模型部署

  在模型评估通过后,可以将决策树模型部署到生产环境中,进行实际应用。部署时需要考虑模型的可维护性和可扩展性。

四、应用场景

决策树因其直观性和易解释性,在多个领域得到了广泛应用。以下将详细阐述决策树在金融、医疗和市场营销等领域的应用场景,并结合案例代码进行说明。

4.1 金融领域

信用评分

  在金融行业,决策树可以用于信用评分模型,帮助银行和金融机构评估借款人的信用风险。通过分析借款人的历史数据(如收入、信用历史、负债情况等),决策树能够预测其违约的可能性。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:借款人信息
data = {'Income': [50000, 60000, 45000, 80000, 30000, 70000],'Credit_History': [1, 1, 0, 1, 0, 1],'Debt': [20000, 30000, 25000, 40000, 15000, 35000],'Default': [0, 0, 1, 0, 1, 0]  # 0: 未违约, 1: 违约
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Income', 'Credit_History', 'Debt']]
y = df['Default']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'信用评分模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

风险评估

  在金融行业,决策树可以用于风险评估,帮助银行和金融机构评估借款人的信用风险。通过分析借款人的历史数据(如收入、信用历史、负债情况等),决策树能够预测其违约的可能性。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:借款人信息
data = {'Income': [50000, 60000, 45000, 80000, 30000, 70000],'Credit_History': [1, 1, 0, 1, 0, 1],'Debt': [20000, 30000, 25000, 40000, 15000, 35000],'Default': [0, 0, 1, 0, 1, 0]  # 0: 未违约, 1: 违约
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Income', 'Credit_History', 'Debt']]
y = df['Default']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'信用风险评估模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

4.2 医疗领域

疾病诊断

  在医疗领域,决策树可以用于疾病诊断,通过分析患者的症状、体征和历史病历,帮助医生做出诊断决策。例如,决策树可以用于预测患者是否患有糖尿病、心脏病等。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:患者信息
data = {'Age': [25, 45, 35, 50, 23, 60],'BMI': [22.5, 28.0, 26.5, 30.0, 21.0, 32.5],'Blood_Pressure': [120, 140, 130, 150, 110, 160],'Diabetes': [0, 1, 0, 1, 0, 1]  # 0: 不患病, 1: 患病
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'BMI', 'Blood_Pressure']]
y = df['Diabetes']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='gini', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'疾病诊断模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

患者分类

  在医疗领域,决策树可以用于患者分类,通过分析患者的症状、体征和历史病历,帮助医生做出准确的诊断。例如,决策树可以用于预测患者是否患有糖尿病、心脏病等。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:患者信息
data = {'Age': [25, 45, 35, 50, 23, 60],'BMI': [22.5, 28.0, 26.5, 30.0, 21.0, 32.5],'Blood_Pressure': [120, 140, 130, 150, 110, 160],'Diabetes': [0, 1, 0, 1, 0, 1]  # 0: 不患病, 1: 患病
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'BMI', 'Blood_Pressure']]
y = df['Diabetes']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='gini', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'患者分类模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

4.3 市场营销领域

客户细分

  在市场营销中,决策树可以用于客户细分,通过分析客户的购买行为、偏好和人口统计特征,帮助企业制定更有针对性的营销策略。例如,企业可以根据客户的年龄、收入和购买历史将客户分为不同的群体。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:客户信息
data = {'Age': [22, 35, 45, 23, 54, 33],'Income': [30000, 60000, 80000, 25000, 90000, 50000],'Purchase_History': [1, 0, 1, 0, 1, 1],  # 0: 未购买, 1: 已购买'Segment': [0, 1, 1, 0, 1, 1]  # 0: 低价值客户, 1: 高价值客户
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'Income', 'Purchase_History']]
y = df['Segment']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'客户细分模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

购买预测

  在市场营销中,决策树可以用于购买预测,通过分析客户的购买行为、偏好和人口统计特征,帮助企业识别潜在的高价值客户。这使得企业能够制定更有针对性的营销策略。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:客户信息
data = {'Age': [22, 35, 45, 23, 54, 33],'Income': [30000, 60000, 80000, 25000, 90000, 50000],'Purchase_History': [1, 0, 1, 0, 1, 1],  # 0: 未购买, 1: 已购买'Segment': [0, 1, 1, 0, 1, 1]  # 0: 低价值客户, 1: 高价值客户
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'Income', 'Purchase_History']]
y = df['Segment']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'购买预测模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

五、总结

  决策树作为一种经典的机器学习算法,以其直观性和易解释性在多个领域得到了广泛应用。通过对数据的特征选择和递归划分,决策树能够有效地进行分类和回归任务。在金融领域,决策树帮助机构评估信用风险;在医疗领域,它为疾病诊断提供了有力支持;在市场营销中,决策树则助力企业进行客户细分和精准营销。

  尽管决策树具有许多优点,但也存在过拟合和对噪声敏感等缺点。因此,在实际应用中,合理的特征选择、剪枝策略和模型评估至关重要。随着数据科学和人工智能技术的不断发展,决策树仍将继续发挥其重要作用,帮助各行业从海量数据中提取有价值的信息,做出更科学的决策。希望本文能够为您深入理解决策树的原理、实现步骤及应用场景提供有益的参考与启发。


  码文不易,本篇文章就介绍到这里,如果想要学习更多Java系列知识点击关注博主,博主带你零基础学习Java知识。与此同时,对于日常生活有困扰的朋友,欢迎阅读我的第四栏目:《国学周更—心性养成之路》,学习技术的同时,我们也注重了心性的养成。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/9317.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

C语言实现数据结构之堆

文章目录 堆一. 树概念及结构1. 树的概念2. 树的相关概念3. 树的表示4. 树在实际中的运用(表示文件系统的目录树结构) 二. 二叉树概念及结构1. 概念2. 特殊的二叉树3. 二叉树的性质4. 二叉树的存储结构 三. 二叉树的顺序结构及实现1. 二叉树的顺序结构2.…

如何关闭 Ubuntu22.04 LTS 的更新提醒

引言 众所周知,Ubuntu 的软件更新和版本更新提醒是又多又烦,如果不小心更新到了最新的 Ubuntu 还可能面临各种各样的问题,这里提供一个解决方法 步骤 首先按照下面步骤打开 Software & Updates 然后按照下面步骤依次点击 最后关闭即可…

CS61b part5

8.1 The Desire for Generality 今天我们将会讨论一个全新的主题,称为继承。为了铺垫,让我们考虑在过去几节课中构建的SList类和AList类。我们看到它们实际上具有完全相同的操作,它们都允许我们添加元素、获取元素、移除元素以及获取大小&am…

隆盛策略正规股票杠杠交易市场A股,盘中突变…

突然跌了。 查查配分析A股市场今天大幅高开,上证指数一度重返3500点之上,临近午盘,该指数翻绿。TMT赛道掀起涨停潮,成为上午A股市场最大亮点之一。 另外,多只近期强势股继续走强,有股票在短短9个交易日的时间股价自低位涨了约3倍。 隆盛策略以其专业的服务和较低的管理费用在…

学生公寓人走断电控制系统的设计要求

石家庄光大远通电气有限公司学生公寓人走断电系统技术背景用电器待机能耗往往是一种不易被发现的“隐藏的浪费”,如果将一户家庭的空调、洗衣机、电视、微波炉、电饭煲五类电器进行计算,待机功率在12W到15W,待机能耗0.2度到0.33度电。每年能耗…

解决yum命令报错“Could not resolve host: mirrorlist.centos.org

这个主要是yum源出了问题或者服务器网络有问题,检查网络排除网络问题后,可更换源 mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.k wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.huaweicloud.com/repository…

TikTok Spark Ads火花广告是什么?如何设置?

TikTok的广告类型多样、功能各异,如果你需要投放精准度更高、效果更持久、更能吸引用户点击和参与的广告,那么Spark Ads会是一个相当不错的选择。 一、什么是TikTok Spark Ads 1.概念 Spark Ads是直接使用真实的自然流量视频及其功能来进行宣传的一种原…

微软日志丢失事件敲响安全警钟

NEWS | 事件回顾 最近,全球最大的软件公司之一——微软,遭遇了一场罕见的日志丢失危机。据报告,从9月2日至9月19日,持续长达两周的时间里,微软的多项核心云服务,包括身份验证平台Microsoft Entra、安全信息…

「QT」几何数据类 之 QRectF 浮点型矩形类

✨博客主页何曾参静谧的博客📌文章专栏「QT」QT5程序设计📚全部专栏「VS」Visual Studio「C/C」C/C程序设计「UG/NX」BlockUI集合「Win」Windows程序设计「DSA」数据结构与算法「UG/NX」NX二次开发「QT」QT5程序设计「File」数据文件格式「PK」Parasolid…

Android音频进阶之PCM设备创建(九十三)

简介: CSDN博客专家、《Android系统多媒体进阶实战》一书作者 新书发布:《Android系统多媒体进阶实战》🚀 优质专栏: Audio工程师进阶系列【原创干货持续更新中……】🚀 优质专栏: 多媒体系统工程师系列【原创干货持续更新中……】🚀 优质视频课程:AAOS车载系统+…

【TMM2024】Frequency-Guided Spatial Adaptation for Camouflaged Object Detection

论文链接:https://arxiv.org/abs/2409.12421 这个论文研究 Camouflaged Object Detection (COD)问题,作者认为,使用 pretrained foundation model 可以改进COD的准确率,但是当前的 adaptor 大多学习空间特…

大数据-208 数据挖掘 机器学习理论 - 岭回归 和 Lasso 算法 原理

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完)HDFS(已更完)MapReduce(已更完&am…

Spark Streaming

流处理和批处理 spark streaming底层原理 滑动窗口 window窗口操作二 过车数据案例

关于圆周率-3

最后一个问题,欧拉公式, 到底要说明的是什么。从欧拉函数的四个特殊值可以看出, 可见这个函数的作用是将角度映射回它原来的数值。在螺旋楼梯的例子中,我们用虚数单位的倍数搭建楼梯,并构造角度,角度是一系…

npm : 无法加载文件 C:\Program Files\nodejs\npm.ps1,因为在此系统上禁止运行脚本。

npm : 无法加载文件 C:\Program Files\nodejs\npm.ps1,因为在此系统上禁止运行脚本。有关详细信息,请参阅 https:/go.microsoft.com/fwlink/?LinkID135170 中的 about_Exe cution_Policies。 所在位置 行:1 字符: 1 npm install ~~~ CategoryInf…

WPF+MVVM案例实战与特效(二十六)- 3D粒子方块波浪墙效果实现

文章目录 1、案例效果2、案例实现1、文件创建2. 功能代码实现3、粒子功能应用1、前端布局与样式2、代码解释2、 后端功能代码1、案例效果 2、案例实现 1、文件创建 打开 Wpf_Examples 项目、Models 文件夹下创建 3D粒子模型类 ParticleCubeWaveModel.cs 文件。在Tools 文件夹…

NVR设备ONVIF接入平台EasyCVR私有化部署视频平台如何安装欧拉OpenEuler 20.3 MySQL

在当今数字化时代,安防视频监控系统已成为保障公共安全和个人财产安全的重要工具。NVR设备ONVIF接入平台EasyCVR作为一款功能强大的智能视频监控管理平台,它不仅提供了视频远程监控、录像、存储与回放等基础功能,还涵盖了视频转码、视频快照、…

动态规划理论基础和习题【力扣】【算法学习day.26】

前言 ###我做这类文档一个重要的目的还是给正在学习的大家提供方向(例如想要掌握基础用法,该刷哪些题?)我的解析也不会做的非常详细,只会提供思路和一些关键点,力扣上的大佬们的题解质量是非常非常高滴&am…

webpack 执行流程 — 实现 myWebpack

前言 实现 myWebpack 主要是为了更好的理解,webpack 中的工作流程,一切都是最简单的实现,不包含细节内容和边界处理,涉及到 ast 抽象语法树和编译代码部分,最好可以打印出来观察一下,方便后续的理解。 re…