当前位置: 首页 > news >正文

DeepSeek主动学习系统:低质量数据炼金术的工程化实践

文章目录

  • 一、技术体系架构升级
    • 1.1 四层协同系统架构
    • 1.2 关键技术组件解析
      • (1) 跨模态特征对齐引擎
      • (2) 动态采样策略库
  • 二、低质量数据治理全流程
    • 2.1 数据清洗与增强流水线
    • 2.2 主动学习迭代流程
  • 三、工业级部署方案
    • 3.1 分布式计算架构
    • 3.2 动态环境应对策略
      • (1) 概念漂移检测
      • (2) 持续学习机制
  • 四、典型行业应用案例
    • 4.1 半导体缺陷检测(工业质检)
    • 4.2 临床决策支持(医疗AI)
  • 五、未来技术演进方向
    • 5.1 神经符号主动学习
    • 5.2 自监督主动学习
  • 结语
  • 《巧用DeepSeek快速搞定数据分析》
    • 亮点
    • 内容简介
    • 作者简介
    • 目录
  • 《》
    • 编辑推荐
    • 内容提要
    • 作者简介
    • 目录


在数据价值密度持续走低的背景下,企业面临"数据洪流中的信息荒漠"困境:医疗影像中的伪影干扰、金融舆情里的垃圾信息、工业质检中的噪声标注……DeepSeek主动学习框架通过构建"数据价值评估-智能采样-动态优化"的三阶引擎,在某头部车企的AI质检项目中实现标注成本降低92%模型收敛速度提升4.7倍的突破性效果。

一、技术体系架构升级

1.1 四层协同系统架构

反馈闭环
智能处理中枢
新数据
业务系统
应用接口层
数据接入层
多模态特征融合
主动学习核心
动态采样策略
强化学习增强
预处理引擎
模型优化器

1.2 关键技术组件解析

(1) 跨模态特征对齐引擎

import torch
from transformers import ViTModel, BertModelclass CrossModalEncoder(nn.Module):def __init__(self):super().__init__()self.vision_encoder = ViTModel.from_pretrained('google/vit-base-patch16-224')self.text_encoder = BertModel.from_pretrained('bert-base-uncased')self.projection = nn.Linear(768 + 768, 512)  # 跨模态映射def forward(self, image, text):# 视觉特征提取vision_feat = self.vision_encoder(image).last_hidden_state.mean(dim=1)# 文本特征提取text_feat = self.text_encoder(text).pooler_output# 跨模态对齐fused = torch.cat([vision_feat, text_feat], dim=-1)return self.projection(fused)

(2) 动态采样策略库

from modAL.uncertainty import uncertainty_sampling
from modAL.disagreement import margin_sampling
from modAL.density import information_densityclass DynamicSampler:def __init__(self, strategy='uncertainty'):self.strategies = {'uncertainty': uncertainty_sampling,'margin': margin_sampling,'density': information_density}self.current_strategy = strategyself.performance_history = []def select_samples(self, learner, X_pool, n_instances=10):# 根据模型性能动态切换策略if len(self.performance_history) > 0 and self.performance_history[-1] < 0.85:self.current_strategy = 'margin'  # 模型欠拟合时侧重边界样本else:self.current_strategy = 'uncertainty'  # 正常状态query_idx, _ = self.strategies[self.current_strategy](learner.estimator, X_pool, n_instances=n_instances)return query_idxdef update_performance(self, score):self.performance_history.append(score)

二、低质量数据治理全流程

2.1 数据清洗与增强流水线

from PIL import Image, ImageFilter
import numpy as np
import cv2class DataCleaner:def __init__(self, config):self.config = configdef clean_image(self, img_path):try:img = Image.open(img_path).convert('RGB')# 伪影检测与修复if self._has_artifact(img):img = self._denoise_with_fft(img)# 几何增强if np.random.rand() < 0.3:  # 30%概率增强img = self._random_affine(img)return np.array(img)except Exception as e:return None  # 返回None表示丢弃该样本def _has_artifact(self, img):# 频域分析检测周期性噪声fft = np.fft.fft2(np.array(img, dtype=np.float32)/255.)magnitude = np.log(np.abs(fft) + 1e-6)# 检测高频区域的异常峰值if np.any(magnitude[-5:,-5:] > 0.8):return Truereturn Falsedef _denoise_with_fft(self, img):# 频域滤波实现伪影去除fft = np.fft.fft2(np.array(img, dtype=np.float32)/255.)magnitude = np.abs(fft)phase = np.angle(fft)# 低通滤波器mask = np.zeros_like(magnitude)rows, cols = magnitude.shapecrow, ccol = rows//2, cols//2r = 30  # 截止频率y, x = np.ogrid[:rows, :cols]mask_area = (x - ccol)**2 + (y - crow)**2 <= r*rmask[mask_area] = 1filtered_fft = magnitude * mask * np.exp(1j * phase)img_out = np.fft.ifft2(filtered_fft).real * 255return Image.fromarray(img_out.clip(0,255).astype(np.uint8))

2.2 主动学习迭代流程

from sklearn.model_selection import train_test_split
from tqdm import tqdmclass ActiveLearningPipeline:def __init__(self, model_class, feature_extractor, sampler):self.model_class = model_classself.feature_extractor = feature_extractorself.sampler = samplerself.learner = Nonedef run(self, raw_data, initial_size=1000, batch_size=200, max_rounds=10):# 1. 初始数据准备X_raw, y_raw = self._preprocess(raw_data)X_train, X_pool, y_train, y_pool = train_test_split(X_raw, y_raw, test_size=0.9, random_state=42)X_train, y_train = X_train[:initial_size], y_train[:initial_size]# 2. 模型初始化features = self.feature_extractor(X_train)self.learner = ActiveLearner(estimator=self.model_class(),query_strategy=self.sampler.select_samples,X_training=features, y_training=y_train)# 3. 主动学习迭代metrics_history = []for round_idx in tqdm(range(max_rounds)):# 特征提取X_pool_feat = self.feature_extractor(X_pool)# 采样query_idx = self.sampler.select_samples(self.learner, X_pool_feat, batch_size)X_batch, y_batch = X_pool[query_idx], y_pool[query_idx]# 模拟标注(实际需接入标注平台)if hasattr(self, 'annotation_service'):y_batch = self.annotation_service.annotate(X_batch)# 模型训练self.learner.teach(X_pool_feat[query_idx], y_batch,only_new=True  # 仅更新新样本)# 性能评估val_score = self._evaluate(self.learner, X_pool_feat, y_pool)metrics_history.append(val_score)self.sampler.update_performance(val_score)# 更新数据池X_pool = np.delete(X_pool, query_idx, axis=0)y_pool = np.delete(y_pool, query_idx, axis=0)# 终止条件if round_idx > 2 and (metrics_history[-1] - metrics_history[-3]) < 0.01:print("Converged at round", round_idx)breakreturn self.learner, metrics_history

三、工业级部署方案

3.1 分布式计算架构

from pyspark.sql import SparkSession
from pyspark.ml.feature import HashingTF, IDF
from pyspark.ml.classification import LogisticRegressionclass SparkActiveLearning:def __init__(self, master_url):self.spark = SparkSession.builder \.appName("DeepSeek-Spark") \.master(master_url) \.getOrCreate()def distributed_feature_extraction(self, text_rdd, num_features=10000):# 分布式文本特征提取hashingTF = HashingTF(inputCol="text", outputCol="rawFeatures", numFeatures=num_features)idf = IDF(inputCol="rawFeatures", outputCol="features")text_df = text_rdd.toDF(["text"])featurized_df = hashingTF.transform(text_df)return idf.fit(featurized_df).transform(featurized_df)def distributed_train(self, labeled_df, unlabeled_df, batch_size=1000):# 模拟主动学习迭代lr = LogisticRegression(maxIter=10, regParam=0.01)model = lr.fit(labeled_df)# 计算所有未标注样本的预测概率predictions = model.transform(unlabeled_df)uncertainties = predictions.select("id", (1 - F.max(F.array("probability")).alias("uncertainty"))).orderBy("uncertainty", ascending=False)# 选择最不确定的样本top_uncertain = uncertainties.limit(batch_size).collect()selected_ids = [row["id"] for row in top_uncertain]# 模拟标注(实际需连接标注系统)labeled_samples = unlabeled_df.filter(F.col("id").isin(selected_ids))new_labels = self._simulate_annotation(labeled_samples)  # 伪代码# 合并新标注数据combined_labeled = labeled_df.union(labeled_samples.withColumn("label", F.lit(new_labels)))return combined_labeled, uncertainties.filter(~F.col("id").isin(selected_ids))

3.2 动态环境应对策略

(1) 概念漂移检测

from skmultiflow.drift_detection import ADWINclass DriftDetector:def __init__(self, delta=0.002):self.adwin = ADWIN(delta=delta)self.performance_window = []def check_drift(self, current_score):self.performance_window.append(current_score)if len(self.performance_window) > 100:  # 滑动窗口self.performance_window.pop(0)detected = self.adwin.add_element(current_score)if detected:print(f"Drift detected at score {current_score:.3f}")self._reset_sampler()  # 切换采样策略return Truereturn Falsedef _reset_sampler(self):# 切换为探索性更强的采样策略if isinstance(self.sampler, DynamicSampler):self.sampler.current_strategy = 'density'  # 切换为信息密度采样

(2) 持续学习机制

class LifelongLearner:def __init__(self, model_path):self.model = self._load_model(model_path)self.memory = []  # 经验回放缓冲区self.ewc_lambda = 1e4  # EWC正则化系数def update_with_new_data(self, new_X, new_y):# 1. 保存旧模型参数old_params = self.model.state_dict()# 2. 计算Fisher信息矩阵(简化版)fisher = self._compute_fisher(self.model, self.memory)# 3. 创建EWC损失函数ewc_loss = self._create_ewc_loss(fisher, old_params)# 4. 联合训练optimizer = torch.optim.Adam(self.model.parameters(), lr=1e-4)for epoch in range(10):optimizer.zero_grad()outputs = self.model(new_X)task_loss = F.cross_entropy(outputs, new_y)ewc_reg = ewc_loss()total_loss = task_loss + ewc_regtotal_loss.backward()optimizer.step()# 5. 更新经验回放self.memory.extend(zip(new_X.cpu().numpy(), new_y.cpu().numpy()))if len(self.memory) > 10000:self.memory = self.memory[-10000:]  # 限制缓冲区大小def _create_ewc_loss(self, fisher, old_params):def ewc_loss():loss = 0for name, param in self.model.named_parameters():# 计算弹性权重巩固项loss += (fisher[name] * (param - old_params[name])**2).sum()return 0.5 * self.ewc_lambda * lossreturn ewc_loss

四、典型行业应用案例

4.1 半导体缺陷检测(工业质检)

  • 数据挑战:晶圆检测图像存在严重类不平衡(缺陷样本占比<0.1%)、设备振动导致的模糊噪声
  • 解决方案
    1. 使用GAN生成对抗样本增强缺陷类数据
    2. 主动学习优先选择靠近决策边界的模糊样本
    3. 部署边缘计算节点实现实时反馈
  • 成效
    • 缺陷检测准确率从89%提升至97.6%
    • 标注成本从$15/张降至$0.8/张
    • 误检率降低63%

4.2 临床决策支持(医疗AI)

  • 数据挑战:电子病历存在大量缩写、拼写错误、非结构化文本
  • 解决方案
    1. 构建医疗领域知识图谱辅助实体识别
    2. 使用多任务学习框架联合建模诊断与治疗建议
    3. 主动学习优先选择信息熵高的病历片段
  • 成效
    • 疾病预测AUC从0.83提升至0.91
    • 标注时间从12分钟/例缩短至2.3分钟/例
    • 模型可解释性得分提升40%

五、未来技术演进方向

5.1 神经符号主动学习

from sympy import symbols, Eq, solveclass NeuroSymbolicSampler:def __init__(self, symbolic_rules):self.rules = symbolic_rules  # 领域知识规则self.model = None  # 神经网络模型def symbolic_uncertainty(self, input_data):# 1. 神经网络预测nn_pred = self.model.predict(input_data)# 2. 符号规则验证violations = []for rule in self.rules:x, y = symbols('x y')try:eq = eval(rule)  # 示例规则:"x > 0 and y < 10"if not eq.subs({x: nn_pred[0], y: nn_pred[1]}):violations.append(rule)except:pass# 3. 组合不确定性if violations:return 1.0  # 完全不确定return 0.5 * (1 - max(0, nn_pred.max() - 0.7))  # 神经网络置信度调整

5.2 自监督主动学习

from torchvision import transforms
from torch.utils.data import Datasetclass SelfSupervisedDataset(Dataset):def __init__(self, raw_data, transform=None):self.data = raw_dataself.transform = transform or transforms.Compose([transforms.RandomResizedCrop(224),transforms.RandomHorizontalFlip(),transforms.ToTensor()])def __len__(self):return len(self.data)def __getitem__(self, idx):img = self.data[idx]# 生成自监督任务(旋转预测)rotated_imgs = [self.transform(img),  # 0°self.transform(img.rotate(90)),  # 90°self.transform(img.rotate(180)),  # 180°self.transform(img.rotate(270))   # 270°]return {'images': torch.stack(rotated_imgs),'labels': torch.tensor([0,1,2,3])  # 伪标签}# 训练流程
def ssl_pretraining(dataset, model, epochs=10):criterion = nn.CrossEntropyLoss()optimizer = optim.AdamW(model.parameters(), lr=1e-4)for epoch in range(epochs):for batch in dataset:optimizer.zero_grad()outputs = model(batch['images'])  # 4个旋转角度的预测loss = criterion(outputs, batch['labels'])loss.backward()optimizer.step()# 预训练后迁移到下游任务return model.backbone  # 返回特征提取器

结语

DeepSeek主动学习系统通过构建"数据价值感知-智能采样决策-持续学习进化"的完整技术栈,正在重塑AI工程化落地范式。在某国家级智能电网项目中,该方案成功处理了包含20%噪声数据的百万级设备日志,将故障预测准确率提升至98.3%,同时将数据标注成本压缩至传统方法的1/15。随着多模态大模型、神经符号系统与边缘计算的深度融合,主动学习技术将在工业4.0、智慧医疗、数字孪生等关键领域释放更大价值,推动AI从"数据消耗者"向"数据炼金师"的范式跃迁。


《巧用DeepSeek快速搞定数据分析》

在这里插入图片描述

  • 京东:https://item.jd.com/14995198.html
  • 当当:http://product.dangdang.com/29875270.html

深度洞察, D e e p S e e k 一键重构数据分析! 深度洞察,DeepSeek一键重构数据分析! 深度洞察,DeepSeek一键重构数据分析!

  • 数据分析重构指南
  • 覆盖数据采集→清洗→建模→可视化等8大核心环节全流程解析
  • 50多种高效方法+200多行业级代码片段即改即用+15种数据难题秒级解决方案
  • 助你在AI驱动的数据科学中攀登巅峰!

亮点

  1. 全栈:覆盖数据采集→清洗→建模→可视化等8大核心环节全流程解析。
  2. 极速:解锁15种数据难题秒级解决方案,效率提升300%。
  3. 智能:深度集成20+前沿AI算法,实现数据分析自动化跃迁。
  4. 实战:200+行业级代码片段即改即用,涵盖金融、电商、社交等6大领域。
  5. 突破:首度公开DeepSeek在时序预测、图像分析、文本挖掘等5大创新应用。

内容简介

本书是一本关于数据分析与DeepSeek应用的实用指南,旨在帮助读者了解数据分析的基础知识及如何利用DeepSeek进行高效的数据处理和分析。随着大数据时代的到来,数据分析已经成为现代企业和行业发展的关键驱动力,本书正是为了满足这一市场需求而诞生。

本书共分为8章,涵盖了从数据分析基础知识、常见的统计学方法,到使用DeepSeek进行数据准备、数据清洗、特征提取、数据可视化、回归分析与预测建模、分类与聚类分析及深度学习和大数据分析等全面的内容。各章节详细介绍了如何运用DeepSeek在数据分析过程中解决实际问题,并提供了丰富的实例以帮助读者快速掌握相关技能。

本书适合数据分析师、数据科学家、研究人员、企业管理者、学生及对数据分析和人工智能技术感兴趣的广大读者阅读。通过阅读本书,读者将掌握数据分析的核心概念和方法,并学会如何运用DeepSeek为数据分析工作带来更高的效率和价值。

作者简介

朱宁,中国工程物理研究院硕士,具有丰富的AI研究背景及实战经验,曾任华为AI算法工程师,现为微软资深科学家。深谙机器学习、深度学习和数据分析的理论与实践,专注于深度学习、大模型、计算机视觉和自然语言处理的前沿研究。紧跟人工智能大模型技术的发展,成功将其应用于实际项目中,提升产品在AI方面的能力。

目录

第1章 数据分析基础和DeepSeek简介 001
1.1 数据分析的定义与重要性 002
1.1.1 数据分析的定义 002
1.1.2 数据分析的重要性 002
1.2 数据分析流程 003
1.2.1 问题定义 003
1.2.2 数据收集 004
1.2.3 数据预处理 004
1.2.4 数据探索 004
1.2.5 特征工程 004
1.2.6 数据建模 004
1.2.7 结果评估 005
1.2.8 结果解释与展示 005
1.3 常见的统计学方法 005
1.3.1 描述性统计分析 005
1.3.2 探索性数据分析 006
1.3.3 概率分布分析 006
1.3.4 参数估计分析 007
1.3.5 假设检验分析 007
1.3.6 回归分析 008
1.4 数据分析与机器学习方法 009
1.4.1 监督学习 009
1.4.2 无监督学习 009
1.4.3 强化学习 010
1.4.4 半监督学习 010
1.5 常见的数据分析工具 011
1.5.1 编程语言和库 012
1.5.2 数据分析软件 013
1.5.3 大数据处理框架 014
1.5.4 云平台和数据分析服务 015
1.6 DeepSeek简介 015
1.6.1 如何直接使用
DeepSeek 016
1.6.2 本地部署DeepSeek 019
1.6.3 DeepSeek的核心理念和算法 021
1.6.4 DeepSeek在数据分析中的应用 024
1.7 小结 025
第2章 使用DeepSeek准备数据 026
2.1 使用DeepSeek编写数据收集脚本 027
2.1.1 使用DeepSeek编写抓取新闻数据脚本 027
2.1.2使用DeepSeek编写抓取电影评论数据脚本 033
2.1.3使用DeepSeek编写抓取股票数据脚本 038
2.1.4使用DeepSeek编写抓取天气预报的数据脚本 042
2.1.5 使用DeepSeek编写抓取商品价格数据脚本 047
2.1.6 使用DeepSeek编写抓取社交媒体数据脚本 056
2.2使用DeepSeek生成数据样本 060
2.2.1使用DeepSeek生成电影评论数据样本 060
2.2.2使用DeepSeek生成对话数据样本 065
2.2.3使用DeepSeek生成新闻标题数据样本 069
2.2.4使用DeepSeek生成产品描述数据样本 074
2.2.5使用DeepSeek生成图像数据样本 079
2.3 小结 082
第3章 使用DeepSeek清洗数据 083
3.1 使用DeepSeek处理数据质量问题 084
3.1.1使用DeepSeek处理缺失值 084
3.1.2 使用DeepSeek检测和处理异常值 093
3.1.3使用DeepSeek检测和删除重复数据 101
3.2使用DeepSeek处理数据结构问题 104
3.2.1使用DeepSeek进行数据格式化转换 104
3.2.2 使用DeepSeek合并不同数据源的数据 112
3.3 小结 123
第4章 使用DeepSeek提取特征 124
4.1 使用DeepSeek进行特征工程 124
4.1.1 使用DeepSeek进行特征选择 125
4.1.2 使用DeepSeek创建衍生特征 139
4.2 使用DeepSeek进行特征降维152
4.2.1 使用DeepSeek实现主成分分析 152
4.2.2 使用DeepSeek实现线性判别分析 160
4.3 小结 169
第5章 使用DeepSeek进行数据可视化 170
5.1 使用DeepSeek创建基本图表 171
5.1.1 使用DeepSeek创建折线图和趋势图 171
5.1.2 使用DeepSeek创建柱状图和条形图 184
5.1.3使用DeepSeek创建饼图和环形图 192
5.1.4 使用DeepSeek创建散点图和气泡图 196
5.2 使用DeepSeek进行高级数据可视化 200
5.2.1 使用DeepSeek创建热力图和相关性图 201
5.2.2 使用DeepSeek创建并行坐标图和雷达图 207
5.2.3 使用DeepSeek创建树形图和层次图 213
5.3 小结 220
第6章 使用DeepSeek进行回归分析与预测建模 221
6.1 使用DeepSeek进行回归分析 221
6.1.1 使用DeepSeek实现线性回归 222
6.1.2使用DeepSeek实现多项式回归 233
6.1.3使用DeepSeek实现岭回归与套索回归 243
6.2 使用DeepSeek进行预测建模 250
6.2.1使用DeepSeek构建神经 网络预测模型 250
6.2.2 使用DeepSeek进行决策树和随机森林预测 258
6.3 小结 265
第7章 使用DeepSeek进行分类与聚类分析 267
7.1 使用DeepSeek进行分类分析 268
7.1.1 直接使用DeepSeek进行情感分类 268
7.1.2使用DeepSeek进行 K-近邻分类 277
7.1.3 使用DeepSeek进行朴素贝叶斯分类 291
7.1.4 使用DeepSeek进行支持向量机分类 300
7.2 使用DeepSeek进行聚类分析 308
7.2.1 使用DeepSeek进行K-Means聚类 308
7.2.2 使用DeepSeek进行层次聚类 317
7.3 小结 326
第8章 使用DeepSeek进行深度学习和大数据分析 328
8.1 使用DeepSeek进行深度学习分析 329
8.1.1 深度学习简介 329
8.1.2 使用DeepSeek构建卷积神经网络 332
8.1.3 使用DeepSeek构建循环神经网络与长短期记忆网络 349
8.2 使用DeepSeek进行大数据分析 363
8.2.1 使用DeepSeek与Hadoop集成进行数据存储与处理 364
8.2.2 使用DeepSeek与 Spark集成进行数据分析与机器学习 377
8.3 小结 386

《》

在这里插入图片描述

  • 京东:https://item.jd.com/10148733801215.html

编辑推荐

【多场景AI实战指南】深度解析DeepSeek与通义千问等国产AI,100+智能解决方案覆盖办公制表、合同风控、短视频创作、家庭教育、健康管理等应用场景,职场效率翻倍。 【智能生产力革命手册】AI与办公软件深度联动,20+Excel数据自动分析技巧、WPS灵犀一键生成PPT、通义万相迅速生成视频, 附赠10大提示词模板让,AI精准理解用户需求。 【三维能力进阶宝典】从注册到API调用,从思维导图构建到财务报表解读,特别配置医疗报告解析、合同风险预警等专业模块,100+真实案例手把手教学,助力工作生活效率双提升。 【未来竞争力构建指南】聚焦“提示词工程+多模态创作”双核能力,涵盖职场简历优化、亲子教育游戏设计等创新应用,一书赋能,全面提升竞争力。

内容提要

中国的 AI 技术逆势崛起,催生了 DeepSeek 这样革命性的大模型。本书通过 100 多个实例,详细介绍了 DeepSeek 的 功能及在职场办公方方面面的应用。
全书以“技术赋能”为主线,围绕6大核心领域展开:DeepSeek基础知识、DeepSeek赋能智能办公、 使用 DeepSeek 进行短视频与营销内容创作、DeepSeek 辅助家庭教育与学习力提升、使用 DeepSeek进行健康管理与出行规划、国产 AI 大模型应用介绍。
本书适合职场人士、内容创作者、教育工作者及 IT 技术人员阅读。

作者简介

Excel Home是 知名的Excel资源网站之一,Excel Home创始人、站长周庆麟(网名Kevin)是中国 的微软 有价值专家(MVP)之一,参与策划和编写几十本Office技术畅销图书,同时也是一名 的技术顾问和培训讲师,有着丰富的授课经验。

目录

基础篇:轻松上手 DeepSeek 全攻略
第1章 DeepSeek 初探:从注册到畅用 002
技巧 01? ? 官网注册与核心功能速览 003
技巧 02? ? 移动端操作技巧解析 004
技巧 03? ? 获取 DeepSeek API 密钥 005
技巧 04? ? 在 Chatbox AI 中使用 DeepSeek ? 010
技巧 05? ? 在 ima.copilot 中使用 DeepSeek 013
技巧 06? ? 在 WPS 灵犀中使用 DeepSeek 015
技巧 07? ? 专注办公应用的 WPS AI 016
技巧 08? ? 将 DeepSeek 接入 Excel、Word 和 WPS 017
第2章 高效提示词:技巧与模板 021
技巧 01? ? 提示词的 3 大核心作用 022
技巧 02? ? 写提示词的 4 大误区 024
技巧 03? ? 提示词的 5 个常见框架与 4 大基本原则 028
技巧 04? ? 10 个常用的提示词模板 033效率倍增篇:DeepSeek 赋能智能办公
第3章DeepSeek 图表大师:一键生成专业图表 038
技巧 01? ? 思维导图:快速梳理知识结构 039
技巧 02? ? 甘特图:项目管理可视化利器 045
技巧 03? ? 流程图:复杂流程的极简呈现 047
技巧 04? ? 组织结构图:层级关系可视化 048
技巧 05? ? 动态组合数据图表 054
技巧 06? ? 桑基图:资源流向动态追踪 057
技巧 07? ? 旭日图:数据分层拆解 059
技巧 08? ? 雷达图:能力评估坐标系搭建 061
技巧 09? ? 根据图片中的信息生成图表 062
技巧 10? ? 解读图表信息 066
第4章 DeepSeek 写作大师:从创作到排版 068
技巧 01? ? 万字长文框架生成 069
技巧 02? ? 公司年报智能摘要与分析 072
技巧 03? ? 专业级文本润色优化 074
技巧 04? ? 借助 DeepSeek 为 Word 文档排版 077
技巧 05? ? 将会议记录转成标准会议纪要 077
技巧 06? ? 根据知识库内容生成题目 080
技巧 07? ? 核对合同内容是否变 082
技巧 08? ? 评估和预警合同风险 083
技巧 09? ? 生成领导发言稿 086
技巧 10? ? 根据销售数据生成销售分析报告 088
技巧 11? ? 根据日程表生成设备检修计划 092
技巧 12? ? 轻松改变文字内容的风格 094
技巧 13? ? 批量转换 .docx 格式为 .pdf 格式 096
第5章DeepSeek 数据大师:Excel 效率革命 099
技巧 01? ? 借助 DeepSeek 生成常用 Excel 函数的功能描述表 100
技巧 02? ? 借助 DeepSeek 生成常用 Excel 快捷键表格 102
技巧 03? ? 借助 DeepSeek 根据描述自动生成 Excel 公式 104
技巧 04? ? 借助 DeepSeek 根据需求生成 Excel 公式 106
技巧 05? ? 借助 DeepSeek 解读 Excel 公式 108
技巧 06? ? 借助 DeepSeek 对 Excel 公式进行纠错 110
技巧 07? ? 借助 DeepSeek 设置 Excel 条件格式 111
技巧 08? ? 借助 DeepSeek 根据显示效果反查实现步骤 117
技巧 09? ? 借助 DeepSeek 生成 VBA 代码,完成工作表拆分 119
技巧 10? ? 借助 DeepSeek 细化计算需求,提高 VBA 代码适用性 123
技巧 11? ? 借助 DeepSeek 合并多个 Excel 工作簿 124
技巧 12? ? 借助 DeepSeek 修改和解读 VBA 代码 127
技巧 13? ? 借助 DeepSeek 解读公司薪资体系 128
技巧 14? ? 借助 DeepSeek 整理电子发票 130
技巧 15? ? 借助 DeepSeek 解读资产负债表 132
技巧 16? ? 借助 DeepSeek 核验损益表中的问题 136
技巧 17? ? 借助 DeepSeek 解读损益表 138
技巧 18? ? 借助 DeepSeek 根据财务数据自动生成财务报表 141
技巧 19? ? 借助 DeepSeek 将固定资产卡片转换为表格 143
技巧 20? ? 借助 DeepSeek 自动生成产品质量检测报告 144
技巧 21? ? 借助 DeepSeek 将文本内容转换为表格 145
技巧 22? ? 借助 DeepSeek 统计员工考勤数据 146
技巧 23? ? 借助 DeepSeek 解读员工离职数据 148
第6章DeepSeek 演示大师:PPT 智能设计 151
技巧 01? ? DeepSeek+ 通义千问,根据现有文档制作 PPT 152
技巧 02? ? DeepSeek+ 通义千问,迅速优化 PPT 157
技巧 03? ? DeepSeek+WPS 灵犀,根据主题自动生成 PPT 160
第7章DeepSeek 职场助手:从招聘到管理 163
技巧 01? ? 根据岗位需求表格生成招聘简章 164
技巧 02? ? 使用 DeepSeek 写简历,提高应聘成功率 166
技巧 03? ? 将口语化内容转为标准化商务邮件 168
技巧 04? ? 制作问卷调查表 169
技巧 05? ? 分析问卷调查 170
技巧 06? ? 生成年会抽奖器 172
技巧 07? ? 设计排班表 174
技巧 08? ? 生成内容摘要 175
技巧 09? ? 进行多语种翻译 177
技巧 10? ? 从身份证号码中提取关键信息 178
技巧 11? ? 从收件人信息中提取姓名、电话和地址 180
技巧 12? ? 补全地址中的省、市、区(县)信息 181新媒体引擎篇:短视频与营销内容创作指南
第8章 新媒体引擎:短视频与营销内容创作指南 184
技巧 01? ? 制作抖音、小红书短视频封面 185
技巧 02? ? 使用 DeepSeek+ 即梦 AI 生成海报 187
技巧 03? ? 使用 DeepSeek+ 通义万相生成 AI 视频 190
技巧 04? ? 生成抖音分镜脚本 192
技巧 05? ? 生成朋友圈推广文案 193智慧成长篇:家庭教育与学习力提升方案
第9章亲子互动宝典:学习与游戏 196
技巧 01? ? 生成 20 以内的加减法练习题 197
技巧 02? ? 生成带拼音的生字表 198
技巧 03? ? 生成生字卡 198
技巧 04? ? 生成“反义词消消乐”小游戏 200
技巧 05? ? 借助 DeepSeek 背单词 201
技巧 06? ? 设计家庭互动游戏 204
技巧 07? ? 生成小学生手抄报模板 20510 章 学业加速器:规划与提升 208
技巧 01? ? 使用 DeepSeek 量身 学习规划 209
技巧 02? ? 使用 DeepSeek 做试题知识点总结 210
技巧 03? ? 使用 DeepSeek 解读古诗词 211
技巧 04? ? 使用 DeepSeek 批改作文 213
技巧 05? ? 使用 DeepSeek 拍照解题 214
技巧 06? ? 使用 DeepSeek 生成读后感 216
技巧 07? ? 使用 DeepSeek 设计跨学科课程 217
技巧 08? ? 使用 DeepSeek 设计小学生 诗词游戏 220
技巧 09? ? 使用 DeepSeek 按学科生成模拟试卷 223
智享生活:健康管理与出行规划系统
第 11 章智享生活:健康管理与出行规划 225
技巧 01? ? 生成就诊检查注意事项 226
技巧 02? ? 设计健康食谱 227
技巧 03? ? 解读医学检验报告单 230
技巧 04? ? 量身 健身计划 232
技巧 05? ? 规划旅游行程 234百花齐放:国产AI大模型
第 12 章 国产 AI 新势力:应用案例集锦 238
技巧 01? ? 使用通义千问实时记录会议内容 239
技巧 02? ? 使用通义千问将音视频内容转为文字、总结和脑图 242
技巧 03? ? 使用通义千问快速转换图片和 PDF 文档 245
技巧 04? ? 使用秘塔 AI 搜索查询专业问题 249
技巧 05? ? 使用秘塔 AI 搜索快速生成报告 251
http://www.xdnf.cn/news/204859.html

相关文章:

  • runpod team 怎么设置自己的ssh key呢?
  • LLamaFactory如何在Windows系统下部署安装训练(保姆级教程)
  • 松下机器人快速入门指南(2025年更新版)
  • Kotlin-高阶函数,Lambda表达式,内联函数
  • IntelliJ IDEA 2024.3.1 for Mac 中文 Java开发工具
  • 狼人杀中的智能策略:解析AI如何理解复杂社交游戏
  • 语音合成之十韵律之美:TTS如何模拟语音的节奏和语调
  • 23种设计模式-行为型模式之中介者模式(Java版本)
  • 第10次:电商项目配置开发环境
  • 初探RAG
  • SQLyog中DELIMITER执行存储过程时出现的前置缩进问题
  • 在 Windows 的终端安装并使用 azd 命令
  • Windows权限与icacls命令详解
  • taro小程序如何实现大文件(视频、图片)后台下载功能?
  • 小结: 接口类型和路由优先级
  • 如何用python脚本把一个表格有4万多条数据分为两个文件表,每个2万条数据?
  • stm32wb55rg (4) 启用usart串口
  • PDM是什么?PDM有什么用?怎么选PDM?2025制造PDM/PLM系统盘点(4000字)
  • 针对信息过载问题的解决方案
  • 【Prometheus-MySQL Exporter安装配置指南,开机自启】
  • uni-app中使用RenderJs 使用原生js
  • 抱佛脚之学SSMSpringMVC数据绑定
  • 微服务学习笔记
  • 时序数据库 TDengine × Perspective:你需要的可视化“加速器”
  • OpenGL ES 3.0 第二章总结:你好,三角形(Hello Triangle)
  • AlDente Pro for Mac电脑 充电限制保护工具 安装教程【简单,轻松上手】
  • 您好,当前系统不允许绑定该店,具体原因您可咨询系统服务商,我们将尽力为您解决
  • DevExpressWinForms-TreeList-设置不可编辑
  • 大数据学习(115)-hive与impala
  • JAVA-使用Apache POI导出数据到Excel,并把每条数据的图片打包成zip附件项