Python从0到100(六十二):机器学习实战-预测波士顿房价

在这里插入图片描述

前言: 零基础学Python:Python从0到100最新最全教程。 想做这件事情很久了,这次我更新了自己所写过的所有博客,汇集成了Python从0到100,共一百节课,帮助大家一个月时间里从零基础到学习Python基础语法、Python爬虫、Web开发、 计算机视觉、机器学习、神经网络以及人工智能相关知识,成为学习学习和学业的先行者!
欢迎大家订阅专栏:零基础学Python:Python从0到100最新最全教程!

一、导入数据

在这个项目中,我们利用马萨诸塞州波士顿郊区的房屋信息数据训练和测试一个模型,并对模型的性能和预测能力进行测试。此项目的数据集来自UCI机器学习知识库。波士顿房屋这些数据于1978年开始统计,共506个数据点,涵盖了麻省波士顿不同郊区房屋14种特征的信息。
通过该数据训练后的好的模型可以被用来对房屋做特定预测—尤其是对房屋的价值。对于房地产经纪等人的日常工作来说,这样的预测模型被证明非常有价值。
本项目对原始数据集做了以下处理:

  • 有16个'MEDV' 值为50.0的数据点被移除。 这很可能是由于这些数据点包含遗失看不到的值
  • 有1个数据点的 'RM' 值为8.78. 这是一个异常值,已经被移除。
  • 对于本项目,房屋的'RM''LSTAT''PTRATIO'以及'MEDV'特征是必要的,其余不相关特征已经被移除。
  • 'MEDV'特征的值已经过必要的数学转换,可以反映35年来市场的通货膨胀效应。
import numpy as np
import pandas as pd
from sklearn.model_selection import ShuffleSplit
import visuals as vs
%matplotlib inline# Load the Boston housing dataset
data = pd.read_csv('housing.csv')
prices = data['MEDV']
features = data.drop('MEDV', axis = 1)
data.head(5)

二、分析数据

在项目的第一个部分,会对波士顿房地产数据进行初步的观察,通过对数据的探索来熟悉数据可以让你更好地理解和解释你的结果。

由于这个项目的最终目标是建立一个预测房屋价值的模型,我们需要将数据集分为特征(features)目标变量(target variable)

  • 特征 'RM''LSTAT',和 'PTRATIO',给我们提供了每个数据点的数量相关的信息。
  • 目标变量 'MEDV',是我们希望预测的变量。

他们分别被存在 featuresprices 两个变量名中。

基础统计运算

  • 计算 prices 中的 'MEDV' 的最小值、最大值、均值、中值和标准差;
  • 将运算结果储存在相应的变量中。
# TODO: Minimum price of the data
minimum_price = np.min(prices)# TODO: Maximum price of the data
maximum_price = np.max(prices)# TODO: Mean price of the data
mean_price =np.mean(prices)# TODO: Median price of the data
median_price = np.median(prices)# TODO: Standard deviation of prices of the data
std_price = np.std(prices)# Show the calculated statistics
print("Statistics for Boston housing dataset:\n")
print("Minimum price: ${:.2f}".format(minimum_price)) 
print("Maximum price: ${:.2f}".format(maximum_price))
print("Mean price: ${:.2f}".format(mean_price))
print("Median price ${:.2f}".format(median_price))
print("Standard deviation of prices: ${:.2f}".format(std_price))

在这里插入图片描述

特征观察

如前文所述,本项目中我们关注的是其中三个值:'RM''LSTAT''PTRATIO',对每一个数据点:

  • 'RM' 是该地区中每个房屋的平均房间数量;
  • 'LSTAT' 是指该地区有多少百分比的业主属于是低收入阶层(有工作但收入微薄);
  • 'PTRATIO' 是该地区的中学和小学里,学生和老师的数目比(学生/老师)。

凭直觉,上述三个特征中对每一个来说,你认为增大该特征的数值,'MEDV'的值会是增大还是减小呢?

‘1’: ‘RM’ 是该地区中每个房屋的平均房间数量:

  • ‘回答:’ 'RM’增加,意味着房子的总面积会增加,所以价值会更高。

‘2’: ‘LSTAT’ 是指该地区有多少百分比的业主属于是低收入阶层(有工作但收入微薄);_

  • ‘回答:’ 'LSTAT’占比增加,低收入阶层增加,可支配消费能力就会不多,房屋的价值不会更高。

‘3’: ‘PTRATIO’ 是该地区的中学和小学里,学生和老师的数目比(学生/老师)

  • ‘回答:’ 'PTRATIO’增加,说明学生/老师数目比增加,优质教育程度下降,政府配额不足,学位房优势不明显,价值会下降。

三、 建立模型

定义衡量标准

如果不能对模型的训练和测试的表现进行量化地评估,我们就很难衡量模型的好坏。通常我们会定义一些衡量标准,这些标准可以通过对某些误差或者拟合程度的计算来得到。我们通过运算[决定系数] R 2 R^2 R2 来量化模型的表现。模型的决定系数是回归分析中十分常用的统计信息,经常被当作衡量模型预测能力好坏的标准。

R 2 R^2 R2 的数值范围从0至1,表示目标变量的预测值和实际值之间的相关程度平方的百分比。一个模型的 R 2 R^2 R2 值为0还不如直接用平均值来预测效果好;而一个 R 2 R^2 R2 值为1的模型则可以对目标变量进行完美的预测。从0至1之间的数值,则表示该模型中目标变量中有百分之多少能够用特征来解释。模型也可能出现负值的 R 2 R^2 R2,这种情况下模型所做预测有时会比直接计算目标变量的平均值差很多。

在下方代码的 performance_metric 函数中,我们实现:

  • 使用 sklearn.metrics 中的 r2_score 来计算 y_truey_predict R 2 R^2 R2 值,作为对其表现的评判。
  • 将他们的表现评分储存到 score 变量中。
# TODO: Import 'r2_score'
from sklearn.metrics import r2_score
def performance_metric(y_true, y_predict):score= r2_score(y_true,y_predict)# Return the scorereturn score

拟合程度

假设一个数据集有五个数据且一个模型做出下列目标变量的预测:

真实数值预测数值
3.02.5
-0.50.0
2.02.1
7.07.8
4.25.3
你觉得这个模型已成功地描述了目标变量的变化吗?如果成功,请解释为什么,如果没有,也请给出原因。

提示1:运行下方的代码,使用 performance_metric 函数来计算 y_truey_predict 的决定系数。

提示2 R 2 R^2 R2 分数是指可以从自变量中预测的因变量的方差比例。 换一种说法:

  • R 2 R^2 R2 为0意味着因变量不能从自变量预测。
  • R 2 R^2 R2 为1意味着可以从自变量预测因变量。
  • R 2 R^2 R2 在0到1之间表示因变量可预测的程度。
  • R 2 R^2 R2 为0.40意味着 Y 中40%的方差可以从 X 预测。
# Calculate the performance of this model
score = performance_metric([3, -0.5, 2, 7, 4.2], [2.5, 0.0, 2.1, 7.8, 5.3])
print("Model has a coefficient of determination, R^2, of {:.3f}.".format(score))

Model has a coefficient of determination, R^2, of 0.923.

R^2=0.923,决定系数接近1,说明已经成功的描述了目标变量的变化.

数据分割与重排

接下来,我们需要把波士顿房屋数据集分成训练和测试两个子集。通常在这个过程中,数据也会被重排列,以消除数据集中由于顺序而产生的偏差。

  • 使用 sklearn.model_selection 中的 train_test_split, 将 featuresprices 的数据都分成用于训练的数据子集和用于测试的数据子集。
    • 分割比例为:80%的数据用于训练,20%用于测试;
    • 选定一个数值以设定 train_test_split 中的 random_state ,这会确保结果的一致性;
  • 将分割后的训练集与测试集分配给 X_train, X_test, y_trainy_test
# TODO: Import 'train_test_split'
from sklearn.model_selection import train_test_split# X_train:训练输入数据
# X_test:测试输入数据
# y_train:训练标签
# y_test:测试标签X = np.array(features)
Y = np.array(prices)# TODO: Shuffle and split the data into training and testing subsets
X_train, X_test, y_train, y_test =train_test_split(X, Y, test_size = 0.2,random_state=30)# Success
print("Training and testing split was successful.")

训练及测试

测试数据集通过未知数据来验证算法效果。如果没有数据来对模型进行测试,无法验证未知数据对结果预测。


四、分析模型的表现

在项目的第四步,我们来看一下不同参数下,模型在训练集和验证集上的表现。这里,我们专注于一个特定的算法(带剪枝的决策树,但这并不是这个项目的重点),和这个算法的一个参数 'max_depth'。用全部训练集训练,选择不同'max_depth' 参数,观察这一参数的变化如何影响模型的表现。画出模型的表现来对于分析过程十分有益。

学习曲线

下方区域内的代码会输出四幅图像,它们是一个决策树模型在不同最大深度下的表现。每一条曲线都直观得显示了随着训练数据量的增加,模型学习曲线的在训练集评分和验证集评分的变化,评分使用决定系数 R 2 R^2 R2。曲线的阴影区域代表的是该曲线的不确定性(用标准差衡量)。

vs.ModelLearning(features, prices)

在这里插入图片描述
max-depth = 1 ;当训练数据从0到50增加时,训练集曲线的评分急速下降,验证集曲线的评分急速增加,随着数据量大于50再往上增加,训练集评分逐渐缓慢0.5附近收敛,验证集评分逐渐缓慢向0.4左右收敛,分数大于100以后,训练集评分和验证集评分基本趋向稳定。如果再有更多的训练数据,也不会有效提升模型的表现。

复杂度曲线

下列代码内的区域会输出一幅图像,它展示了一个已经经过训练和验证的决策树模型在不同最大深度条件下的表现。这个图形将包含两条曲线,一个是训练集的变化,一个是验证集的变化。跟学习曲线相似,阴影区域代表该曲线的不确定性,模型训练和测试部分的评分都用的 performance_metric 函数。

vs.ModelComplexity(X_train, y_train)

在这里插入图片描述
1:当模型以最大深度 1训练时,模型的预测是出现很大的偏差还是出现了很大的方差?

  • ** 回答:** 欠拟合,出现大的偏差

2:当模型以最大深度10训练时,情形又如何呢?

  • ** 回答:** 过拟合,出现大的方差

3:图形中的哪些特征能够支持你的结论?

  • ** 回答:** 当深度=1时训练集评分和验证集评分比较低。深度=10时,训练集评分和验证集评分误差越来越大。

五、评估模型的表现

我们使用 fit_model 中的优化模型去预测客户特征集:

网格搜索法

1: 什么是网格搜索法?

  • 回答: 通过各种训练数据训练一堆模型,然后通过交叉验证数据挑选最佳模型。

2:如何用它来优化模型?

  • **回答:**例如决策树算法,通过不同深度的1,2,3,4的训练数据模型,通过交叉验证数据算出F1得分最高的,即最优化参数模型。

K折交叉验证法:

1:什么是K折交叉验证法

  • 回答: 数据被按一定比例分成了训练集和测试集,在K折交叉验证中训练集又被分成了K份,每一份作为验证集。并进行K份训练和验证,最后求出平均分数,以此来得出最优参数和最优模型。

2:GridSearchCV 是如何结合交叉验证来完成对最佳参数组合的选择的?

  • 回答: 可以通过输入参数,给出最优化的结果和参数

3:GridSearchCV 中的’cv_results_'属性能告诉我们什么?

  • 回答: 通过修改 fit_model(X_train, y_train) 函数的返回值 print(pd.DataFrame(reg.cv_results_)) 可以看到显示的是每次训练模型的结果集

4:网格搜索为什么要使用K折交叉验证?K折交叉验证能够避免什么问题?

  • 回答: 为了更好地拟合和预测,得出最优参数和最优模型。K折交叉验证通过将训练集分成K份,每一份依次作为验证集,并进行K次训练和验证,最后求出平均分数,这样可以减少模型表现得评分误差,从而更准确地找到最优参数

拟合模型

我们使用决策树算法训练一个模型。为了得出的是一个最优模型,我们需要使用网格搜索法训练模型,以找到最佳的 'max_depth' 参数。我们把'max_depth' 参数理解为决策树算法在做出预测前,允许其对数据提出问题的数量。决策树是监督学习算法中的一种。
ShuffleSplitScikit-Learn 版本0.17和0.18中有不同的参数。对于下面代码单元格中的 fit_model 函数:

  1. 定义 'regressor' 变量: 使用 sklearn.tree 中的 DecisionTreeRegressor 创建一个决策树的回归函数;
  2. 定义 'params' 变量: 为 'max_depth' 参数创造一个字典,它的值是从1至10的数组;
  3. 定义 'scoring_fnc' 变量: 使用 sklearn.metrics 中的 make_scorer 创建一个评分函数。将 ‘performance_metric’ 作为参数传至这个函数中;
  4. 定义 'grid' 变量: 使用 sklearn.model_selection 中的 GridSearchCV 创建一个网格搜索对象;将变量'regressor', 'params', 'scoring_fnc''cross_validator' 作为参数传至这个对象构造函数中;
# TODO: Import 'make_scorer', 'DecisionTreeRegressor', and 'GridSearchCV'
from sklearn.metrics import  make_scorer
from sklearn.tree import DecisionTreeRegressor
from sklearn.model_selection import GridSearchCVdef fit_model(X, y):cv_sets = ShuffleSplit(n_splits=10, test_size=0.20, random_state=0)regressor = DecisionTreeRegressor(random_state=0)params = {"max_depth":list(range(1,11))}scoring_fnc = make_scorer(performance_metric)grid = GridSearchCV(regressor,params,scoring=scoring_fnc,cv=cv_sets)grid = grid.fit(X, y)return grid

六、做出预测

当我们用数据训练出一个模型,它现在就可用于对新的数据进行预测。在决策树回归函数中,模型已经学会对新输入的数据提问,并返回对目标变量的预测值。我们可以用这个预测来获取数据未知目标变量的信息,这些数据必须是不包含在训练数据之内的。

# Fit the training data to the model using grid search
reg = fit_model(X_train, y_train)# clf.cv_results_ 是选择参数的日志信息  
#print(pd.DataFrame(reg.cv_results_))
# Produce the value for 'max_depth'
print("Parameter 'max_depth' is {} for the optimal model.".format(reg.best_estimator_.get_params()['max_depth']))

最优模型的最大深度是 max_depth = 4

预测销售价格

假如我们是一个在波士顿地区的房屋经纪人,并期待使用此模型以帮助你的客户评估他们想出售的房屋。你已经从你的三个客户收集到以下的资讯:

特征客戶 1客戶 2客戶 3
房屋内房间总数5 间房间4 间房间8 间房间
社区贫困指数(%被认为是贫困阶层)17%32%3%
邻近学校的学生-老师比例15:122:112:1
  • 你会建议每位客户的房屋销售的价格为多少?
  • 从房屋特征的数值判断,这样的价格合理吗?为什么?

运行下列的代码区域,使用你优化的模型来为每位客户的房屋价值做出预测。

# Produce a matrix for client data
client_data = [[5, 17, 15], # Client 1[4, 32, 22], # Client 2[8, 3, 12]]  # Client 3# Show predictions
for i, price in enumerate(reg.predict(client_data)):print("Predicted selling price for Client {}'s home: ${:,.2f}".format(i+1, price))

Predicted selling price for Client 1’s home: $409,752.00
Predicted selling price for Client 2’s home: $220,886.84
Predicted selling price for Client 3’s home: $937,650.00

1: 你会建议每位客户的房屋销售的价格为多少?

回答:

  • 客户1建议价格:$409,752.00 理由是:5间房 社区贫困指数为17%不到1/5 学生:老师比例15:1,教育环境中等偏上,房屋宜居性良好,综上价格合理。

  • 客户2建议价格:$220,886.84 理由是:4间房 社区贫困指数将近1/3,学生:老师比例22:1,教育环境很一般。房屋购买吸引力不是很好,所以价值低合理

  • 客户3建议价格:$937,650.00 理由是:8间房 社区贫困指数只有3%属于富人区,老师比例12:1教育环境优,综上该房屋属于上游配套,房间较高合理。

2: 从房屋特征的数值判断,这样的价格合理吗?为什么?

回答: 客户1、客户2、客户2的预测数据分别为:$409,752.00 、$220,886.84、 $937960;房间越多价值越高,邻近学校的学生-老师比例越低价值越高,社区贫困 指数(%)占比越低价值越高,这三个房屋特征数据预测数来的数据我认为是比较合理的,从价值来看几个特征衡量价值影响权重分别为:社区贫困指数 (高端生活区)> 邻近学校的学生-老师比例 (教育资源)> 房屋内房间总数

刚刚预测了三个客户的房子的售价。在这个练习中,我们用最优模型在整个测试数据上进行预测, 并计算相对于目标变量的决定系数 R 2 R^2 R2 的值。

# TODO Calculate the r2 score between 'y_true' and 'y_predict'
predicted = reg.predict(X_test)
r2 = performance_metric(y_test,predicted)print("Optimal model has R^2 score {:,.2f} on test data".format(r2))

Optimal model has R^2 score 0.80 on test data

R^2=0.8,说明符合变量的变化的结果.

模型健壮性

一个最优的模型不一定是一个健壮模型。有的时候模型会过于复杂或者过于简单,以致于难以泛化新增添的数据;有的时候模型采用的学习算法并不适用于特定的数据结构;有的时候样本本身可能有太多噪点或样本过少,使得模型无法准确地预测目标变量。这些情况下我们会说模型是欠拟合的。模型是否足够健壮来保证预测的一致性?

vs.PredictTrials(features, prices, fit_model, client_data)

在这里插入图片描述

七、总结与展望

本次波士顿房价预测分析,我们成功地训练了一个决策树模型,并对其性能进行了评估。然而,我们也发现了一些问题:

1978年的数据在考虑通货膨胀的前提下,在今天可能不再适用。
数据中呈现的特征不足以完全描述一个房屋。
波士顿大都市的数据可能不适用于其他乡镇地区。
单纯依赖社区环境来判断房屋价值是不够全面的。
在未来的研究中,我们可以尝试引入更多特征,如房屋的新旧程度、楼层、建筑结构等,以提高模型的预测能力。同时,也可以探索其他机器学习算法,以找到更适合波士顿房价预测的模型。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/1556521.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

77寸OLED透明触摸屏有哪些应用场景

说到77寸OLED透明触摸屏,那可真是市场营销中的一大亮点,应用场景多到数不清!我这就给你细数几个热门的: 商业展示:这可是77寸OLED透明触摸屏的拿手好戏!在高端零售店铺里,它可以作为陈列窗口&am…

大模型之大模型压缩(量化、剪枝、蒸馏、低秩分解),推理(vllm)

目录 前言 一、模型量化(quantization) 1. 量化概念 2. 模型量化优点 3. 什么情况下应该/不应该使用模型量化 4. 落地挑战 5. 量化方法 5.1 量化训练(Quant Aware Training, QAT) 原理 [伪量化节点(fake quant)](https://blog.csd…

​通用代码生成器典型应用场景​

​通用代码生成器典型应用场景​ 1. 通用代码生成器简介 通用代码生成器或称动词算子式通用代码生成器,是一系列各种语言的易用的整站式代码生成器。其根本原理是把方法分解成动词算子和域对象的笛卡儿积。根据动词算子式代码生成器的基本原理。所有方法&#xff…

[uni-app]小兔鲜-08云开发

uniCloud可以通过JS开发服务端,包含云数据库, 云函数, 云存储等功能, uniCloud可结合 uni-ui 组件库使用 效果展示: <picker>城市选择组件不支持h5端和APP端, 所以我们使用 <uni-data-picker>组件进行兼容处理 <uni-data-picker>的数据使用云数据库的数据 云…

项目——超级马里奥——Day(2)

争取今天晚上能搞一半啊&#xff0c;啊啊啊啊&#xff0c;感觉事多的忙不过来 设计思路&#xff1a; 1&#xff09;创建并完成常量类 ------->一张图片的情况 先完成对图片的封装------>把图片加载一遍 &#xff08;老实说&#xff0c;我也不太知道为什么&#xff0…

Stable Diffusion整合包与手动本地部署结合内网穿透远程AI绘画!

前言 文章目录 前言1. 本地部署Stable Diffusion Web UI 1.1 整合包安装1.2 手动安装Stable Diffusion Web UI 2. 安装Cpolar内网穿透3. 实现公网访问Stable Diffusion Web UI4. 固定Stable Diffusion Web UI 公网地址 &#x1f4a1; 推荐 前些天发现了一个巨牛的人工智能学…

六自由度机械重力补偿控制

1.动力学方程 六自由度机械臂动力学方程形式如下&#xff1a; 进行重力补偿&#xff0c;就是在驱动力矩中对重力G进行补偿&#xff0c;从而消除重力的影响&#xff0c;这样就能够在进行闭环控制的时候避免重力影响带来的大超调问题&#xff0c;使得机器人更好的实现轨迹跟踪控…

(附源码)基于springboot的“我来找房”微信小程序的设计与实现-计算机毕设 23157

基于springboot的“我来找房”微信小程序的设计与实现 摘要 随着移动互联网的快速发展&#xff0c;微信小程序作为一种轻量级的应用程序形式&#xff0c;已经成为人们日常生活的重要组成部分。为了满足广大用户在租房方面的需求&#xff0c;本文设计并实现了一个基于SpringBoot…

FredNormer: 非平稳时间序列预测的频域正则化方法

时间序列预测是一个具有挑战性的任务,尤其是在处理非平稳数据时。现有的基于正则化的方法虽然在解决分布偏移问题上取得了一定成功但仍存在局限性。这些方法主要在时间域进行操作,可能无法充分捕捉在频域中更明显的动态模式,从而导致次优的结果。 FredNormer论文的研究目的主要…

【C++】认识匿名对象

文章目录 目录 文章目录前言一、对匿名对象的解读二、匿名对象的对象类型三、匿名对象的使用总结 前言 在C中&#xff0c;匿名对象是指在没有呗命名的情况下创建的临时对象。它们通常在单个语句中执行一系列操作或调用某个函数&#xff0c;并且不需要将结果存放进变量中。 匿名…

Oracle登录报错-ORA-01017: invalid username/password;logon denied

接上文&#xff1a;Oracle创建用户报错-ORA-65096: invalid common user or role name 我以为 按照上文在PDB里创建了用户&#xff0c;我以为就可以用PLSQL远程连接了&#xff0c;远程服务器上也安装了对应版本的Oracle客户端&#xff0c;但是我想多了&#xff0c;客户只是新建…

使用Python查找WeChat和QQ的安装路径和文档路径

在日常工作和生活中&#xff0c;我们经常需要查找某些应用程序的安装位置或者它们存储文件的位置。特别是对于像WeChat&#xff08;微信&#xff09;和QQ这样的即时通讯软件&#xff0c;了解它们的文件存储位置可以帮助我们更好地管理我们的聊天记录和共享文件。今天&#xff0…

【Diffusion分割】Cold SegDiffusion:医学图像分割的扩散模型

Cold SegDiffusion: A novel diffusion model for medical image segmentation 摘要&#xff1a; 随着深度学习的发展&#xff0c;扩散模型在医学图像分割任务中表现出了卓越的性能。然而&#xff0c;传统的分割扩散模型通常采用随机高斯噪声生成分割掩膜&#xff0c;导致分割…

Java建筑行业智能化管理系统源码,PC端、手机端、大屏端源码,智慧工地管理平台源码,智慧建设平台 智慧住建平台

智慧工地平台全套源码合作 智慧工地是指运用现代信息技术&#xff0c;如物联网&#xff08;IoT&#xff09;、大数据、人工智能&#xff08;AI&#xff09;、云计算、移动互联网等&#xff0c;对传统建筑工地进行智能化改造和管理的新型工地。它通过高度集成的系统和设备&#…

NIO实现聊天室之:一切都要从网络编程的基础开始聊起!

一、写在开头 大家好,Build哥回来啦!停更了大概2个月之久,之前有段时间去写小说去了,后来又因为公司活太多,牛马干的太投入,就拉下了博客的更新,国庆节期间,难得的闲下来,准备回归老本行啦。 大致的翻看了一下之前更新的内容,已经写到了Java的IO部分,作为网络传输…

eNodeB User Manual-Introduction

eNodeB architecture ### 概述 srsENB是一个完全由软件实现的LTE eNodeB基站。它作为一个应用程序运行在标准的基于Linux的操作系统上&#xff0c;能够连接到任何LTE核心网络&#xff08;EPC&#xff09;并创建一个本地LTE小区。为了通过空气传输和接收无线电信号&#xff0c;…

深入浅出解析大模型:探索智能体(Agent)

大语言模型 vs 人类 大语言模型很强大&#xff0c;就像人类的大脑一样拥有思考的能力。如果人类只有大脑&#xff0c;没有四肢&#xff0c;没有工具&#xff0c;是没办法与世界互动的。如果我们能给大模型配备上四肢和工具呢&#xff1f;大模型是不是就会打破次元壁&#xff0…

探索Python文本处理的新境界:textwrap库揭秘

文章目录 **探索Python文本处理的新境界&#xff1a;textwrap库揭秘**一、背景介绍二、textwrap库是什么&#xff1f;三、如何安装textwrap库&#xff1f;四、简单函数使用方法4.1 wrap()4.2 fill()4.3 shorten()4.4 dedent()4.5 indent() 五、实际应用场景5.1 格式化日志输出5…

华为OD机试 - 冠亚军排名(Python/JS/C/C++ 2024 E卷 100分)

华为OD机试 2024E卷题库疯狂收录中&#xff0c;刷题点这里 专栏导读 本专栏收录于《华为OD机试真题&#xff08;Python/JS/C/C&#xff09;》。 刷的越多&#xff0c;抽中的概率越大&#xff0c;私信哪吒&#xff0c;备注华为OD&#xff0c;加入华为OD刷题交流群&#xff0c;…

网页也能跑大模型?看这一篇就够了

写在最前 本故事主要介绍在网页上部署模型的来龙去脉&#xff0c;你想问的问题&#xff0c;可能都可以在这里找到答案 在这个 AI 内容生成泛滥的时代&#xff0c;依然有一批人"傻傻"坚持原创&#xff0c;如果您能读到最后&#xff0c;还请点赞或收藏或关注支持下我呗…