用 Python 从零开始创建神经网络(二):第一个神经元的进阶

第一个神经元的进阶

  • 引言
  • 1. Tensors, Arrays and Vectors:
  • 2. Dot Product and Vector Addition
    • a. Dot Product (点积)
    • b. Vector Addition (向量加法)
  • 3. A Single Neuron with NumPy
  • 4. A Layer of Neurons with NumPy
  • 5. A Batch of Data
  • 6. Matrix Product
  • 7. Transposition for the Matrix Product
  • 8. A Layer of Neurons & Batch of Data w/ NumPy

引言

本教程专为那些对神经网络已有基础了解、但尚未动手实践过的读者而设计。尽管网上充斥着各种教程,但很多内容要么过于简略,要么直接进入高级主题,让初学者难以跟上。本指南将带领你从零开始,用 Python 构建一个简单的神经网络模型,逐步拆解每一步,帮助你真正理解神经网络的工作原理,为今后的深入学习打下坚实基础。

1. Tensors, Arrays and Vectors:

张量、数组和向量


简单的列表:

l = [1,5,6,2]

列表中的列表:

lol = [[1,5,6,2],[3,2,1,3]]

列表中的列表中的列表:

lolol = [[[1,5,6,2],[3,2,1,3]],[[5,2,1,2],[6,4,8,4]],[[2,8,5,3],[1,1,9,4]]]

另一种列表中的列表:

another_list_of_lists = [[4,2,3],[5,1]]

列表,矩阵,数组(这个数组的“形状”是3x2,或者更正式地描述为形状为(3, 2),因为它有3行和2列。):

list_matrix_array = [[4,2],[5,1],[8,2]]

对于三维数组,如下面的lolol,我们将有第三层括号:

lolol = [[[1,5,6,2],[3,2,1,3]],[[5,2,1,2],[6,4,8,4]],[[2,8,5,3],[1,1,9,4]]]

该数组的第一层包含 3 个矩阵:

		 [[1,5,6,2],[3,2,1,3]][[5,2,1,2],[6,4,8,4]][[2,8,5,3],[1,1,9,4]]
Shape: (3, 2, 4)
Type: 3D Array, List, Matrix

当然,如果直接复制粘贴再使用type()函数得到的肯定是<class 'list'>,我这里只是描述了数据可能的各种形式,重点在3D

2. Dot Product and Vector Addition

点积与向量加法


a. Dot Product (点积)

在这里插入图片描述

a = [1,2,3]
b = [2,3,4]dot_product = a[0]*b[0] + a[1]*b[1] + a[2]*b[2]print("dot_product:", dot_product)
>>>
dot_product: 20

代码的可视化:https://nnfs.io/xpo/

现在,如果我们将 a a a 称为“输入”(inputs),将 b b b 称为“权重”(weights)呢?突然间,这个点积看起来就像一种简洁的方式来执行我们需要的操作,而且已经在纯Python中执行过了。我们需要将相同索引值的权重和输入相乘,并将结果值加在一起。点积恰好执行这种类型的操作;因此,在这里使用它非常有意义。回到神经网络代码中,让我们利用这个点积。纯Python不包含执行此类操作的方法或函数,因此我们将使用NumPy包,它能够执行这个操作,以及未来我们将使用的许多更多操作。

b. Vector Addition (向量加法)

我们不久的将来也需要执行一个向量加法操作。幸运的是,NumPy允许我们以一种自然的方式进行这个操作——使用加号和包含数据向量的变量。两个向量的加法是逐元素执行的操作,这意味着两个向量必须具有相同的大小,结果也将成为这种大小的向量。结果是一个向量,作为连续向量元素的和计算得出:

a ⃗ + b ⃗ = [ a 1 + b 1 , a 2 + b 2 , … , a n + b n ] \vec{a} + \vec{b} = [a_1 + b_1, a_2 + b_2, \ldots, a_n + b_n] a +b =[a1+b1,a2+b2,,an+bn]

3. A Single Neuron with NumPy

使用 NumPy 的单个神经元


import numpy as npinputs = [1.0, 2.0, 3.0, 2.5]
weights = [0.2, 0.8, -0.5, 1.0]
bias = 2.0outputs = np.dot(weights, inputs) + biasprint("outputs:", outputs)
>>>
outputs: 4.8

在这里插入图片描述

代码的可视化:https://nnfs.io/blq

4. A Layer of Neurons with NumPy

使用 NumPy 创建神经元层


import numpy as npinputs = [1.0, 2.0, 3.0, 2.5]
weights = [[0.2, 0.8, -0.5, 1],[0.5, -0.91, 0.26, -0.5],[-0.26, -0.27, 0.17, 0.87]]
biases = [2.0, 3.0, 0.5]layer_outputs = np.dot(weights, inputs) + biases # (3X4).(1X4)print("layer_outputs:", layer_outputs)
print("Type of layer_outputs:", type(layer_outputs))
>>>
layer_outputs: [4.8   1.21  2.385] # array([4.8 1.21 2.385])
Type of layer_outputs: <class 'numpy.ndarray'>

在这里插入图片描述

代码的可视化:https://nnfs.io/cyx

5. A Batch of Data

一批数据


为了训练,神经网络往往会成批接收数据。到目前为止,示例输入数据只是各种特征的一个样本(或观测值),称为特征集:

inputs = [1, 2, 3, 2.5]

在这里,[1, 2, 3, 2.5] 数据对我们想要的输出具有一定的意义和描述性。想象一下,每个数字都是同时来自不同传感器的值。每个值都是一个特征观测数据,它们共同构成一个特征集实例,也称为观测值,或最常见的样本。

通常,神经网络期望一次处理多个样本,原因有两个。一个原因是在并行处理中分批训练速度更快,另一个原因是分批可以在训练过程中帮助泛化。如果你一次只对一个样本进行拟合(执行训练过程的一个步骤),你很可能会一直只针对那个单一样本进行拟合,而不是逐渐对权重和偏差进行普遍的微调,以适应整个数据集。分批训练或拟合使你有更高的机会对权重和偏差进行更有意义的改变。关于分批拟合而不是一次一个样本的概念,以下动画可以帮助理解:https://nnfs.io/vyu

一批数据的示例如下:

Input data:batch = [[1,5,6,2],[3,2,1,3],[5,2,1,2],[6,4,8,4],[2,8,5,3],[1,1,9,4],[6,6,0,4],[8,7,6,4]]
Shape: (8, 4)
Type: 2D Array, Matrix

回想一下,在 Python 中,以及在我们的案例中,列表是非常有用的容器,用于存放单个样本以及组成一批观测数据的多个样本。这样一个观测批次的例子,每个样本都有自己的数据,看起来像这样:

inputs = [[1, 2, 3, 2.5], [2, 5, -1, 2], [-1.5, 2.7, 3.3, -0.8]]

这个列表中的列表可以转换成一个数组,因为它们是同构的。注意,这个更大列表中的每个“列表”都是一个样本,代表一组特征。[1, 2, 3, 2.5], [2, 5, -1, 2], [-1.5, 2.7, 3.3, -0.8] 都是样本,也被称为特征集实例观测值

现在我们有了一个输入矩阵和一个权重矩阵,我们需要以某种方式对它们进行点积运算,但是如何进行,结果又会是什么呢?类似于我们之前对矩阵和向量进行的点积运算,我们将矩阵视为向量列表,结果得到了一个点积列表。在这个例子中,我们需要将两个矩阵都管理为向量列表,并对所有的组合进行点积运算,结果是一个输出列表的列表,或者说是一个矩阵;这个操作称为矩阵乘积

6. Matrix Product

矩阵乘积


矩阵乘积是一种操作,在这个操作中我们有两个矩阵,并且我们正在执行第一个矩阵的行与第二个矩阵的列的所有组合的点积,结果是这些原子点积组成的一个矩阵:

在这里插入图片描述

代码的可视化:https://nnfs.io/jei/

要执行矩阵乘积,左侧矩阵的第二维度的大小必须与右侧矩阵的第一维度的大小相匹配。例如,如果左侧矩阵的形状为 ( 5 , 4 ) (5, 4) (5,4),那么右侧矩阵的第一个形状值必须匹配这个 4(如 ( 4 , 7 ) (4, 7) (4,7))。结果数组的形状始终是左侧数组的第一维度和右侧数组的第二维度,即 ( 5 , 7 ) (5, 7) (5,7)。在上述示例中,左侧矩阵的形状为 ( 5 , 4 ) (5, 4) (5,4),右上方矩阵的形状为 ( 4 , 5 ) (4, 5) (4,5)。左侧数组的第二维度和第二个数组的第一维度都是 4,它们匹配,结果数组的形状为 ( 5 , 5 ) (5, 5) (5,5)

进一步阐述,我们也可以展示我们可以对向量执行矩阵乘积。在数学中,我们可以有所谓的列向量和行向量,这些将很快更好地解释。它们是向量,但表示为矩阵,其中一个维度的大小为 1:

在这里插入图片描述
a a a 是一个行向量。它看起来与我们之前描述的向量 a ⃗ \vec{a} a 非常相似,后者是与向量积一起描述的。行向量和向量的符号之间的区别在于数值之间有逗号,而行向量上的符号 a a a 上没有箭头。它被称为行向量,因为它是矩阵的一行。另一方面, b b b 被称为列向量,因为它是矩阵的一列。由于行向量和列向量从技术上讲是矩阵,我们不再用向量箭头来表示它们。

当我们对它们进行矩阵乘积时,结果也变成了一个矩阵,就像前面的例子一样,但只包含一个值,这个值与我们之前讨论过的点积示例中的值相同:

在这里插入图片描述

代码的可视化:https://nnfs.io/bkw/

换句话说,行向量和列向量是其中一个维度大小为 1 的矩阵;并且,我们对它们执行矩阵乘积,而不是点积,这会得到一个只包含单个值的矩阵。在这个例子中,我们进行了形状为 ( 1 , 3 ) (1, 3) (1,3) ( 3 , 1 ) (3, 1) (3,1) 的矩阵的矩阵乘法,然后得到的数组形状为 ( 1 , 1 ) (1, 1) (1,1) 或大小为 1 × 1 1 \times 1 1×1

7. Transposition for the Matrix Product

矩阵积的移位


我们是如何突然从两个向量转变到行向量和列向量的?我们使用了点积和矩阵乘积之间的关系,表明两个向量的点积等于一个行向量和一个列向量的矩阵乘积(字母上方的箭头表示它们是向量):

在这里插入图片描述

我们还临时使用了一些简化,没有显示列向量 b b b 实际上是向量 b b b 的转置。正确的方程,将向量 a a a b b b 的点积写作矩阵乘积的形式,应该看起来像:

在这里插入图片描述

这里我们介绍了另一种新操作——转置。转置简单地修改矩阵,使其行变成列,列变成行:

在这里插入图片描述

代码的可视化:https://nnfs.io/qut,https://nnfs.io/pnq


行向量是一个矩阵,其第一维的大小(行数)等于 1,第二维的大小(列数)等于 n n n —— 向量的大小。换句话说,它是一个 1 × n 1 \times n 1×n 的数组或形状为 ( 1 , n ) (1, n) (1,n) 的数组:

在这里插入图片描述

如果使用 NumPy 并使用 3 个值,我们可以将其定义为:

np.array([[1, 2, 3]])

请注意这里使用了双括号。为了将一个列表转换为包含单行的矩阵(执行将向量转换为行向量的等效操作),我们可以将其放入一个列表中,并创建 numpy 数组:

import numpy as npa = [1, 2, 3]
b = np.array([a])print("B:", b)
print("Type of B:", type(b))
>>>
B: [[1 2 3]] # array([[1, 2, 3]])
Type of B: <class 'numpy.ndarray'>

再次注意,在这种情况下,在转换为数组之前,我们将 a a a 放在括号内封装起来。或者我们可以将其转换为一维数组,并利用 NumPy 的功能之一扩展维度:

a = [1, 2, 3]
b = np.expand_dims(np.array(a), axis=0)print("B:", b)
print("Type of B:", type(b))
>>>
B: [[1 2 3]] # array([[1, 2, 3]])
Type of B: <class 'numpy.ndarray'>

其中 np.expand_dims() 在轴的索引处添加一个新的维度。


列向量是一个矩阵,其中第二维的大小等于 1,换句话说,它是一个形状为 ( n , 1 ) (n, 1) (n,1) 的数组:

在这里插入图片描述
使用 NumPy 创建列向量的方式与创建行向量相同,但需要额外进行转置——转置会将行变成列,列变成行:

在这里插入图片描述

为了将向量 b b b 转换为行向量 b b b,我们将使用与将向量 a a a 转换为行向量 a a a 相同的方法,然后我们可以对其进行转置,使其成为列向量 b b b

在这里插入图片描述

使用 NumPy 代码:

import numpy as npa = [1, 2, 3]
b = [2, 3, 4]a = np.array([a])
b_T = np.array([b]).Tc = np.dot(a, b_T)print("a:", a)
print("Transpose of b:", b_T)
print("c:", c)
>>>
a: [[1 2 3]]
Transpose of b: [[2][3][4]]
c: [[20]] # array([[20]])

我们已经达到了与两个向量的点积相同的结果,但是这次操作是在矩阵上进行的,并返回了一个矩阵——这正是我们所期望和想要的。值得一提的是,NumPy 没有一个专门用于执行矩阵乘积的方法——点积和矩阵乘积都是在一个方法中实现的:np.dot()

正如我们所见,要在两个向量上执行矩阵乘积,我们将其中一个按原样转换成行向量,而将另一个通过转置转换成列向量。这使我们能够执行一个返回包含单个值的矩阵的矩阵乘积。我们还在两个示例数组上执行了矩阵乘积,以了解矩阵乘积的工作原理——它创建了一个由所有行向量和列向量组合的点积构成的矩阵。

8. A Layer of Neurons & Batch of Data w/ NumPy

使用 NumPy 生成一层神经元和一批数据


让我们回到我们的输入和权重——在讨论它们时,我们提到需要对由输入和权重矩阵组成的所有向量进行点积运算。正如我们刚刚学到的,这正是矩阵乘积执行的操作。我们只需要对其第二个参数进行转置,即在我们的情况下是权重矩阵,以将其当前包含的行向量转换为列向量。

最初,我们能够在输入和权重上执行点积,而不需要转置,因为权重是一个矩阵,但输入只是一个向量。在这种情况下,点积的结果是一个向量,这个向量是在矩阵的每一行和这一个单独的向量上执行的原子点积。当输入变成一批输入(一个矩阵)时,我们需要执行矩阵乘积。它取来自左矩阵的所有行和右矩阵的所有列的组合,对它们进行点积运算,并将结果放置在一个输出数组中。两个数组具有相同的形状,但为了执行矩阵乘积,第一个矩阵的索引1的形状值和第二个矩阵的索引0的形状值必须匹配——现在它们不匹配。

在这里插入图片描述

如果我们对第二个数组进行转置,其形状的值就会交换位置。

在这里插入图片描述

代码的可视化:https://nnfs.io/crq

↓ ↓ ↓ ↓ ↓
 

如果我们从输入和权重的角度来看这个问题,我们需要对每个输入和每组权重的所有组合执行点积运算。点积从第一个数组中取一行,从第二个数组中取一列,但目前两个数组中的数据都是按行对齐的。转置第二个数组使数据按列对齐。输入和转置权重的矩阵乘积将产生一个包含我们需要计算的所有原子点积的矩阵。结果矩阵包含了在每个输入样本上执行操作后所有神经元的输出:

在这里插入图片描述

代码的可视化:https://nnfs.io/gjw

我们提到,np.dot()的第二个参数将是我们的转置权重,所以第一个参数是输入,但之前权重是第一个参数。我们在这里改变了这一点。之前,我们使用单个数据样本(一个向量)来模拟神经元输出,但现在我们在对一批数据模拟层行为时向前迈进了一步。我们可以保留当前的参数顺序,但是,正如我们很快会了解到的,拥有一个由每个样本的层输出组成的结果列表比一个由神经元及其输出按样本组成的列表更有用。我们希望结果数组与样本相关,而不是与神经元相关,因为我们将把这些样本进一步传递给网络,而下一层将期待一批输入。

↓ ↓ ↓ ↓ ↓
 

我们现在可以使用 NumPy 编码这个解决方案。我们可以对一个纯 Python 列表的列表执行 np.dot(),因为 NumPy 会在内部将它们转换为矩阵。不过,我们自己正在转换权重,以便首先执行转置操作(在代码中为 T),因为纯 Python 列表的列表不支持这种操作。至于偏置,我们不需要将其制作成 NumPy 数组,原因相同——NumPy 将在内部完成这个操作。

偏置是一个列表,所以它们作为 NumPy 数组是一维数组。这个偏置向量加到矩阵上(在这种情况下是点积的矩阵)的方式与我们之前描述的矩阵和向量的点积类似;偏置向量将被添加到矩阵的每个行向量上。由于矩阵乘积结果的每一列是一个神经元的输出,并且向量将被添加到每个行向量上,第一个偏置将被添加到这些向量的每个第一个元素上,第二个添加到第二个,依此类推。这正是我们需要的——每个神经元的偏置需要被添加到此神经元在所有输入向量(样本)上执行的所有结果上。

在这里插入图片描述

代码的可视化:https://nnfs.io/qty

↓ ↓ ↓ ↓ ↓
 

现在,我们可以将所学知识转化为代码:

import numpy as npinputs = [[1.0, 2.0, 3.0, 2.5],[2.0, 5.0, -1.0, 2.0],[-1.5, 2.7, 3.3, -0.8]]weights = [[0.2, 0.8, -0.5, 1.0],[0.5, -0.91, 0.26, -0.5],[-0.26, -0.27, 0.17, 0.87]]biases = [2.0, 3.0, 0.5]layer_outputs = np.dot(inputs, np.array(weights).T) + biasesprint("layer_outputs:", layer_outputs)
print("Type of layer_outputs:", type(layer_outputs))
>>>
layer_outputs: [[ 4.8    1.21   2.385]  # array([[ 4.8 1.21 2.385],[ 8.9   -1.81   0.2  ]  #  		 [ 8.9 -1.81 0.2 ],[ 1.41   1.051  0.026]] # 		 [ 1.41 1.051 0.026]])
Type of layer_outputs: <class 'numpy.ndarray'>

代码的可视化:https://nnfs.io/ch2

如您所见,我们的神经网络接收一组样本(输入)并输出一组预测。如果您使用过任何深度学习库,这就是为什么您会传入一系列输入(即使只是一个特征集)并返回一系列预测的原因,即使只有一次预测。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/10751.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

VS2022项目配置笔记

文章目录 $(ProjectDir&#xff09;与 $(SolutionDir) 宏附加包含目录VC目录和C/C的区别 $(ProjectDir&#xff09;与 $(SolutionDir) 宏 假设有一个解决方案 MySolution&#xff0c;其中包含两个项目 ProjectA 和 ProjectB&#xff0c;目录结构如下&#xff1a; C:\Projects\…

十五、Linux线程(二)

4.线程的分离属性 通过属性设置线程的分离 1.线程属性类型&#xff1a; pthread_attr_t attr; 2.线程属性操作函数&#xff1a; &#xff08;1&#xff09;对线程属性变量的初始化 int pthread_attr_init(pthread_attr_t* attr); &#xff08;2&#xff09;设置线程分离属…

Unity学习笔记(1):素材导入

文章目录 前言学习目标开发环境资源文件下载Unity窗口设置修改导入像素素材设置可以直接拖动导入设置像素图片格式导入多合一素材设置切割 总结 前言 最近由于工作的事情&#xff0c;很糟心。最近非常的迷茫。 学习目标 根据我的加的几个QQ群了解到&#xff0c;国内游戏行业…

简历模板(艺术风)

每份简历模板都有四页 36款艺术风简历模板 一、水墨古风 二、唯美淡雅 三、时尚个性 四、艺术气质

数字乡村建设方案-5

1. 政策背景与乡村振兴战略 中国政府提出的乡村振兴战略&#xff0c;旨在全面建设小康社会和社会主义现代化国家&#xff0c;其中数字乡村建设是实现乡村全面振兴的关键途径。国家和江苏省相继出台政策&#xff0c;推动信息技术与农业生产生活的深度融合&#xff0c;加快农业农…

「C/C++」C++ STL容器库 之 std::map 键值容器类

✨博客主页何曾参静谧的博客&#x1f4cc;文章专栏「C/C」C/C程序设计&#x1f4da;全部专栏「VS」Visual Studio「C/C」C/C程序设计「UG/NX」BlockUI集合「Win」Windows程序设计「DSA」数据结构与算法「UG/NX」NX二次开发「QT」QT5程序设计「File」数据文件格式「PK」Parasoli…

2024 第五次周赛

A: 直接遍历即可 #include<bits/stdc.h> using namespace std;typedef long long ll; typedef pair<ll, ll>PII; const int N 2e6 10; const int MOD 998244353; const int INF 0X3F3F3F3F;int n, m; int main() {cin >> n;int cnt 0;for(int i 0; i …

Start SSM from stratch !!!

Start SSM from stratch !!! 数据库两个数据库可以共存吗&#xff1f;常见的关系数据库常见的非关系数据库数据库可视化管理工具 java版本reviewee and se?jdk1.7 or jdk7? mysql安装版本对应关系下载[MySQL](https://downloads.mysql.com/archives/installer/)下载[Connecto…

[C++11] 类中新特性的添加

默认的移动构造和移动赋值 在 C11 之前&#xff0c;编译器会为每个类自动生成默认的构造函数、析构函数、拷贝构造函数、拷贝赋值运算符等函数&#xff0c;以实现对象的创建、销毁和拷贝操作。但拷贝操作会复制整个对象的数据&#xff0c;效率低&#xff0c;尤其是在处理大对象…

AI 写作(六):核心技术与多元应用(6/10)

一、AI 写作的核心技术概述 AI 写作在当今数字化时代正发挥着越来越重要的作用。它不仅极大地提高了写作效率&#xff0c;还为不同领域带来了创新的可能性。 AI 写作的核心技术主要包括基于模板的文本生成和基于深度学习的文本生成。基于模板的文本生成通常依赖预先设定的模板…

用 Python 从零开始创建神经网络(三):添加层级(Adding Layers)

添加层级&#xff08;Adding Layers&#xff09; 引言1. Training Data2. Dense Layer Class 引言 我们构建的神经网络变得越来越受人尊敬&#xff0c;但目前我们只有一层。当神经网络具有两层或更多隐藏层时&#xff0c;它们变成了“深度”网络。目前我们只有一层&#xff0c…

ClickHouse 24.10 版本发布说明

本文字数&#xff1a;13817&#xff1b;估计阅读时间&#xff1a;35 分钟 作者&#xff1a;ClickHouse Team 本文在公众号【ClickHouseInc】首发 又到了新版本发布的时间&#xff01; 发布概要 本次ClickHouse 24.10 版本包含了25个新功能&#x1f381;、15项性能优化&#x1f…

AI4SCIENSE(鄂维南院士:再谈AI for Science)

鄂维南院士&#xff1a;再谈AI for Science_哔哩哔哩_bilibili 以往处理高维问题 量子力学&#xff1a;单变量乘积 统计学&#xff1a;旋转 AI4S 处理数据 蛋白质折叠&#xff1f; 不是纯粹的数据驱动 物理学等学科基本原理 例&#xff1a;分子动力学 数据模型 流程图 这…

华为云全新上线Serverless应用中心,支持一键构建文生图应用

近日&#xff0c;华为云全新上线Serverless应用中心&#xff0c;提供大量应用模板&#xff0c;帮助用户实现一键部署函数和周边依赖资源&#xff0c;节省部署时间&#xff0c;快速上手将应用部署到华为云函数工作流FunctionGraph&#xff0c;并一键开通周边依赖资源。 体验入口…

F5-TTS 整合包详细部署文档1110更新

F5-TTS 整合包详细部署文档&#xff1a;1110更新 F5-TTS 整合包详细部署教程1110更新 更新内容 本次更新加入了通义千问对话模型&#xff0c;以增强F5-TTS的功能和性能。 下载相关资源 F5-TTS文本转语音 链接&#xff1a;F5-TTS资源下载 文件列表 文件名大小说明01-主程序…

【bayes-Transformer-GRU多维时序预测】多变量输入模型。matlab代码,2023b及其以上

% 1. 数据准备 X_train 训练数据输入; Y_train 训练数据输出; X_test 测试数据输入; % 2. 模型构建 inputSize size(X_train, 2); numHiddenUnits 100; numResponses 1; layers [ … sequenceInputLayer(inputSize) biLSTMLayer(numHiddenUnits, ‘OutputMode’, ‘se…

AUTOSAR CP TCP/IP堆栈规范导读

一、规范的主要内容 该规范是AUTOSAR中关于TCP/IP堆栈的规范&#xff0c;主要内容包括以下几个方面&#xff1a; 总体介绍 功能概述&#xff1a;提供了发送和接收互联网协议数据的功能&#xff0c;位于Socket Adaptor和以太网接口模块之间。文档信息&#xff1a;包含文档标题…

redis安装

Redis的安装配置 安装Redis 安装gcc依赖 Redis是使用C语言编写的&#xff0c;Linux上并没有C语言的编译器&#xff0c;需要手动安装 yum install -y gcc tcl上传安装包并解压 将压缩包放在任意目录解压 tar -xzf redis-6.2.6.tar.gz安装 1.进入redis目录 cd redis-6.2.62.运行…

Linux系统程序设计--3. 文件操作

文件属性 存放文件属性的结构体 文件属性操操作函数 文件类型(7种) - 普通文件d目录p 管道文件l 符号链接(软链接) 判断文件类型的小程序 #include<sys/types.h> #include<sys/stat.h> #include<string.h> #include<stdio.h> #include<memory.h&…