- 定义与概念
-
在深度学习领域,特别是卷积神经网络(CNN)中,“padding”(填充)是一种操作。它是指在输入数据(通常是图像、文本序列等)的边缘添加额外的像素(对于图像)或元素(对于序列)。例如,在一个二维图像卷积操作前,在图像的四周添加一圈像素值,这些添加的像素就是填充。
-
目的和作用
- 保持输出特征图尺寸:在卷积操作中,不使用填充时,输出特征图的尺寸会随着卷积操作而逐渐减小。例如,对于一个大小为(n\times n)的输入图像,使用大小为(k\times k)的卷积核,步长为(1),若不进行填充,每次卷积操作后,输出特征图的边长会减少((k - 1))。通过填充合适数量的像素...
分类目录归档:基础设施
步长-
“stride”这个词在不同的语境中有不同的含义,在计算机科学,特别是深度学习领域以及日常用语中有以下解释:
一、在深度学习(卷积神经网络 - CNN)中的含义
- 定义
-
在卷积神经网络中,“stride”(步长)是指卷积核在输入数据(如图像、序列等)上滑动的步长大小。它决定了卷积操作后输出特征图(Feature Map)的尺寸。例如,在一个二维图像的卷积操作中,卷积核从左上角开始,按照指定的步长向右和向下滑动,对覆盖的区域进行卷积计算。
-
对输出特征图尺寸的影响
- 对于输入数据大小为(W_{in})(宽度)、(H_{in})(高度),卷积核大小为(k)(假设为正方形卷积核),步长为(...
滤波器-
- 滤波器在卷积神经网络中的角色
- 特征提取的核心工具:在卷积神经网络(CNN)中,滤波器(Filter)也称为卷积核(Convolution Kernel),是用于提取特征的关键组件。它就像是一个“特征探测器”,通过在输入数据(如图像、文本序列等)上滑动进行卷积操作来捕捉数据中的局部特征模式。例如,在图像识别任务中,不同的滤波器可以分别检测图像中的边缘、纹理、角落等特征。一个简单的3x3边缘检测滤波器可能在水平方向上有正负交替的权重,当它在图像上滑动时,能够敏锐地捕捉到像素值在水平方向上的变化,即水平边缘。
- 构建卷积层的基本元素:卷积层是CNN的核心层,而滤波器是卷积层的基本构建块。一个卷...
自动编码器-
- 定义与基本原理
- 自动编码器(Autoencoder)是一种神经网络架构,主要用于无监督学习。它的目标是学习输入数据的一种有效表示(编码),并且能够从这种编码中重建原始输入数据。
- 自动编码器由两部分组成:编码器(Encoder)和解码器(Decoder)。编码器将输入数据压缩成一个低维的表示(通常称为潜在空间表示或编码),而解码器则将这个低维表示还原为与原始输入尽可能相似的数据。例如,对于一个图像数据集,编码器可以将一张高分辨率的图像(如100×100像素,具有3个颜色通道,总共30000个像素值)转换为一个低维向量(如100维),这个向量就包含了图像的关键特征信息;解码器则根据这个10...
感受野-
- 基本含义
- 在神经网络领域,尤其是卷积神经网络(CNN)中,“receptive field”(感受野)是一个关键概念。它是指神经元(或者说卷积核)在输入数据上所对应的区域大小。可以将其理解为神经元能够感知输入数据的“视野范围”。
-
例如,在一个简单的卷积神经网络用于图像识别时,最开始的卷积层中的神经元感受野较小,只能感知图像中很小的一块区域,比如一个3x3的卷积核对应的感受野大小就是3x3像素区域。随着网络层数的增加,后面层的神经元可以通过前面层的信息传递,拥有更大的感受野,能够感知到图像中更大范围的信息。
-
计算方式
- 简单卷积层情况
- 假设输入特征图(input feature m...
Google Colab-
Google Colab是由Google Research团队开发的一款基于云的免费Jupyter笔记本环境,全称为Google Colaboratory.以下是关于它的详细介绍:
特点
- 无需配置:用户无需进行复杂的环境设置,可直接在浏览器中编写和执行Python代码,并且能免费使用包括GPU和TPU在内的计算资源,降低了机器学习和深度学习的入门门槛.
- 集成方便:默认集成了Hugging Face Transformers库等常用工具和库,方便用户快速开展相关的研究和实验,还能直接从Pandas读取Hugging Face数据集,大大简化了数据处理和模型训练的工作流程.
- 易于分享:笔记...
元学习-
- 定义与概念
-
元学习(Meta - Learning)也被称为“学习如何学习”(Learning to Learn)。它的主要目标是让机器能够快速学习新的任务,通过在多个相关任务的学习过程中积累经验,从而能够更高效地适应新的、未见过的任务。传统机器学习方法侧重于针对单个任务进行优化,而元学习则关注如何利用从多个任务中获取的知识来提升模型的泛化能力和学习效率。例如,人类在学习过程中可以从多个相似学科(如不同类型的数学分支)的学习经验中总结出通用的学习策略,元学习试图让机器也具备类似的能力。
-
主要方法
- 基于模型的元学习方法
- MAML(Model - Agnostic Meta - L...
少样本学习-
- 定义与概念
-
少样本学习(Few - Shot Learning)是一种机器学习范式,旨在让模型在仅有少量训练样本(通常远少于传统机器学习任务所需的样本数量)的情况下,能够快速学习并对新的样本进行准确分类或预测。例如,在一个图像分类任务中,传统方法可能需要成百上千张标注好的图像来训练一个可靠的分类模型,而少样本学习可能只需要每个类别几张(如1 - 5张)图像就能进行学习。
-
主要方法
- 基于度量学习的方法
- 原型网络(Prototypical Networks):假设每个类别都有一个原型(通常是该类别样本的均值向量)。在训练阶段,给定少量的样本,计算每个类别的原型。在测试阶段,新的样本...
终身学习-ML
- 定义
-
终身学习(Life - long Learning)在机器学习领域是一种学习范式,它强调模型能够不断地从新的数据和任务中学习知识,并且能够在较长的时间跨度内持续更新和改进自己的知识体系,就像人类的终身学习一样。传统的机器学习模型通常是针对特定的任务和数据集进行训练,训练完成后模型基本固定,而终身学习机器学习则要求模型具有动态适应性。
-
终身学习机器学习的特点
- 持续学习能力
- 模型能够在不同时间点接收新的数据,并利用这些新数据来更新自己的参数和知识结构。例如,一个图像识别模型在初始阶段学会了识别常见的动物,随着时间推移,当遇到新的动物品种或者不同拍摄风格的动物图像时,它可以将这...
网络压缩-
- 定义
-
网络压缩(Network Compression)是一种用于减少神经网络模型大小和计算复杂度的技术。随着深度学习的发展,神经网络模型变得越来越庞大和复杂,这对存储资源和计算资源都提出了很高的要求。网络压缩旨在在尽量不损失模型性能的前提下,对模型进行精简,使其更适合在资源受限的设备上运行,同时也能提高模型的推理速度。
-
网络压缩的方法
- 参数修剪(Parameter Pruning)
- 定义与原理:参数修剪是指从神经网络模型中去除一些不重要的参数(如神经元连接的权重)。在训练后的模型中,很多参数的值可能非常小,对模型的最终输出贡献不大。通过识别并剪掉这些不重要的参数,可以减少模型...