0
点赞
收藏
分享

微信扫一扫

深度学习名词翻译

豆丁趣 2022-04-15 阅读 88
深度学习

A:

(1)anchors:锚点。(anchors(锚点)定义在RPN网络中)

B:

(1)bounding box:预测边界框。

(2)Botton-up 3D proposal generation:自底向上的3D预选目标框的生成。

(3)Bin-based 3D Box Generation:基于框(区间)的3d预目标生成。

(4)batch-size: 1次迭代所使用的样本量。

(5)Batches(批次):在训练神经网络的同时,不用一次发送整个输入,我们将输入分成几个随机大小相等的块。与整个数据集一次性馈送到网络时建立的模型相比,批量训练数据使得模型更加广义化。

C:

(1)Canonical 3D Box Refinment:3D目标框的精细优化。

(2)convolution kernel(卷积核):图像处理时,给定输入图像,在输出图像中每一个像素是输入图像中一个小区域中像素的加权平均,其中权值由一个函数定义,这个函数(卷积层的权值)称为卷积核。

D:

(1)Dropout(丢弃)——Dropout 是一种正则化技术,可防止网络过度拟合套。顾名思义,在训练期间,隐藏层中的一定数量的神经元被随机地丢弃。这意味着训练发生在神经网络的不同组合的神经网络的几个架构上。你可以将 Dropout 视为一种综合技术,然后将多个网络的输出用于产生最终输出。

E:

(1)epoch(周期): 1个epoch表示过了1遍训练集中的所有样本。周期被定义为向前和向后传播中所有批次的单次训练迭代。这意味着 1 个周期是整个输入数据的单次向前和向后传递。

(2)Exploding Gradient Problem(激增梯度问题)——这与消失的梯度问题完全相反,激活函数的梯度过大。在反向传播期间,它使特定节点的权重相对于其他节点的权重非常高,这使得它们不重要。这可以通过剪切梯度来轻松解决,使其不超过一定值

F:

(1)foreground point:前景点(前景foreground是你感兴趣的目标对象。背景background正好相反。)

G:

(1)Generalization Ability(泛化能力):是指机器学习算法对新鲜样本的适应能力。 学习的目的是学到隐含在数据背后的规律,对具有同一规律的学习集以外的数据,经过训练的网络也能给出合适的输出,该能力称为泛化能力。

(2)ground truth:真实标签

(3)ground-truth bounding boxes:人为在训练集图像中标出要检测物体的大概范围,也就是人为对数据进行标注的框。

H:

I:

(1)intersection over union( IOU):交并比。

J:

K:

L:

(1)learning_rate(学习率):控制模型的学习进度,即学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。

M:

(1)mAP(mean average percision):平均精度。

(2)mask:掩膜
分类的结果叫label。
分割的结果叫mask。
因为分割结果通常会半透明的覆盖在待分割目标上,所以就叫它掩膜吧。
图片中有一个圆形物体,你从一张纸上剪掉一个和该物体一模一样大小的圆,把这张纸蒙在图片上,这时候你只能看见这个圆形物体,这张纸就是mask了。

N:

(1)NMS(Non-Maximum Suppression):非极大值抑制。

NMS即非极大抑制,顾名思义就是抑制不是极大值的元素,搜索局部的极大值。

在物体检测中,NMS 应用十分广泛,其目的是为了清除多余的框,找到最佳的物体检测的位置。

(2)norm(范数):是具有“长度”概念的函数。在线性代数、泛函分析及相关的数学领域,是一个函数,其为向量空间内的所有向量赋予非零的正长度或大小。另一方面,半范数(英语:seminorm)可以为非零的向量赋予零长度。

O:

(1)offset:偏移量

P:

(1)Point Cloud Encoder-Decoder:点云的编码器和解码器

(2)Point-wise Feature vector:点云中各个点的特征(点云特征)

(3)Point -wise:逐点(每个点)

Q:

R:

(1)Receptive Field(感受野):在卷积神经网络中,每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如图所示。

(2)Robustness(鲁棒性):鲁棒是Robust的音译,也就是健壮和强壮的意思。它是在异常和危险情况下系统生存的关键。比如说,计算机软件在输入错误、磁盘故障、网络过载或有意攻击情况下,能否不死机、不崩溃,就是该软件的鲁棒性。所谓“鲁棒性”,是指控制系统在一定(结构,大小)的参数摄动下,维持其它某些性能的特性。根据对性能的不同定义,可分为稳定鲁棒性和性能鲁棒性。以闭环系统的鲁棒性作为目标设计得到的固定控制器称为鲁棒控制器。
(3)RPN(RegionProposal Network):区域生成网络。

S:

(1)Selective Search算法:

(2)Supervised pre-training(有监督训练):

T:

(1)Transfer Learning:迁移学习

U:

V:

(1)Vanishing Gradient Problem:消失梯度问题(Vanishing Gradient Problem)——激活函数的梯度非常小的情况下会出现消失梯度问题。在权重乘以这些低梯度时的反向传播过程中,它们往往变得非常小,并且随着网络进一步深入而"消失"。这使得神经网络忘记了长距离依赖。这对循环神经网络来说是一个问题,长期依赖对于网络来说是非常重要的。这可以通过使用不具有小梯度的激活函数 ReLu 来解决。

W:

X:

Y:

Z:

epoch、 iteration和batchsize
深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:

(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;

(2)iteration:1个iteration等于使用batchsize个样本训练一次;

(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;

举个例子,训练集有1000个样本,batchsize=10,那么:

训练完整个样本集需要:100次iteration,1次epoch。

对于我处理的Dataset, Training Dataset :12个seq_x folder, 每一个folder有149个图片。所以总共有1788个图片。

若batchsize =12, 那么 iteration = 1788 / 12 = 149, epoch可以自己设定。
 

举报

相关推荐

0 条评论