发新帖

机器学习术语表更新了,新添80个术语

[复制链接]
1023 48
Arthur_1  TF荚荚  发表于 2018-10-17 16:25:11 | 显示全部楼层
张量等级 (Tensor rank)

请参阅等级。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:25:32 | 显示全部楼层
张量处理单元 (TPU, Tensor Processing Unit)

一种 ASIC(应用专用集成电路),用于优化 TensorFlow 程序的性能。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:25:48 | 显示全部楼层
张量 (Tensor)

TensorFlow 程序中的主要数据结构。张量是 N 维(其中 N 可能非常大)数据结构,最常见的是标量、向量或矩阵。张量的元素可以包含整数值、浮点值或字符串值。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:26:09 | 显示全部楼层
时态数据 (temporal data)

在不同时间点记录的数据。例如,记录的一年中每一天的冬外套销量就属于时态数据。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:26:37 | 显示全部楼层
目标 (target)

与标签的含义相同。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:27:11 | 显示全部楼层
合成特征 (synthetic feature)

一种特征,不在输入特征之列,而是从一个或多个输入特征衍生而来。合成特征包括以下类型:

对连续特征进行分桶,以分为多个区间分箱。
将一个特征值与其他特征值或其本身相乘(或相除)。
创建一个特征组合。

仅通过标准化或缩放创建的特征不属于合成特征。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:27:39 | 显示全部楼层
监督式机器学习 (supervised machine learning)

根据输入数据及其对应的标签来训练模型。监督式机器学习类似于学生通过研究一系列问题及其对应的答案来学习某个主题。在掌握了问题和答案之间的对应关系后,学生便可以回答关于同一主题的新问题(以前从未见过的问题)。请与非监督式机器学习进行比较。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:27:59 | 显示全部楼层
总结 (summary)

在 TensorFlow 中的某一步计算出的一个值或一组值,通常用于在训练期间跟踪模型指标。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:35:01 | 显示全部楼层
下采样 (subsampling)

请参阅池化。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:35:54 | 显示全部楼层
步长 (stride)

在卷积运算或池化中,下一个系列的输入切片的每个维度中的增量。例如,下面的动画演示了卷积运算过程中的一个 (1,1) 步长。因此,下一个输入切片是从上一个输入切片向右移动一个步长的位置开始。当运算到达右侧边缘时,下一个切片将回到最左边,但是下移一个位置。



前面的示例演示了一个二维步长。如果输入矩阵为三维,那么步长也将是三维。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:36:47 | 显示全部楼层
结构风险最小化 (SRM, structural risk minimization)

一种算法,用于平衡以下两个目标:

期望构建最具预测性的模型(例如损失最低)。
期望使模型尽可能简单(例如强大的正则化)。
例如,旨在将基于训练集的损失和正则化降至最低的函数就是一种结构风险最小化算法。

如需更多信息,请参阅 http://www.svms.org/srm/

与经验风险最小化相对。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:37:04 | 显示全部楼层
随机梯度下降法 (SGD, stochastic gradient descent)

批次大小为 1 的一种梯度下降法。换句话说,SGD 依赖于从数据集中随机均匀选择的单个样本来计算每步的梯度估算值。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:37:20 | 显示全部楼层
步长 (step size)

与学习速率的含义相同。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:37:35 | 显示全部楼层
步 (step)

对一个批次的向前和向后评估。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:37:51 | 显示全部楼层
平稳性 (stationarity)

数据集中数据的一种属性,表示数据分布在一个或多个维度保持不变。这种维度最常见的是时间,即表明平稳性的数据不随时间而变化。例如,从 9 月到 12 月,表明平稳性的数据没有发生变化。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:38:27 | 显示全部楼层
静态模型 (static model)

离线训练的一种模型。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:50:40 | 显示全部楼层
平方损失函数 (squared loss)

在线性回归中使用的损失函数(也称为 L2 损失函数)。该函数可计算模型为有标签样本预测的值和标签的实际值之差的平方。由于取平方值,因此该损失函数会放大不佳预测的影响。也就是说,与 L1 损失函数相比,平方损失函数对离群值的反应更强烈。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:53:47 | 显示全部楼层
平方合页损失函数 (squared hinge loss)

合页损失函数的平方。与常规合页损失函数相比,平方合页损失函数对离群值的惩罚更严厉。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 16:54:06 | 显示全部楼层
空间池化 (spatial pooling)

请参阅池化。
本楼点评(0) 收起
Arthur_1  TF荚荚  发表于 2018-10-17 18:01:34 | 显示全部楼层
稀疏特征 (sparse feature)
一种特征向量,其中的大多数值都为 0 或为空。例如,某个向量包含一个为 1 的值和一百万个为 0 的值,则该向量就属于稀疏向量。再举一个例子,搜索查询中的单词也可能属于稀疏特征 - 在某种指定语言中有很多可能的单词,但在某个指定的查询中仅包含其中几个。

与密集特征相对
本楼点评(0) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

快速回复 返回顶部 返回列表