机器学习

macro F1,micro F1以及 weighted F1的区别
机器学习

macro F1,micro F1以及 weighted F1的区别

39 0

对于多分类问题,sklearn中的f1_score评价函数的average有三个参数:‘macro’,‘micro’和‘weighted’,下面我们来说一下这三种F1的区别。weighted F1分别计算每个类别的F1值,然后与对应类别标签...

神经网络batch_size调参
机器学习

神经网络batch_size调参

91 1

batch_size 是神经网络训练的一个重要参数,batch_size最大时就是整个训练集的大小,这时使用整个训练集进行Gradient decent,但这样非常容易对训练集过拟合,最好的办法是使用mini_batch gradient...

特征缩放对各种算法的影响
机器学习

特征缩放对各种算法的影响

92 0

我们知道最常见的特征缩放方法是标准化(Standardization)和归一化(Normalization),标准化是将数据缩放为均值为0,标准差为1的范围内,归一化是将特征缩放到[0,1]之间。然而在skleran库中,还有许多其他的缩放...

区分多分类问题的OneVsOne和OneVsAll方法
机器学习

区分多分类问题的OneVsOne和OneVsAll方法

89 0

OneVsAll和OneVsOne是对于二分类器如支持向量机解决多分类问题的两种解决办法。这篇文章主要讲一下他们之间的区别。假如数据有N个类别,OneVsAll将对N类中的每个类别训练一个分类器,对于class i,将label==i的样本...

回归问题中如何更好地利用MAE和MSE提高模型性能?
机器学习

回归问题中如何更好地利用MAE和MSE提高模型性能?

158 0

对于回归问题,它的损失函数一般有MSE,MAE两种,MSE对于偏离大的点惩罚较大,MAE对于偏离小的点惩罚较大,我们可以对具有异常点的数据做回归,结果如下图:可以看到MSE对偏离大的点重点惩罚,曲线也就偏向异常点了,而MAE则几乎无视了异常...

SMOTE算法的简单表述
机器学习

SMOTE算法的简单表述

284 0

SMOTE算法是过采样算法,出自JAIR'2002的文章《SMOTE: Synthetic Minority Over-sampling Technique》,目的是为少数类合成新样本,以解决数据不平衡的问题。为表述简单,我们举例说...

sklearn.preprocessing中的Imputer用法解析
机器学习

sklearn.preprocessing中的Imputer用法解析

311 0

Imputer使用数据的统计信息(均值、中位数等)来填充缺失值。为了避免交叉验证时的数据泄漏,它使用fit计算训练数据的统计值,储存统计值,然后使用transform将统计值应用于测试数据。from sklearn.prep...