机器学习

参数机器学习算法和非参数机器学习算法
机器学习

参数机器学习算法和非参数机器学习算法

68 0

参数模型和非参数模型是统计中的概念,参数模型假设总体样本服从一个分布,该分布由一些参数确定,例如高斯分布的均值和方差;非参数模型不对总体的分布做任何假设,但是注意,它的分布是存在的。在机器学习中,参数模型往往是这样的模型:先选定目标函数,然...

kmeans++和kmeans||
机器学习

kmeans++和kmeans||

364 0

kmeans是经典的聚类算法,但是它有两个缺点:1)k值不好确定;2)初始值敏感,不同的初始值得到的聚类结果差异很大。对于第一点我们无能为力。对于第二点,常用的办法是多迭代几次,选择使得代价函数最小的初始值。但是这无疑增加了计算量,而且容易...

macro F1,micro F1以及 weighted F1的区别
机器学习

macro F1,micro F1以及 weighted F1的区别

311 0

对于多分类问题,sklearn中的f1_score评价函数的average有三个参数:‘macro’,‘micro’和‘weighted’,下面我们来说一下这三种F1的区别。weighted F1分别计算每个类别的F1值,然后与对应类别标签...

神经网络batch_size调参
机器学习

神经网络batch_size调参

176 1

batch_size 是神经网络训练的一个重要参数,batch_size最大时就是整个训练集的大小,这时使用整个训练集进行Gradient decent,但这样非常容易对训练集过拟合,最好的办法是使用mini_batch gradient...

特征缩放对各种算法的影响
机器学习

特征缩放对各种算法的影响

181 0

我们知道最常见的特征缩放方法是标准化(Standardization)和归一化(Normalization),标准化是将数据缩放为均值为0,标准差为1的范围内,归一化是将特征缩放到[0,1]之间。然而在skleran库中,还有许多其他的缩放...

区分多分类问题的OneVsOne和OneVsAll方法
机器学习

区分多分类问题的OneVsOne和OneVsAll方法

178 0

OneVsAll和OneVsOne是对于二分类器如支持向量机解决多分类问题的两种解决办法。这篇文章主要讲一下他们之间的区别。假如数据有N个类别,OneVsAll将对N类中的每个类别训练一个分类器,对于class i,将label==i的样本...

Live Sex Cams Free