sklearn-神经网络
1、alpha:float,optional,defaultL2惩罚(正则化项)的参数。
2、learning_rate_init:double,optional,default使用的初始学习率。它控制了更新权重时的步长。当solver=‘sgd’或者‘adam’时才可用。
3、warm_start:bool,optional,defaultFalse,热启动。
4、n_iter_:int,solver运行的迭代次数。
5、coefs_:list,lengthn_layers-列表中的第i个元素代表了与第i层相对应的权重矩阵。
6、beta_float,optional,default仅当solver=‘adam’时可用。adam中第一矩向量估计的指数衰减率。
7、early_stopping:bool,defaultFalse,当solver=‘sgd’或者‘adam’时,有效。当验证分数不在提升时,是否使用早期停止来终止训练。如果设置为True,当验证分数至少在两个连续的时间内没有提高,它将自动留出10%的训练数据作为验证和终止训练。
8、loss_:float,用损失函数计算当前的损失。
9、hidden_layer_sizes:tuple,length=n_layers-default(第i个元素代表了第i个隐藏层中的神经元数目。
10、tol:float,optional,default1e-迭代停止条件。
11、batch_size:int,optional,default‘auto’,小批量随机优化器的大小,如果“solver”是“lbfgs”,分类器将不会使用minibatch。当设置为“auto”时batch_size=min(n_samples)。小批量梯度下降的大小。
12、epsilon:float,optional,default1e-仅当solver=‘adam’时可用。adam中数值稳定性的值。
13、power_t:double,optional,default只有当solver='sgd'时,可用。它的指数和学习率成反比,当learning_rate被设置为“invscaling”时,它用于更新当前学习率。
14、activation:{‘identity’,‘logistic’,‘tanh’,‘relu’},default‘relu’,隐藏层的激活函数。‘identity’,no-op激活函数,对实现线性瓶颈很有用,returnsf(x)=x。‘logistic’,logisticsigmoid函数,returnsf(x)=1/(1+exp(-x))。‘tanh’,双曲tan函数,returnsf(x)=tanh(x)。‘relu’,the修正的线性单位函数,returnsf(x)=max(x)
15、out_activation_:string,输出激活函数的名称。
16、momentum:float,default仅当solver=‘sgd’时,可用。梯度下降更新的动量。
17、random_state:int,RandomStateinstanceorNone,optional,defaultNone,随机种子。
18、solver:{‘lbfgs’,‘sgd’,‘adam’},default‘adam’,求解权重的优化方法。‘lbfgs’是一种拟牛顿方法族的优化方法。‘sgd’代表随机梯度下降。‘adam’指的是由Kingma、Diederik和JimmyBa提出的基于随机梯度的优化器。注意:在相对较大的数据集(有数千个训练样本或更多)的训练时间和验证分数方面,默认的解析器“adam”工作得很好。然而,对于小型数据集,“lbfgs”可以更快地收敛,并且性能更好。
19、beta_float,optional,default仅当solver=‘adam’时可用。adam中第二矩向量估计的指数衰减率。
20、learning_rate:{‘constant’,‘invscaling’,‘adaptive’},default‘constant’,更新权重的学习率。只有当solver='sgd'时,可用。‘constant’,学习率是由‘learning_rate_init’给出的一个常量。‘invscaling’,逐步降低了学习率learning_rate,effective_learning_rate=learning_rate_init/pow(t,power_t)。‘adaptive’将学习率保持为learning_rate_init的常数,只要训练的损失持续减少。当连续两个时间段,训练的损失的减少都比tol小,或者不能提高至少tol的验证分数,如果‘early_stopping’设置为“True”,那么当前学习率将除以?
21、validation_fraction:float,optional,default仅当early_stopping设置为True时可用。训练数据的比例,作为早期停止的验证。必须在0到1之间。
22、n_outputs_:int,输出的数目。
23、n_layers_:int,层数。
24、verbose:bool,optional,defaultFalse,冗长输出。
25、max_iter:int,optional,default最大迭代次数。这个solver将会不断迭代直到收敛(由tol决定),或者达到最大迭代次数max_iter。对于随机的solver(‘sgd’和‘adam’)。注意,它决定了epochs的数量(这个数据点将被使用多少次),不是梯度的步骤数。
26、nesterovs_momentum:boolean,defaultTrue,仅当solver=‘sgd’且momentum>0时,可用。是否使用Nesterov的动量法。
27、shuffle:bool,optional,defaultTrue,每次迭代时,样本是否重新洗牌,仅当solver=‘sgd’或者‘adam’时可用。
28、intercepts_:list,lengthn_layers-列表中的第i个元素代表了对应于i+1层的偏差向量。
推荐阅读
-
华为麒麟的AI性能是高通的3.5倍?这是所有手机运行神经网络的能力-AI Benchmark 是如何测试手机AI性能的
-
使用 PyTorch 中的 torch.optim.LBFGS 优化神经网络
-
MPLClassifier用于分类的神经网络
-
MLP神经网络理论及实践
-
神经网络L-BFGS优化器
-
sklearn-神经网络
-
机器学习测试笔记(15)——神经网络
-
神经网络是什么?
-
【视频】Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析|数据分享|附代码数据
-
电信行业客户流失预测方法比较:KNN、朴素贝叶斯、逻辑回归、LDA/QDA、随机森林、支持向量机、CART、神经网络