欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

sklearn-神经网络

最编程 2024-08-13 10:47:35
...

1、alpha:float,optional,defaultL2惩罚(正则化项)的参数。

2、learning_rate_init:double,optional,default使用的初始学习率。它控制了更新权重时的步长。当solver=‘sgd’或者‘adam’时才可用。

3、warm_start:bool,optional,defaultFalse,热启动。

4、n_iter_:int,solver运行的迭代次数。

5、coefs_:list,lengthn_layers-列表中的第i个元素代表了与第i层相对应的权重矩阵。

6、beta_float,optional,default仅当solver=‘adam’时可用。adam中第一矩向量估计的指数衰减率。

7、early_stopping:bool,defaultFalse,当solver=‘sgd’或者‘adam’时,有效。当验证分数不在提升时,是否使用早期停止来终止训练。如果设置为True,当验证分数至少在两个连续的时间内没有提高,它将自动留出10%的训练数据作为验证和终止训练。

8、loss_:float,用损失函数计算当前的损失。

9、hidden_layer_sizes:tuple,length=n_layers-default(第i个元素代表了第i个隐藏层中的神经元数目。

10、tol:float,optional,default1e-迭代停止条件。

11、batch_size:int,optional,default‘auto’,小批量随机优化器的大小,如果“solver”是“lbfgs”,分类器将不会使用minibatch。当设置为“auto”时batch_size=min(n_samples)。小批量梯度下降的大小。

12、epsilon:float,optional,default1e-仅当solver=‘adam’时可用。adam中数值稳定性的值。

13、power_t:double,optional,default只有当solver='sgd'时,可用。它的指数和学习率成反比,当learning_rate被设置为“invscaling”时,它用于更新当前学习率。

14、activation:{‘identity’,‘logistic’,‘tanh’,‘relu’},default‘relu’,隐藏层的激活函数。‘identity’,no-op激活函数,对实现线性瓶颈很有用,returnsf(x)=x。‘logistic’,logisticsigmoid函数,returnsf(x)=1/(1+exp(-x))。‘tanh’,双曲tan函数,returnsf(x)=tanh(x)。‘relu’,the修正的线性单位函数,returnsf(x)=max(x)

15、out_activation_:string,输出激活函数的名称。

16、momentum:float,default仅当solver=‘sgd’时,可用。梯度下降更新的动量。

17、random_state:int,RandomStateinstanceorNone,optional,defaultNone,随机种子。

18、solver:{‘lbfgs’,‘sgd’,‘adam’},default‘adam’,求解权重的优化方法。‘lbfgs’是一种拟牛顿方法族的优化方法。‘sgd’代表随机梯度下降。‘adam’指的是由Kingma、Diederik和JimmyBa提出的基于随机梯度的优化器。注意:在相对较大的数据集(有数千个训练样本或更多)的训练时间和验证分数方面,默认的解析器“adam”工作得很好。然而,对于小型数据集,“lbfgs”可以更快地收敛,并且性能更好。

19、beta_float,optional,default仅当solver=‘adam’时可用。adam中第二矩向量估计的指数衰减率。

20、learning_rate:{‘constant’,‘invscaling’,‘adaptive’},default‘constant’,更新权重的学习率。只有当solver='sgd'时,可用。‘constant’,学习率是由‘learning_rate_init’给出的一个常量。‘invscaling’,逐步降低了学习率learning_rate,effective_learning_rate=learning_rate_init/pow(t,power_t)。‘adaptive’将学习率保持为learning_rate_init的常数,只要训练的损失持续减少。当连续两个时间段,训练的损失的减少都比tol小,或者不能提高至少tol的验证分数,如果‘early_stopping’设置为“True”,那么当前学习率将除以?

21、validation_fraction:float,optional,default仅当early_stopping设置为True时可用。训练数据的比例,作为早期停止的验证。必须在0到1之间。

22、n_outputs_:int,输出的数目。

23、n_layers_:int,层数。

24、verbose:bool,optional,defaultFalse,冗长输出。

25、max_iter:int,optional,default最大迭代次数。这个solver将会不断迭代直到收敛(由tol决定),或者达到最大迭代次数max_iter。对于随机的solver(‘sgd’和‘adam’)。注意,它决定了epochs的数量(这个数据点将被使用多少次),不是梯度的步骤数。

26、nesterovs_momentum:boolean,defaultTrue,仅当solver=‘sgd’且momentum>0时,可用。是否使用Nesterov的动量法。

27、shuffle:bool,optional,defaultTrue,每次迭代时,样本是否重新洗牌,仅当solver=‘sgd’或者‘adam’时可用。

28、intercepts_:list,lengthn_layers-列表中的第i个元素代表了对应于i+1层的偏差向量。