GridSearch
类keras_tuner.GridSearch(
hypermodel=None,
objective=None,
max_trials=None,
seed=None,
hyperparameters=None,
tune_new_entries=True,
allow_new_entries=True,
max_retries_per_trial=0,
max_consecutive_failed_trials=3,
**kwargs
)
网格搜索调试器。
此调试器迭代所有可能的超参数组合。
例如,使用
optimizer = hp.Choice("model_name", values=["sgd", "adam"])
learning_rate = hp.Choice("learning_rate", values=[0.01, 0.1])
此调试器将涵盖以下组合:["sgd", 0.01], ["sgd", 0.1], ["adam", 0.01] ["adam", 0.1]
。
对于以下超参数类型,GridSearch 不会穷尽所有可能的值
hp.Float()
当step
未指定时。hp.Int()
当sampling
设置为"log"
或"reverse_log"
,且step
未指定时。对于这些情况,KerasTuner 默认情况下将在范围内均匀选择 10 个样本。要配置hp.Float()
和hp.Int()
采样的粒度,请在其初始化程序中使用step
参数。
参数
HyperModel
类的实例(或接受超参数并返回模型实例的可调用对象)。当覆盖Tuner.run_trial()
并且不使用self.hypermodel
时,它是可选的。keras_tuner.Objective
实例或keras_tuner.Objective
和字符串的列表。如果为字符串,则将推断优化的方向(最小化或最大化)。如果为keras_tuner.Objective
列表,我们将最小化所有目标的总和以最小化,减去所有目标的总和以最大化。当Tuner.run_trial()
或HyperModel.fit()
返回单个浮点数作为要最小化的目标时,objective
参数是可选的。max_trial
个模型之前中断搜索。如果未指定,则它会一直运行到搜索空间用尽为止。HyperParameters
实例。可用于覆盖(或预先注册)搜索空间中的超参数。hyperparameters
中指定的超参数条目添加到搜索空间中。如果不是,则将使用这些参数的默认值。默认为 True。hyperparameters
中未列出的超参数条目。默认为 True。Trial
的最大次数。Trial
的最大数量。达到此数量时,搜索将停止。当没有一个重试成功时,Trial
将被标记为失败。Tuner
子类相关的关键字参数。请参阅Tuner
的文档字符串。