set_distribution 函数keras.distribution.set_distribution(value)
将分布式配置设置为全局配置。
参数
Distribution 实例。distribution 函数keras.distribution.distribution()
从全局上下文中检索当前的分布式配置。
list_devices 函数keras.distribution.list_devices(device_type=None)
根据设备类型返回所有可用的设备。
注意:在分布式环境中,将返回全局设备。
参数
"cpu"、"gpu" 或 "tpu"。默认为 "gpu" 或 "tpu"(如果可用)。否则将返回 "cpu" 设备。返回: 可用于分布式计算的设备列表。
initialize 函数keras.distribution.initialize(
job_addresses=None, num_processes=None, process_id=None
)
初始化用于多主机/多进程设置的分布式系统。
调用 initialize 将为多主机 GPU 或 TPU 上的执行准备后端。它应该在任何计算之前调用。
请注意,参数也可以通过环境变量注入,这可以在启动时通过启动脚本更好地控制。对于某些依赖于环境变量进行配置的后端,Keras 会正确地转发它们。
参数
None,后端将通过 TPU 环境变量自行确定。您也可以通过环境变量 KERAS_DISTRIBUTION_JOB_ADDRESSES 配置此值。None,后端将通过 TPU 环境变量自行确定。您也可以通过环境变量 KERAS_DISTRIBUTION_NUM_PROCESSES 配置此值。0 到 num_processes - 1 之间。0 表示当前 worker/进程为主/协调作业。您也可以通过环境变量 KERAS_DISTRIBUTION_PROCESS_ID 配置此值。假设有两个 GPU 进程,进程 0 运行在地址 10.0.0.1:1234,进程 1 运行在地址 10.0.0.2:2345。要配置这样的集群,您可以运行 - __在进程 0 上__
keras.distribute.initialize(
job_addresses="10.0.0.1:1234,10.0.0.2:2345",
num_processes=2,
process_id=0)
keras.distribute.initialize(
job_addresses="10.0.0.1:1234,10.0.0.2:2345",
num_processes=2,
process_id=1)
os.environ[
"KERAS_DISTRIBUTION_JOB_ADDRESSES"] = "10.0.0.1:1234,10.0.0.2:2345"
os.environ["KERAS_DISTRIBUTION_NUM_PROCESSES"] = "2"
os.environ["KERAS_DISTRIBUTION_PROCESS_ID"] = "0"
keras.distribute.initialize()
os.environ[
"KERAS_DISTRIBUTION_JOB_ADDRESSES"] = "10.0.0.1:1234,10.0.0.2:2345"
os.environ["KERAS_DISTRIBUTION_NUM_PROCESSES"] = "2"
os.environ["KERAS_DISTRIBUTION_PROCESS_ID"] = "1"
keras.distribute.initialize()
另外请注意,对于 JAX 后端,job_addresses 可以进一步简化为仅主/协调器的地址,即 - __10.0.0.1__:1234。