跳至内容

schola.scripts.ray.settings.NetworkArchitectureSettings

类定义

class schola.scripts.ray.settings.NetworkArchitectureSettings(fcnet_hiddens=, activation=ActivationFunctionEnum.ReLU, use_attention=False, attention_dim=64)

基类: object

用于 RLlib 训练过程的网络架构设置的数据类。此类定义用于策略和值函数逼近的神经网络架构的参数。这包括隐藏层大小、激活函数以及是否使用注意力机制。这些设置有助于控制训练过程中使用的神经网络模型的复杂性和容量。

参数

fcnet_hiddens

类型: List[int]

activation

类型: ActivationFunctionEnum

use_attention

类型: bool

attention_dim

Type: int

属性

activation

类型: ActivationFunctionEnum
默认: 'relu'

用于全连接网络的激活函数。它指定应用于神经网络隐藏层中每个神经元的非线性激活函数。默认值为 ReLU(整流线性单元),这是深度学习中常用的激活函数,因为它简单有效。其他选项可能包括 Tanh、Sigmoid 等。可以根据问题的具体要求和神经网络的架构进行调整。

attention_dim

Type: int
默认: 64

注意力层的维度。如果将 use_attention 设置为 True,则指定注意力机制的输出大小。注意力维度决定了将使用多少特征来表示注意力层的输出。较大的值可能允许更复杂的表示,但也会增加计算成本。默认值为 64,这是许多应用的常见选择。

fcnet_hiddens

类型: List[int]

全连接网络的隐藏层架构。它指定用于策略和值函数逼近的神经网络中每个隐藏层中的神经元数量。默认值为 [512, 512],表示两个具有 512 个神经元的隐藏层。可以根据问题的复杂性和输入状态空间的大小进行调整。

name

类型: str

use_attention

类型: bool
Default: False

是否在模型中使用注意力机制。它指定是否在神经网络架构中包含注意力层。请注意,此处的注意力不是关注输入,而是关注时间步维度。

方法

__init__

__init__(fcnet_hiddens=, activation=ActivationFunctionEnum.ReLU, use_attention=False, attention_dim=64)

返回类型: None

populate_arg_group

classmethod populate_arg_group(args_group)
© . This site is unofficial and not affiliated with AMD.