diff --git a/docs/api/paddle/amp/debugging/check_layer_numerics_cn.rst b/docs/api/paddle/amp/debugging/check_layer_numerics_cn.rst new file mode 100644 index 00000000000..1e7523b4bd0 --- /dev/null +++ b/docs/api/paddle/amp/debugging/check_layer_numerics_cn.rst @@ -0,0 +1,23 @@ +.. _cn_api_paddle_amp_debugging_check_layer_numerics: + +check_layer_numerics +------------------------------- + +.. py:function:: paddle.amp.debugging.check_layer_numerics(func) +这个装饰器用于检查层的输入和输出数据的数值。 + + +参数 +::::::::: + +- **func** (callable) – 将要被装饰的函数。 + +返回 +::::::::: +一个被装饰后的函数(callable)。这个新的函数会在原来的函数基础上加上数值检查功能。 + + +代码示例 +:::::::::::: + +COPY-FROM: paddle.amp.debugging.check_layer_numerics diff --git a/docs/api/paddle/incubate/nn/functional/fused_linear_activation_cn.rst b/docs/api/paddle/incubate/nn/functional/fused_linear_activation_cn.rst new file mode 100644 index 00000000000..303b606bc4f --- /dev/null +++ b/docs/api/paddle/incubate/nn/functional/fused_linear_activation_cn.rst @@ -0,0 +1,30 @@ +.. _cn_api_paddle_incubate_nn_functional_fused_linear_activation: + +fused_linear_activation +------------------------------- + +.. py:function:: paddle.incubate.nn.functional.fused_linear_activation(x, y, bias, trans_x=False, trans_y=False, activation=None) + +全连接线性和激活变换操作符。该方法要求 CUDA 版本大于等于 11.6 。 + + +参数 +::::::::: + + - **x** (Tensor) – 需要进行乘法运算的输入 Tensor 。 + - **y** (Tensor) – 需要进行乘法运算的权重 Tensor 。它的阶数必须为 2。 + - **bias** (Tensor) – 输入的偏置 Tensor,该偏置会加到矩阵乘法的结果上。 + - **trans_x** (bool, 可选) - 是否在乘法之前对 x 进行矩阵转置。 + - **trans_y** (bool, 可选) - 是否在乘法之前对 y 进行矩阵转置。 + - **activation** (str, 可选) - 目前,可用的激活函数仅限于“GELU”(高斯误差线性单元)和“ReLU”(修正线性单元)。这些激活函数应用于添加偏置之后的输出上。默认值:None。 + +返回 +::::::::: + +**Tensor**,变换之后的 Tensor。 + + +代码示例 +:::::::::::: + +COPY-FROM: paddle.incubate.nn.functional.fused_linear_activation