linear# class torch.ao.nn.quantized.functional.linear(input, weight, bias=None, scale=None, zero_point=None)[source]# 将量化的输入数据进行线性变换:y=xAT+by = xA^T + by=xAT+b。请参见 Linear 注意 当前实现每次调用都会打包权重,这会影响性能。如果想避免此开销,请使用 Linear。 参数 input (Tensor) – torch.quint8 类型的量化输入 weight (Tensor) – torch.qint8 类型的量化权重 bias (Tensor) – None 或 torch.float 类型的 fp32 bias scale (double) – 输出的 scale。如果为 None,则从输入 scale 推导 zero_point (python:long) – 输出的 zero point。如果为 None,则从输入 zero_point 推导 返回类型 张量 形状 Input: (N,∗,in_features)(N, *, in\_features)(N,∗,in_features),其中 * 表示任何数量的附加维度 Weight: (out_features,in_features)(out\_features, in\_features)(out_features,in_features) 偏置: (out_features)(out\_features)(out_features) 输出: (N,∗,out_features)(N, *, out\_features)(N,∗,out_features)
linear# class torch.ao.nn.quantized.functional.linear(input, weight, bias=None, scale=None, zero_point=None)[source]# 将量化的输入数据进行线性变换:y=xAT+by = xA^T + by=xAT+b。请参见 Linear 注意 当前实现每次调用都会打包权重,这会影响性能。如果想避免此开销,请使用 Linear。 参数 input (Tensor) – torch.quint8 类型的量化输入 weight (Tensor) – torch.qint8 类型的量化权重 bias (Tensor) – None 或 torch.float 类型的 fp32 bias scale (double) – 输出的 scale。如果为 None,则从输入 scale 推导 zero_point (python:long) – 输出的 zero point。如果为 None,则从输入 zero_point 推导 返回类型 张量 形状 Input: (N,∗,in_features)(N, *, in\_features)(N,∗,in_features),其中 * 表示任何数量的附加维度 Weight: (out_features,in_features)(out\_features, in\_features)(out_features,in_features) 偏置: (out_features)(out\_features)(out_features) 输出: (N,∗,out_features)(N, *, out\_features)(N,∗,out_features)