A. 计算词向量的欧式距离
B. 捕捉序列中词语之间的上下文依赖关系
C. 降低模型参数量
D. 加速模型推理速度
在Transformer模型中,自注意力机制(Self-Attention)的主要作用是()A. 对输入序列进行编码B. 增加模型的非线性能力C. 计算序列中每
判断题自注意力机制是Transformer模型的核心技术之一。A. 正确B. 错误
[单选题]A.RQ机制是:主要功能A.RLC AMB.RLC UMC.PDCPD.MAC
[单选题]ARQ机制是()主要功能。A . RLC AMB . RLC UMC . PDCPD . MAC
[单选题]A.RQ机制是()的主要功能A.RLC AMB.RLC UMC.PDCPD.MAC
[多选题] 实行惩戒机制的主要功能是()。A .对所有失信行为的法人实质性打击B .对所有失信行为的自然人实质性打击C .使信用交易双方不敢轻易对经济合同或书面允诺违约D .使不讲信用的法人不能顺利生活在社会中E .使不讲信用的自然人不能顺利生活在社会中
深度学习中的注意力机制主要作用是()A. 加速计算过程B. 提高模型的可解释性C. 减少参数数量D. 聚焦重要信息
深度学习中的注意力机制(Attention)主要用于:A. 图像分类B. 图像生成C. 文本分类D. 文本生成
[填空题] CM的主要功能是(),HDL的主要功能是()。
[问答题] 简答自诊断系统的主要功能。