Transformer架构是当前所有大语言模型的技术基石。() 正确 错误
大语言模型的核心架构是:A. RNNB. TransformerC. CNND. LSTM
大语言模型基于Transformer架构延伸出不同的路线图,BERT属于其中哪一种路线图A. Encoder-OnlyB. Decoder-EncoderC.
某公司打算选择模型用于部署应用,以下哪些模型是基于Transformer架构的?A. ResNetB. T5C. GPT-2D. BERT
大模型的基本原理基于Transformer架构,其中负责将内部表示转换回文本的组件是( ).A. 编码器B. 解码器C. 神经元D. 自注意力机制
下列属于Transformer架构优势的是( )A. 仅能处理短文本B. 解决循环神经网络的梯度问题C. 无需训练数据D. 参数量固定不变
大语言模型训练涉及___技术。A. 指令微调B. 知识图谱C. 强化学习D. 深度学习
Transformer模型的核心创新是()。A. 使用卷积层提取特征B. 引入自注意力机制(Self-Attention)并行计算上下文C. 依赖循环神经网络(
Transformer声学模型的核心改进是( )A. 循环结构处理时序B. 放弃位置编码C. 减少参数数量D. 自注意力机制捕获长距离依赖
判断题自注意力机制是Transformer模型的核心技术之一。A. 正确B. 错误
利用Transformer进行自然语言处理的发展阶段是A. 基于深度学习的阶段B. 基于统计方法的阶段C. 基于规则的阶段D. 基于迁移学习的阶段