判断题 Transformer 模型使用自注意力机制来理解词语之间的关系。

A、 正确
B、 错误
下载APP答题
由4l***sm提供 分享 举报 纠错

相关试题

单选题 当前主流大模型的核心架构是?

A、CNN(卷积神经网络)
B、RNN(循环神经网络)
C、Transformer
D、SVM(支持向量机)

单选题 大模型通常指的是哪种类型的模型?

A、小型决策树模型
B、参数量非常大的深度学习模型
C、传统的线性回归模型
D、规则引擎系统

单选题 下列哪项是一个好的提示词原则?

A、越短越好
B、模糊不清
C、明确具体、有上下文
D、使用大量缩写

单选题 MoE 是指哪种模型结构?

A、单一神经网络
B、混合专家模型(Mixtur
C、o
D、Experts)
E、多任务学习模型
F、模型压缩技术

单选题 Transformer 模型中最关键的机制是什么?

A、池化操作
B、卷积核滑动
C、自注意力机制(Self-Attention)
D、随机森林

单选题 使用 MoE 结构的主要好处是?

A、减少训练数据需求
B、提高模型推理速度
C、在不显著增加计算量的情况下增加模型参数
D、降低模型可解释性

单选题 在 Transformer 中,输入文本首先会被转换成什么?

A、图像像素
B、音频波形
C、向量(词嵌入)
D、HTML代码

单选题 “提示词工程”主要用来做什么?

A、修改模型权重
B、设计输入给模型的指令或问题形式
C、重新训练模型
D、更换GPU显卡