单选题 以下关于Seq2seq 模型,描述错误的是哪一项?

A、 Seq2Seq 模型由编码器和解码器两部分组成
B、 Encoder 中将可变长度的信号序列变为固定长度的向量表达,其实本质也就是进行了特征压缩
C、 Encoder 和 Decoder 可以是 CNN、RNN、Transformer三种结构
D、 Seq2Seq 的 Encoder 和 Decoder 只能是相同的结构
下载APP答题
由4l***g7提供 分享 举报 纠错

相关试题

单选题 以下关于华为AI全栈解决方案的描述,错误的是哪一项?

A、ModelArts不仅可以调用NPU算力,也可以调用除了NPU以外的异构算力
B、MindSpore是深度学习框架,只能用在华为AI解决方案中
C、ModelArts提供分层API和预集成,使能应用的全流程服务
D、芯片算子库和自动化算子开发工具CANN可以屏蔽底层硬件差异,向上提供一个统一的接口

单选题 在多模态模型中,根据下游任务的类型,可以将任务划分为理解式任务和生成式任务。以下哪一项不属于生成式任务?

A、文生图
B、图生图
C、图生视频
D、图像检索

单选题 以下关于ViT的Transformer Encoder模块,描述错误的是哪一项?

A、Transformer Encoder其实就是重复堆叠Encoder Block L次
B、Vision Transformer Encoder 和Transformer Encoder都有层归一化,多头注意力机制,残差连接和线性变换这四个操作,只是在操作顺序有所不同
C、一个Block之后维度依然和输入相同,因此可以堆叠多个Block
D、通过Transformer Encoder后输出的shape和输入的shape是不一致的

单选题 Huggingface PEFT和MindPet都是常用的大模型训练套件,以下有关PEFT和MindPet的描述,错误的是哪一项?

A、PEFT和MindPet都是用于对大模型低参微调的套件
B、PEFT和MindPet都支持LORA,Pretx Tuning等微调算法
C、PEFT是开源套件,MindPet是闭源套件
D、PEFT基于PyTorch实现,MindPet基于Mindspore实现

单选题 盘古解决方案可简单概括为5+N+X,包括L0,L1,L2三层模型架构,以下相关说法中哪一项是正确的?

A、参数量:L0<L1<L2
B、L0层模型主要包含自然语言,多模态,视觉,预测,科学计算等基础能力
C、盘古矿山大模型是为了矿山应用场景特别定制的L2模型
D、盘古解决方案设置了工作流,便于对适用于同行业的L2模型进行整合,集成成为L1模型

单选题 以下关于Stable Diffusion模型训练过程,描述错误的是哪一项?

A、Stable Diffusion 选择在像素图像本身上运行扩散过程
B、整个压缩过程,包括后续的解压、绘制图像都是通过自编码器完成的
C、得到的图像并非是一张精确的原始图像,而是分布
D、所有的操作都是在潜空间上,包括编码后的文本、输入图像和预测噪声

单选题 Mindformers是集成大模型开发、训练、微调、评估、推理、部署的全流程开发套件,提供业内主流的Transformer类预训练模型和SOTA下游任务应用,涵盖丰富的并行特性。其中MindPet作为集成在MindFormers中的套件,主要负责大模型全流程开发环节中的哪一部分?

A、大模型训练
B、大模型微调
C、大模型评估
D、大模型推理

单选题 以下关于DCQCN功能的描述,错误的是哪一项?

A、DCQCN包含拥塞点算法,该算法集成在底层算法包
B、当CP的队列中,报文已经超过ECN门限时,CP在转发报文中打上ECN拥塞标记
C、RoCEv2新增了CNP控制报文用于拥塞通知
D、源端服务器收到CNP拥塞通知报文后,降低发包速率为50%