单选题 下列哪种并行技术主要解决模型过大无法放入单卡的问题:
A、数据并行
B、模型并行
C、任务并行
D、流水线并行
单选题 关于 Prefix Decoder 和 Causal Decoder,下列说法正确的是:
A、两者都只能用于生成任务
B、Prefix Decoder 更适合 seq2seq 任务
C、Causal Decoder 不支持双向注意力
D、Prefix Decoder 训练效率更高
单选题 关于大模型的上下文学习能力,下列说法错误的是:
A、不需要更新模型参数
B、与模型规模正相关
C、提示词的质量不影响效果
D、是大模型的重要特性
单选题 在使用 LoRA 进行微调时,秩(rank)的选择会影响:
A、模型推理速度
B、微调后的模型性能
C、原模型结构
D、训练时的内存占用
单选题 下列哪种方法不能有效提高大模型的推理速度:
A、模型量化
B、模型剪枝
C、增加模型参数量
D、使用推理优化引擎
单选题 在大模型微调中,冻结底层参数的主要原因是:
A、这些参数不重要
B、减少计算量,防止过拟合
C、这些参数已经训练得足够好
D、方便模型部署
单选题 下列哪种指标可以评估大模型的事实准确性:
A、BLEU
B、ROUGE
C、F1-score
D、Factuality Score
单选题 关于大模型的训练数据,下列说法错误的是:
A、数据质量比数量更重要
B、数据多样性会影响模型泛化能力
C、数据清洗对模型性能影响不大
D、数据重复会导致模型过拟合