单选题 在LLM中,上下文学习(In-context Learning)的核心思想是?

A、 模型微调
B、 利用上下文信息进行推理
C、 增加训练数据
D、 提高模型泛化能力
下载APP答题
由4l***kz提供 分享 举报 纠错

相关试题

单选题 在BERT模型中,NSP任务的主要作用是?

A、预测被掩码的词
B、判断两个句子是否连续
C、生成文本
D、提取词向量

单选题 在BERT中,[CLS]标记的主要作用是?

A、表示句子结束
B、用于分类任务
C、表示句子开始
D、分隔两个句子

单选题 以下哪项不是Transformer模型的组成部分?

A、Self-Attention
B、Feed-Forward Network
C、LSTM
D、Layer Normalization

单选题 以下哪项技术不属于词向量表示方法?

A、Word2Vec
B、GloVe
C、ELMo
D、BERT

单选题 以下哪项不是传统NLP中n-gram模型的缺点?

A、数据稀疏问题
B、无法捕捉长距离依赖
C、计算复杂度高
D、依赖标注数据

单选题 在Transformer模型中,Self-Attention机制的主要优势是?

A、减少参数量
B、并行计算能力强
C、提高模型泛化能力
D、降低训练难度

单选题 以下哪项不是BERT模型的预训练任务?

A、MLM
B、NSP
C、LM
D、SOP

单选题 以下哪项不是BERT模型的组成部分?

A、Token Embeddings
B、Segment Embeddings
C、Position Embeddings
D、Attention Embeddings