今天面了几个大模型女生,全是菜鸟啊……
发布时间:2025-06-25 11:50 浏览量:3
[发怒]真服了,我不信有这个题,还不会常见的业务题[一]架构理解篇Q1 Transformer模型主要由哪两部分组成?Q2 自注意力机制中的Q、K、V矩阵是什么缩写?Q3 多头注意力中"头"(head)指的是什么?Q4 位置编码的作用是什么?Q5 Encoder和Decoder结构的主要区别?Q6 为什么要使用残差连接(Residual Connection)?[二]基础组件篇Q7 前馈神经网络(FFN)有多少层?Q8 Layer Normalization放在哪个位置?Q9 激活函数ReLU和GeLU的主要区别?Q10 词嵌入(Word Embedding)的维度代表什么?Q11 注意力掩码(Attention Mask)的作用是什么?Q12 为什么要使用dropout技术?[三]训练基础篇Q13 预训练(Pre-training)的目标是什么?Q14 什么是语言模型中的"自回归生成"?Q15 数据并行的基本实现方式?Q16 什么是训练中的批量大小(Batch Size)?Q17 学习率(Learning Rate)过大会导致什么问题?Q18 训练损失(Training Loss)下降说明什么?[四]模型应用篇Q19 什么是文本生成中的贪心解码(Greedy Decoding)?Q20 温度参数(Temperature)如何影响生成结果?Q21 模型推理时为什么要限制生成长度?Q22 什么是提示工程(Prompt Engineering)?Q23 模型微调(Fine-tuning)的目的是什么?Q24 模型量化(Quantization)的基本原理?[五]基础概念篇Q25 参数量(Parameters)和计算量(FLOPs)的区别?Q26 什么是生成式AI(Generative AI)?Q27 预训练模型和传统NLP模型的核心区别?Q28 为什么大模型需要海量训练数据?Q29 什么是过拟合(Overfitting)现象?Q30 模型推理(Inference)是指什么过程?[六]工程实践篇Q31 GPU显存不足时常见的解决方法?Q32 模型权重文件(Checkpoint)包含哪些内容?Q33 什么是模型服务(Model Serving)?Q34 批处理(Batching)如何提升推理速度?Q35 为什么需要模型压缩技术?Q36 常见的模型部署格式有哪些?(如ONNX)[七]评估基础篇Q37 如何评估语言模型的生成质量?Q38 困惑度(Perplexity)指标的计算原理?Q39 人工评估和自动评估的优缺点?Q40 什么是基准测试(Benchmark)?#互联网大厂 #大模型 #大模型应用 #人工智能 #面经 #算法 #大模型面试 #大模型学习 #大模型入门 #LLM