大模型面试精华


1 前言

    1.1  大模型的发展历史

    1.2  Hugging Face简介

    1.3  大模型技术总览

    1.4  GPT模型的发展历程

    1.5  BERT和GPT之战

2 Transformer技术

    2.1  词嵌入技术简介

    2.2  Seq2Seq与Attention简介

    2.3  Transformer简介

    2.4  Transformer十大面试题1

    2.5  Transformer十大面试题2

3 大模型核心技术

    3.1  预训练模型的定义与应用

    3.2  思维链技术的研究与分析

    3.3  大模型的重复问题

    3.4  文生图的底层流程

    3.5  LoRA的原理介绍

    3.6  位置编码方式技术详解

    3.7  模型压缩的基础问题

    3.8  知识蒸馏常见考题

    3.9  模型量化常见考题

    3.10  大模型的剪枝问题

    3.11  LoRA核心考点

4 大模型与强化学习

    4.1  大模型与强化学习

    4.2  强化学习面试要点

    4.3  RLHF核心考题

    4.4  RLHF的挑战

    4.5  GRPO入门介绍

5 预训练与监督微调

    5.1  预训练技术简介

    5.2  监督微调技术简介

大模型面试精华简介

创建时间:2025-01-31 | 更新时间:2026-01-20 | 阅读次数:2550 次

本教程采用小步快跑、快速迭代的方式,最近更新时间:2026年1月20日

前言

当前,面试天下网主要发布了两部作品:《PyTorch面试精华》和《大模型面试精华》。而《大模型面试精华》的前置内容是:《注意力机制入门精华》,需要先学习《注意力机制入门精华》。

特殊声明

自2025年11月开始,面试天下网上的所有作品不再公开发售,仅仅作为内部使用。

本教程共28节,当前为教程简介!
本教程最新修订时间为:2026-05-04 15:09:28