0%
LLM / 自动驾驶相关
- LN和BN
- 介绍RLHF
- 介绍MoE和变体
- 介绍LoRA和变体
- LoRA 参数更新机制
- 如何减轻LLM中的幻觉现象?
- MLM和MIM的关系和区别?
- Stable Diffusion的技术原理
- 解決LLM Hallucination的方法
- Occupancy预测的出发点是什么?
- 介绍RWKV、Mamba和Mamba-2
- 2D图像预训练怎么迁移到3D点云任务
- 为什么现在的LLM都是Decoder only的架构?
- 把Transformer模型训深的问题有哪些?怎么解决
- 现在车道线检测的主流的loss是什么?你有哪些想法?
- 为什么GAN中经常遇到mode collapse,而Diffusion比较少?
- 介绍Transformer和ViT
- 介绍Transformer的QKV
- 介绍Layer Normalization
- Transformer训练和部署技巧
- 介绍Transformer的位置编码
- 介绍自注意力机制和数学公式
- 介绍Transformer的Encoder模块
- 介绍Transformer的Decoder模块
- Transformer和Mamba(SSM)的区别
- Transformer中的残差结构以及意义
- 为什么Transformer适合多模态任务?
- Transformer的并行化体现在哪个地方?
- 为什么Transformer一般使用LayerNorm?
- Transformer为什么使用多头注意力机制?
- Transformer训练的Dropout是如何设定的?