以下大模型特指:大语言模型,LLM
Transfomer
注意力机制
self-attention
word-embedding
flash-attention
encoder,decoder
自然语言对话
逻辑推理
按国别分
国外
GPT系列
GPT3
GPT3.5
GPR4
llama系列
llama
llama2
Bloom
国内
清华智谱-GLM
ChatGLMarrow-up-right
百度-文心一言
阿里-通义千问
科大讯飞-星火认知
百川
微调的目的:
LoRA
Adapter
RLHF
要解决的核心问题:"存得下" "跑得快"
软件方面
量化
剪枝
蒸馏
硬件方面
算子融合、图优化
langchain
ai agent
论文
GLM: General Language Model Pretraining with Autoregressive Blank Infillingarrow-up-right
课程
【清华NLP】刘知远团队大模型公开课全网首发|带你从入门到实战arrow-up-right
【ChatGLM3保姆级教程】安装部署、性能详解、实战应用,零基础入门到应用arrow-up-right
大模型微调实战arrow-up-right
大模型微调和实战:大模型微调方法原理及大模型主流技术架构全详解-北大AI博士arrow-up-right
国产大模型ChatGLM3-6B微调arrow-up-right
仓库
llm-actionarrow-up-right
Last updated 3 months ago