目前常见LLM的上下文长度 - 蝈蝈俊
内容提要
当前主流的大语言模型(LLM)上下文长度不断增加,已达到64K,部分新模型甚至可达1M。不同模型的token与字数换算比例各异,中文字符约为0.6个token。例如,阿里Qwen系列支持128K token,OpenAI的GPT-4.5支持128K输入和16K输出。
关键要点
-
当前主流的大语言模型(LLM)上下文长度已达到64K,部分新模型可达1M。
-
不同模型的token与字数换算比例各异,中文字符约为0.6个token。
-
阿里Qwen系列支持128K token,OpenAI的GPT-4.5支持128K输入和16K输出。
-
过去几年LLM的上下文token长度仅为8K,目前主流已达到64K,部分模型甚至达到10M。
-
DeepSeek的模型上下文长度为64K,最大输出长度为8K。
-
阿里云的Qwen2.5模型上下文长度最多支持128K个token,最大生成8K个token。
-
谷歌的Gemini系列模型输入令牌限制可达1M,输出令牌限制为64K。
-
Llama模型的上下文窗口可达1000万token,支持大规模文本处理。
-
OpenAI的GPT-4.5模型输入上下文长度为128K,最大输出为16K。
-
Anthropic的Claude 3.7 Sonnet模型输入上下文长度可达200K,最大输出长度在扩展思考模式下可达128K。
延伸问答
当前主流大语言模型的上下文长度是多少?
当前主流的大语言模型上下文长度已达到64K,部分新模型可达1M。
阿里Qwen系列模型的token支持是多少?
阿里Qwen系列模型支持最多128K个token。
OpenAI的GPT-4.5模型的输入和输出限制是什么?
OpenAI的GPT-4.5模型输入上下文长度为128K,最大输出为16K。
Llama模型的上下文窗口有多大?
Llama模型的上下文窗口可达1000万token。
谷歌Gemini系列模型的输入令牌限制是多少?
谷歌Gemini系列模型的输入令牌限制可达1M。
不同语言的token与字数换算比例是什么?
中文字符约为0.6个token,英文字符约为0.3个token。