LLM, RAG 和 Groq
原文中文,约1000字,阅读约需3分钟。发表于: 。最近跟朋友聊起LLM,RAG 究竟有没有用,能不能拿来做成产品或者服务。由于我对AI的了解也很肤浅,所以没太敢下结论。 但是今天突然想起一个趣事,相传 账单·大门 院士有一句名言「640KB ought to be enough for anybody」 这句话是不是他老人家说的不重要了,重要的是 IBM PC 的这个 640KB内存 的梗是绕不过去了。 后来发现 640KB...
LLM、RAG和Groq是近期讨论的话题,但对于AI的了解肤浅,无法下结论。提到了IBM PC的640KB内存,以及Gemini 1.5 Pro的1M context tokens,对RAG技术的使用提出了疑问。同时提到了Groq与CUDA的比较,以及context window不足的问题。