long-context
![[TIL] In-context Learning with Long-context LLMs](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fck9UB9%2FbtsJzUJGHkV%2FVIjgsAC2xvHwA3ce72LyM0%2Fimg.png)
[TIL] In-context Learning with Long-context LLMs
☑️ Backgrounds Long-context LLMs GPT4o는 128k token을 take 할 수 있고, Gemini1.5의 경우 2M의 token을 take할 수 있다고 한다. LLama 3 405B를 pre-training 할 때는, context length를 6개의 stage로 gradually하게 늘려서 training함 (8k context window에서 시작해 -> 128k window로 마감)In-context Learning [예시 1] [예시2] ... [Your real questions] 여기서 예시를 넣을 때는 Question + Solution ☑️ Many-Shot In-Context Learning (May 2024)Newly expanded context wi..