당니이
다은이의 컴퓨터 공부
당니이
전체 방문자
오늘
어제
  • 분류 전체보기 (140)
    • Achieved 👩🏻 (14)
      • 생각들 (2)
      • TIL (6)
      • Trial and Error (1)
      • Inspiration ✨ (0)
      • 미국 박사 준비 🎓 (1)
    • Computer Vision💖 (39)
      • Basic (9)
      • Video (5)
      • Continual Learning (7)
      • Generative model (2)
      • Domain (DA & DG) (5)
      • Multimodal (8)
      • Multitask Learning (1)
      • Segmentation (1)
      • Colorization (1)
    • RL 🤖 (4)
    • Autonomous Driving 🚙 (11)
      • Geometry (4)
      • LiDAR 3D Detection (1)
      • Trajectory prediction (2)
      • Lane Detection (1)
      • HDmap (3)
    • Linux (15)
    • PyTorch👩🏻‍💻 (10)
    • Linear Algebra (2)
    • Python (5)
    • NLP (11)
      • Article 📑 (1)
    • Algorithms 💻 (22)
      • Basic (8)
      • BAEKJOON (8)
      • Programmers (2)
    • ML (1)
      • 통계적 머신러닝(20-2) (1)
    • SQL (3)
    • 기초금융 💵 (1)

블로그 메뉴

  • 홈
  • About me

공지사항

인기 글

태그

  • continual learning
  • NLP
  • conda
  • Python
  • 알고리즘
  • 리눅스
  • LLM
  • Incremental Learning
  • 자료구조
  • Linux
  • til
  • domain generalization
  • pytorch
  • 코딩테스트
  • 백준
  • domain adaptation
  • dfs
  • CV
  • 백트래킹
  • CL

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
당니이

다은이의 컴퓨터 공부

[TIL] Long Video Understanding
Computer Vision💖/Video

[TIL] Long Video Understanding

2024. 9. 6. 05:05
반응형

Recent Trend in Long Video Understanding 

  • Content LLM context length 
  • Compress visual tokens with streaming models 

 

☑️ Long Context Transfer from Laugnage to Vision (Jul 2024) 

  • Background  
    • Video data는 너무 densy + lengthy 하고, (보통 8/32 frame 단위로 sampling해서 진행한다) 
    • high-quality long video pretraining dataset이 아직 없다. (커뮤니티의 문제) 
  • Idea 
    • Longer text data로 train해서 context length를 늘린다 
    • Context-extended LM을 이용해 long video text pair 없이도 modality alignment를 가능하게 했음 

  • Method: Unified encoding for image and video  
    • Train the multimodal capability of LLM alignment: 고화질 이미지와 long video를 similar domain으로 봄 
    • Long video sequence가 있다고 mimic 하고 싶었고, 어떻게 alignment를 학습할지가 중요했음. 

☑️ Memory Consolidation Enables Long-Context Video Understanding (May 2024) 

  • Motivation 
    • Most transformer-based video encoders are limited to short temporal contexts due to their quadratic complexity: complexity 때문에 temporal context가 부족함 
  • Idea 
    • Process video in the streaming setting 
    • Memory-Consolidated ViT를 제안 
반응형
저작자표시 (새창열림)

'Computer Vision💖 > Video' 카테고리의 다른 글

[Daily] VideoChat-R1: Enhancing Spatio-TemporalPerception via Reinforcement Fine-Tuning  (0) 2025.04.11
[Daily] Video-R1: Reinforcing Video Reasoning in MLLMs  (0) 2025.04.09
[Daily] Token-Efficient Long Video Understanding for Multimodal LLMs  (0) 2025.03.17
[TIL] Video Diffusion Model과 시뮬레이터  (0) 2024.09.20
    'Computer Vision💖/Video' 카테고리의 다른 글
    • [Daily] VideoChat-R1: Enhancing Spatio-TemporalPerception via Reinforcement Fine-Tuning
    • [Daily] Video-R1: Reinforcing Video Reasoning in MLLMs
    • [Daily] Token-Efficient Long Video Understanding for Multimodal LLMs
    • [TIL] Video Diffusion Model과 시뮬레이터
    당니이
    당니이
    씩씩하게 공부하기 📚💻

    티스토리툴바