Goku: 흐름 기반(Flow-Based) 영상 생성 기반 모델 (feat. ByteDance)
|
|
0
|
451
|
2월 13, 2025
|
Veo 2, Google DeepMind의 차세대 비디오 생성(text-to-video) 모델
|
|
0
|
718
|
12월 18, 2024
|
FastVideo: 대규모 비디오 디퓨전 모델을 위한 경량 프레임워크
|
|
0
|
119
|
12월 18, 2024
|
Mochi-1, Genmo가 공개한 오픈소스 비디오 생성 모델
|
|
0
|
330
|
11월 28, 2024
|
Meta AI, 텍스트 프롬프트 기반 영상 생성 / 편집 및 개인화 등이 가능한 생성 모델 Movie Gen 발표
|
|
0
|
293
|
10월 6, 2024
|
CogVideoX 및 CogVideo: 오픈소스 텍스트-비디오 생성 모델
|
|
1
|
697
|
9월 4, 2024
|
SkyScript-100M: 짧은 드라마의 대본 및 촬영 스크립트 데이터셋
|
|
0
|
210
|
8월 21, 2024
|
Veo: Google Deepmind가 공개한 고품질 영상 생성 모델
|
|
0
|
597
|
5월 16, 2024
|
[GN] TED 2064 - OpenAI Sora로 만든 TED 홍보 영상
|
|
0
|
320
|
4월 23, 2024
|
Open-Sora, 고품질의 비디오 생성을 위한 오픈소스 모델 (feat. HPC-AI)
|
|
2
|
2571
|
3월 21, 2024
|
[GN⁺] OpenAI Sora: 텍스트에서 비디오를 생성하는 AI 모델 공개
|
|
1
|
723
|
2월 20, 2024
|
Lumiere: Google이 공개한 비디오 생성 / 편집 모델
|
|
0
|
425
|
1월 26, 2024
|
MagicVideo-V2, ByteDance가 공개한 고품질 비디오 생성 기법
|
|
0
|
474
|
1월 11, 2024
|
[GN] 2023년, 많은 관심을 받은 NVIDIA의 10가지 연구 정리
|
|
0
|
441
|
12월 26, 2023
|
[GN] Adobe, 텍스트-투-비디오 AI 플랫폼 Rephrase 인수
|
|
0
|
242
|
11월 30, 2023
|