Skip to content

Latest commit

 

History

History
65 lines (48 loc) · 3.16 KB

README_ja.md

File metadata and controls

65 lines (48 loc) · 3.16 KB

ビデオキャプション

通常、ほとんどのビデオデータには対応する説明文が付いていないため、ビデオデータをテキストの説明に変換して、テキストからビデオへのモデルに必要なトレーニングデータを提供する必要があります。

更新とニュース

  • 🔥🔥 ニュース: 2024/9/19:CogVideoX のトレーニングプロセスで、ビデオデータをテキストに変換するためのキャプションモデル CogVLM2-Caption がオープンソース化されました。ぜひダウンロードしてご利用ください。

CogVLM2-Captionによるビデオキャプション

🤗 Hugging Face | 🤖 ModelScope

CogVLM2-Captionは、CogVideoXモデルのトレーニングデータを生成するために使用されるビデオキャプションモデルです。

インストール

pip install -r requirements.txt

使用方法

python video_caption.py

例:

CogVLM2-Video を使用したビデオキャプション

Code | 🤗 Hugging Face | 🤖 ModelScope | 📑 Blog💬 Online Demo

CogVLM2-Video は、タイムスタンプベースの質問応答機能を備えた多機能なビデオ理解モデルです。ユーザーは このビデオを詳細に説明してください。 などのプロンプトをモデルに入力して、詳細なビデオキャプションを取得できます:

ユーザーは提供されたコードを使用してモデルをロードするか、RESTful API を構成してビデオキャプションを生成できます。

Citation

🌟 If you find our work helpful, please leave us a star and cite our paper.

CogVLM2-Caption:

@article{yang2024cogvideox,
  title={CogVideoX: Text-to-Video Diffusion Models with An Expert Transformer},
  author={Yang, Zhuoyi and Teng, Jiayan and Zheng, Wendi and Ding, Ming and Huang, Shiyu and Xu, Jiazheng and Yang, Yuanming and Hong, Wenyi and Zhang, Xiaohan and Feng, Guanyu and others},
  journal={arXiv preprint arXiv:2408.06072},
  year={2024}
}

CogVLM2-Video:

@article{hong2024cogvlm2,
  title={CogVLM2: Visual Language Models for Image and Video Understanding},
  author={Hong, Wenyi and Wang, Weihan and Ding, Ming and Yu, Wenmeng and Lv, Qingsong and Wang, Yan and Cheng, Yean and Huang, Shiyu and Ji, Junhui and Xue, Zhao and others},
  journal={arXiv preprint arXiv:2408.16500},
  year={2024}
}