热门手游应用,这里都有!
最近更新  |  收藏本站
当前位置:首页 > AI学术助手 > SEED

SEED

SEED

星级:

分类: AI学术助手 更新时间:2025-01-09 16:52:06

  • 简介
  • 近期上线

:chestnut: SEED 多模态

项目主页arXivarXiv静态徽章演示

由腾讯AI实验室CV中心和腾讯PCG ARC实验室提供支持。

图片

本仓库提供SEED和SEED-LLaMA的官方实现。如有任何疑问,请发送电子邮件至[email protected]

新闻

:beers: 我们正在积极寻找有自我驱动力的实习生。如果您有兴趣,请随时联系我们。 :beers:

2024-02-24 :hugs: 我们发布了SEED-LLaMa的训练代码,包括SEED分词器、多模态LLM预训练和指令微调。我们的多模态LLM训练代码库支持1. 使用deepspeed进行大规模多节点训练 2. 高效的多个训练数据管道。

2024-01-16 :star_struck: 我们的SEED-LLaMA(arXiv)已被ICLR 2024接收(OpenReview),维也纳见!

2023-11-03 :hugs: 我们发布了seed-llama-v2-1的演示,生成图像的质量得到了极大提升,欢迎自行体验。

图片

2023-10-23 :hugs: 我们优化了内存开销。通过8位量化和动态加载,SEED-LLaMA 8b/14B可以在单个16GB/24GB GPU上运行。

2023-10-23 :hugs: 启动演示时,所有模型权重将自动下载。

2023-10-20 :hugs: 我们发布了SEED-2分词器以及SEED-LLaMA-8B/14B的检查点和代码。

2023-10-20 :space_invader: 我们发布了一个在线gradio演示,欢迎自行体验。

2023-10-02 :paperclip: 我们在arXiv上发布了SEED-LLaMA的技术报告,该报告由改进的SEED-2分词器提供支持。

2023-07-29 :octocat: 我们发布了SEED分词器的检查点及其推理代码。请通过SEED-1查看。

2023-07-16 :paperclip: 我们在arXiv上发布了SEED的技术报告。

敬请关注更新!

简介

建议查看我们的论文以了解技术细节。

:speech_balloon: SEED-LLaMA能做什么?

图片

SEED-LLaMA能够进行多模态理解和生成,展现出组合性的涌现能力,如多轮上下文多模态生成,就像您的AI助手一样。[与SOTA比较] [X上更多示例]

:bulb: SEED-LLaMA如何实现这一点?

图片

SEED-LLaMA的核心是定制的SEED分词器,它将视觉信号适当量化为离散的视觉标记,在捕捉必要语义的同时,在1D因果依赖下生成。[SEED-2 vs. SEED-1]

亮点

我们使用GPT-4重写了InstructPix2Pix数据集中的指令,例如将"添加一场暴风雨"转化为"你能给图像添加暴风雨效果吗?"并回应"当然,我已成功为图像添加了暴风雨效果。"。经指令微调的模型可以在单个回复中生成信息丰富的文本和图像,如下图所示(这也是一种涌现能力)。图片

给定一张起始图像和故事,经指令微调的模型可以一次性生成后续故事和多张图像。图片

我们使用GPT-4基于MMC4的文本内容生成指令。经指令微调的模型可以生成图文交错内容(我们发布的sft模型不具备此功能,因为我们在MMC4上单独对预训练模型进行指令微调)。图片

使用方法

依赖项

Python >= 3.8(推荐使用Anaconda)

PyTorch >= 1.11.0

NVIDIA GPU + CUDA

安装

克隆仓库并安装依赖包

git clone https://github.com/AILab-CVC/SEED.gitcd SEEDpip install -r requirements.txt

模型权重

我们在SEED Hugging Face上发布了预训练的SEED分词器和反分词器、预训练和指令微调的SEED-LLaMA-8B和SEED-LLaMA-14B。

查看SEED分词器权重:AILab-CVC/seed-tokenizer-2

查看SEED LLaMA(8B)权重:AILab-CVC/seed-llama-8b-sft

查看SEED LLaMA(14B)权重:AILab-CVC/seed-llama-14b-sft

cd pretrained # SEED/pretrainedgit lfs installgit clone https://huggingface.co/AILab-CVC/SEEDmv SEED/* ./

用于重建图像的unCLIP SD-UNet模型权重将自动下载。

视觉标记化和去标记化推理

要将图像离散化为具有因果依赖性的1D视觉代码,并使用现成的unCLIP SD-UNet从视觉代码重建图像:

cd .. # SEED/ python scripts/seed_tokenizer_inference.py

SEED-LLaMA推理

鉴于SEED-LLaMA-8B基于Vicuna-7B,SEED-LLaMA-14B基于LLaMA2-Chat-13B,我们分别使用Vicuna-7B的("USER:", "ASSISTANT:")和LLaMA2-Chat-13B的([INST] [/INST])提示进行指令微调。

# SEED-LLaMA-8B推理python scripts/seed_llama_inference_8B.py# SEED-LLaMA-14B推理python scripts/seed_llama_inference_14B.py

在本地启动SEED-LLaMA-14B的Gradio演示

目前构建SEED-LLaMA-14B的本地演示需要单个24GBGPU。

# SEED/# 在第一个终端bash scripts/start_backend_14b.sh# 在第二个终端bash scripts/start_frontend_14b.sh

目前构建SEED-LLaMA-8B的本地演示需要单个16GBGPU。

# SEED/# 在第一个终端bash scripts/start_backend_8b.sh# 在第二个终端bash scripts/start_frontend_8b.sh

然后可以通过http://127.0.0.1:80访问演示

训练SEED-LLaMA

基于LAVIS训练SEED标记化

安装

cd SEED/SEED_Tokenizersh install.sh

从BLIP-2下载预训练的Q-Former,并将检查点放在"pretrained"文件夹下。

训练因果Q-Former

sh train_scripts/causal_qformer.sh

为unCLIP-SD下载CLIP,并将检查点放在"pretrained"文件夹下。

训练SEED标记器和解标记器

sh train_scripts/codebook.sh

训练后,您可以通过unclip SD将图像标记化为离散标记,并将离散标记解码为真实图像

# 您需要加载预训练的ckpt。python3 eval/seed_inference.py

多模态LLM预训练和指令微调

安装

cd SEEDpip install -r requirements.txtcd MultiModalLLM

下载预训练的LLM(例如,vicuna-7b-v1.1)和SEED标记器,并将它们放在"pretrained"文件夹下。

通过将图像转换为离散标记来预处理预训练数据。例如,

python3 src/tools/extract_image_ids_to_torchdata_parallel.py --tokenizer configs/tokenizer/seed_llama_tokenizer.yaml --image_transform configs/processer/blip_transform.yaml --data configs/data/caption_torchdata_preprocess.yaml --save_dir dataset/seed_llama/caption/unsplash_cc3m/ --batch_size 1024 --num_workers 8 --gpus 8

使用lora预训练具有SEED标记的多模态LLM。

sh scripts/train_a100_lora_multi_node_pretrain.sh

将lora检查点与原始LLM合并。

python3 src/tools/merge_lora_weights.py --model_cfg configs/model/vicuna_7b_lora_pretrained.yaml --tokenizer_cfg configs/tokenizer/seed_llama_tokenizer.yaml --base_model pretrained/vicuna-7b-v1.1 --lora_model log/seed_vicuna-7b_lora_pretrain/checkpoint-10000 --save_path log/seed_vicuna-7b_lora_pretrain/checkpoint-merged-10000

通过将图像转换为离散标记来预处理指令微调数据。(您首先需要将数据转换为JSON格式,JSON的每一行包含"image"(图像的路径)、"question"和"answer"。)

python3 src/tools/extract_image_ids_to_torchdata_parallel_qa.py --tokenizer configs/tokenizer/seed_llama_tokenizer.yaml --image_transform configs/processer/blip_transform.yaml --data configs/data/question_answer_torchdata_eval.yaml --save_dir data/VQAv2 --batch_size 512 --num_workers 8 --gpus 8

使用lora对具有SEED标记的多模态LLM进行指令微调。

sh scripts/train_a100_lora_multi_node_sft.sh

引用

如果您发现这项工作有帮助,请考虑引用:

@article{ge2023making, title={Making LLaMA SEE and Draw with SEED Tokenizer}, author={Ge, Yuying and Zhao, Sijie and Zeng, Ziyun and Ge, Yixiao and Li, Chen and Wang, Xintao and Shan, Ying}, journal={arXiv preprint arXiv:2310.01218}, year={2023}}@article{ge2023planting, title={Planting a seed of vision in large language model}, author={Ge, Yuying and Ge, Yixiao and Zeng, Ziyun and Wang, Xintao and Shan, Ying}, journal={arXiv preprint arXiv:2307.08041}, year={2023}}

该项目仍在进行中。

许可证

SEED根据Apache License Version 2.0发布。

SEED-LLaMA根据LLaMA2的原始许可证发布。

致谢

我们感谢unCLIP SD和BLIP2的出色工作。

 
展开全部内容
热门推荐
最新推荐