热门AI应用,这里都有!
当前位置:首页 > AI学术助手 > WizardLM-1.0-Uncensored-CodeLlama-34B-GGUF

WizardLM-1.0-Uncensored-CodeLlama-34B-GGUF

WizardLM-1.0-Uncensored-CodeLlama-34B-GGUF

星级:

分类: AI学术助手 更新时间:2025-02-02 19:04:42

  • 简介
  • 近期上线

WizardLM 1.0 Uncensored CodeLlama 34B - GGUF项目介绍

项目背景

WizardLM 1.0 Uncensored CodeLlama 34B是一个由Eric Hartford创建的大型语言模型,基于llama模型架构。此项目主要面向自然语言处理任务,设计用于处理未经过滤的指令数据集。其数据集来源于ehartford/WizardLM_evol_instruct_V2_196k_unfiltered_merged_split。模型被量化并转换为GGUF格式,便于各种应用场景中使用。

GGUF格式介绍

GGUF是由llama.cpp团队于2023年8月21日引入的一种新格式,用于替换之前的GGML格式。与GGML相比,GGUF具有更好的分词能力和对特殊字符的支持能力,并且支持元数据,具有良好的可扩展性。支持GGUF格式的客户端和库包括llama.cpp、text-generation-webui、KoboldCpp、LM Studio、LoLLMS Web UI、Faraday.dev、ctransformers和llama-cpp-python等。

模型文件和兼容性

项目提供了多种量化模型文件,以供不同应用场合选择。比如,AWQ和GPTQ格式的GPU推理模型,以及2到8位的GGUF格式的推理模型。每种格式在性能和质量等级上都有不同的表现,用户可以根据需求选择合适的模型。

量化方法中使用的方法包括Q2_K到Q8_0等,用户可根据内存和质量要求选择合适的模型文件,如Q4_K_M提供了平衡的质量,因此推荐使用。

下载和运行指南

用户可以通过text-generation-webui等界面或者命令行工具下载所需的模型文件,也可以使用huggingface-hub库进行批量和快速下载。下载后,模型可在不同平台和工具中运行,例如llama.cpp、Python代码中的ctransformers库等。

为了在机器上运行这些模型,用户需要确保llama.cpp工具版本支持最近的相关修改。如果希望进行交互式对话,可以在命令参数中使用-ins选项。

社区支持和贡献

项目的开发由多方支持,包括TheBloke AI的Discord服务器和Patreon社区。用户可以通过这些平台参与讨论、获取支持,或者通过贡献资金支持项目的持续发展。

总之,WizardLM 1.0 Uncensored CodeLlama 34B是一个功能强大的语言模型,其多样的格式和兼容性为开发者和研究人员提供了极大的便利和选择空间。

 
展开全部内容
热门推荐
最新推荐