CodeLlama

在 Clore.ai 上使用 CodeLlama 生成、补全与解释代码

circle-info

更新的替代方案! 对于编码任务,请考虑 Qwen2.5-Coder (32B,最先进的代码生成)或 DeepSeek-R1 (推理 + 编码)。CodeLlama 对于轻量部署仍然有用。

使用 Meta 的 CodeLlama 生成、补全和解释代码。

circle-check

在 CLORE.AI 上租用

  1. 按 GPU 类型、显存和价格筛选

  2. 选择 按需 (固定费率)或 竞价 (出价价格)

  3. 配置您的订单:

    • 选择 Docker 镜像

    • 设置端口(用于 SSH 的 TCP,Web 界面的 HTTP)

    • 如有需要,添加环境变量

    • 输入启动命令

  4. 选择支付方式: CLORE, BTC,或 USDT/USDC

  5. 创建订单并等待部署

访问您的服务器

  • 在以下位置查找连接详情: 我的订单

  • Web 界面:使用 HTTP 端口的 URL

  • SSH: ssh -p <port> root@<proxy-address>

1024x1024

A100
规模
显存
最适合

CodeLlama-7B

7B

8GB

快速补全

CodeLlama-13B

13B

16GB

平衡

CodeLlama-34B

34B

40GB

最佳质量

CodeLlama-70B

70B

80GB+

最高质量

变体

  • 基础版: 代码补全

  • 指令版: 遵循指令

  • Python: 专注于 Python

快速部署

Docker 镜像:

端口:

命令:

访问您的服务

部署后,在以下位置查找您的 http_pub URL: 我的订单:

  1. 前往 我的订单 页面

  2. 单击您的订单

  3. 查找 http_pub URL(例如, abc123.clorecloud.net)

使用 https://YOUR_HTTP_PUB_URL 而不是 localhost 在下面的示例中。

安装

使用 Ollama

使用 Transformers

代码补全

指令模型

用于遵循编码指令:

中间填充(FIM)

Python 专用模型

vLLM 服务器

API 使用

代码解释

修复 Bug

代码翻译

Gradio 界面

"专业影棚柔光箱"

在 Continue (VSCode) 中使用

配置 Continue 扩展:

background = Image.open("studio_bg.jpg")

A100
GPU
每秒标记数

CodeLlama-7B

速度

~90

CodeLlama-7B

512x512

~130

CodeLlama-13B

512x512

~70

CodeLlama-34B

2s

~50

# 使用固定种子以获得一致结果

代码质量差

  • 降低温度(0.1-0.3)

  • 使用指令变体

  • 如果可能,使用更大的模型

输出不完整

  • 增加 max_new_tokens

  • 检查上下文长度

生成速度慢

  • 使用 vLLM

  • 对模型进行量化

  • 使用更小的变体

下载所有所需的检查点

检查文件完整性

GPU
验证 CUDA 兼容性
费用估算
CLORE.AI 市场的典型费率(截至 2024 年):

按小时费率

~$0.03

~$0.70

~$0.12

速度

~$0.06

~$1.50

~$0.25

512x512

~$0.10

~$2.30

~$0.40

按日费率

~$0.17

~$4.00

~$0.70

4 小时会话

~$0.25

~$6.00

~$1.00

RTX 3060 CLORE.AI 市场arrow-up-right A100 40GB

A100 80GB

  • 使用 竞价 价格随提供商和需求而异。请查看

  • 以获取当前费率。 CLORE 节省费用:

  • 市场用于灵活工作负载(通常便宜 30-50%)

使用以下方式支付

  • Open Interpreter - 执行代码

  • vLLM 推理 - 生产部署

  • Mistral/Mixtral - 可选模型

最后更新于

这有帮助吗?