HuggingFace 整合

使用 SkyDeck.ai 作為您的 HuggingFace 模型的前端。

在您在 HuggingFace 部署推斷端點後,您應該會看到以下用戶界面:

在這個頁面上,您需要以下信息:

  • 端點 URL

  • 模型倉庫

  • API 令牌。您可以通過勾選呼叫範例代碼塊中的「添加 API 令牌」框來查看這個。

除了這些,您還需要您的模型的上下文窗口。這可以在模型的信息頁面上找到。

收集完這些信息後,將其格式化為 JSON,如以下示例所示:

{
    "api_key":"your_api_key",
    "endpoint": "your_api_endpoint",
    "model_name": "meta-llama/Llama-2-7b-chat-hf",
    "context_window": 4096
}

接下來,將這個粘貼到您整合的憑證字段中。

一旦憑證成功驗證,您應該會在 GenStudio 的模型列表中看到您的 HuggingFace 模型:

將 HuggingFace 端點擴展至零

擴展至零是由推理端點提供的動態功能,旨在優化資源使用和成本。通過智能監控請求模式並在空閒時間將副本數減少至無,確保您僅在需要時使用資源。

然而,當流量恢復時,這確實會引入一個冷啟動期,也有一些需要注意的事項。請參閱 HuggingFace 的 Autoscaling 指南以深入了解此功能的運作方式、其優點以及可能的挑戰。

支援的模型

目前,我們只支援以text-generation標籤部署為text-generation-inference容器的模型端點。我們正在努力擴大我們支援的模型列表。

Last updated