Intégration HuggingFace
Utiliser SkyDeck.ai comme interface pour vos modèles HuggingFace.
Dernière mise à jour
Utiliser SkyDeck.ai comme interface pour vos modèles HuggingFace.
Dernière mise à jour
Après avoir déployé votre point de terminaison d'inférence sur HuggingFace, vous devriez voir l'interface utilisateur suivante :
Sur cette page, vous aurez besoin des informations suivantes :
URL du point de terminaison
Répertoire du modèle
Jeton API. Vous pouvez le voir en cochant la case "Ajouter un jeton API" dans le bloc de code Exemples d'appel.
En plus de cela, vous aurez également besoin de la fenêtre de contexte de votre modèle. Cela peut être trouvé sur la page d'information du modèle.
Après avoir collecté ces informations, formatez-les en JSON comme indiqué dans l'exemple ci-dessous :
Ensuite, collez cela dans le champ d'identification de votre intégration.
Une fois que l'identification est validée avec succès, vous devriez voir votre modèle HuggingFace répertorié dans la liste des modèles de GenStudio :
La mise à l'échelle à 0 est une fonctionnalité dynamique offerte par les points de terminaison d'inférence, conçue pour optimiser l'utilisation des ressources et les coûts. En surveillant intelligemment les schémas de demande et en réduisant le nombre de répliques à aucune pendant les périodes d'inactivité, elle garantit que vous n'utilisez des ressources que lorsque c'est nécessaire.
Cependant, cela introduit une période de démarrage à froid lorsque le trafic reprend, et il y a quelques considérations à prendre en compte. Pour un aperçu détaillé de la façon dont cette fonctionnalité fonctionne, de ses avantages et des défis potentiels, veuillez vous référer au guide de HuggingFace sur l'Autoscaling.
Pour le moment, nous ne prenons en charge que les points de terminaison pour les modèles avec un tag text-generation
qui sont déployés en tant que conteneurs text-generation-inference
. Nous travaillons à élargir notre liste de modèles pris en charge.