HuggingFace-Integration
Verwendung von SkyDeck.ai als Frontend für Ihre HuggingFace-Modelle.
Last updated
Verwendung von SkyDeck.ai als Frontend für Ihre HuggingFace-Modelle.
Last updated
Nachdem Sie Ihren Inferenz-Endpunkt auf HuggingFace bereitgestellt haben, sollten Sie die folgende Benutzeroberfläche sehen:
Auf dieser Seite benötigen Sie die folgenden Informationen:
Endpunkt-URL
Modell-Repository
API-Token. Sie können dies sehen, indem Sie das Kästchen "API-Token hinzufügen" im Codeblock der Beispielaufrufe aktivieren.
Zusätzlich dazu benötigen Sie auch das Kontextfenster Ihres Modells. Dies finden Sie auf der Informationsseite des Modells.
Nachdem Sie diese Informationen gesammelt haben, formatieren Sie sie in JSON wie im folgenden Beispiel:
Fügen Sie dies als Nächstes in das Feld für Anmeldeinformationen Ihrer Integration ein.
Sobald die Anmeldeinformationen erfolgreich validiert wurden, sollten Sie Ihr HuggingFace-Modell in der Modellliste von GenStudio aufgeführt sehen:
Die Skalierung auf 0 ist eine dynamische Funktion, die von Inference Endpoints angeboten wird, um die Ressourcennutzung und Kosten zu optimieren. Durch intelligentes Überwachen von Anforderungsmustern und Reduzierung der Anzahl von Replikaten auf keine während Leerlaufzeiten wird sichergestellt, dass Ressourcen nur dann genutzt werden, wenn sie notwendig sind.
Dies führt jedoch zu einer Kaltstartphase, wenn der Verkehr wieder aufgenommen wird, und es gibt einige Überlegungen, die zu bedenken sind. Für einen detaillierten Blick auf die Funktionsweise dieser Funktion, ihre Vorteile und potenzielle Herausforderungen, verweisen Sie bitte auf den Leitfaden von HuggingFace zum Autoscaling.
Im Moment unterstützen wir nur Endpunkte für Modelle mit einem text-generation
-Tag, die als text-generation-inference
-Container bereitgestellt werden. Wir arbeiten daran, unsere Liste der unterstützten Modelle zu erweitern.