HuggingFace Integration
Brug af SkyDeck.ai som frontend til dine HuggingFace-modeller.
Last updated
Brug af SkyDeck.ai som frontend til dine HuggingFace-modeller.
Last updated
Efter at have implementeret din inferens-endpoint på HuggingFace, bør du se følgende brugergrænseflade:
På denne side skal du bruge følgende information:
Endpoint URL
Model Repository
API-token. Du kan se dette ved at tjekke boksen "Add API token" i Call Examples kodeblok.
Udover disse skal du også bruge kontekstvinduet for din model. Dette kan findes på modellens informationsside.
Efter at have indsamlet disse oplysninger, skal du formatere dem til JSON som vist i eksemplet nedenfor:
Næste skridt er at indsætte dette i Credential-feltet for din integration.
Når credentialet er blevet valideret med succes, bør du se din HuggingFace-model opført i GenStudio's modeliste:
Skalering til 0 er en dynamisk funktion, der tilbydes af Inference Endpoints, designet til at optimere ressourceudnyttelse og omkostninger. Ved intelligent at overvåge anmodningsmønstre og reducere antallet af replikaer til ingen i inaktive perioder, sikrer det, at du kun bruger ressourcer, når det er nødvendigt.
Dog introducerer dette en kold startperiode, når trafikken genoptages, og der er nogle overvejelser, man skal være opmærksom på. For en dybdegående gennemgang af, hvordan denne funktion fungerer, dens fordele og potentielle udfordringer, henvises der til HuggingFace's guide til Autoscaling.
I øjeblikket understøtter vi kun slutpunkter for modeller med et text-generation
tag, der er implementeret som text-generation-inference
containere. Vi arbejder på at udvide vores liste over understøttede modeller.