# HuggingFace Integration

Efter at have implementeret din inferens-endpoint på HuggingFace, bør du se følgende brugergrænseflade:

<figure><img src="https://2357114426-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F3A6IaxQnezOTzxb1j8V7%2Fuploads%2Fgit-blob-3cebac1187e5934af601f345205c10c13a23e4b0%2Fhuggingface-deploy-interface.png?alt=media" alt="huggingface deploy interface"><figcaption></figcaption></figure>

På denne side skal du bruge følgende information:

* Endpoint URL
* Model Repository
* API-token. Du kan se dette ved at tjekke boksen "Add API token" i Call Examples kodeblok.

Udover disse skal du også bruge kontekstvinduet for din model. Dette kan findes på modellens informationsside.

Efter at have indsamlet disse oplysninger, skal du formatere dem til JSON som vist i eksemplet nedenfor:

```json
{
    "api_key":"your_api_key",
    "endpoint": "your_api_endpoint",
    "model_name": "meta-llama/Llama-2-7b-chat-hf",
    "context_window": 4096
}
```

Næste skridt er at indsætte dette i Credential-feltet for din integration.

<figure><img src="https://2357114426-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F3A6IaxQnezOTzxb1j8V7%2Fuploads%2Fgit-blob-cbedbe5ba57f0c2a044f8e16347871101993ab1e%2Fcredential-field.png?alt=media" alt="credential field"><figcaption></figcaption></figure>

Når credentialet er blevet valideret med succes, bør du se din HuggingFace-model opført i GenStudio's modeliste:

<figure><img src="https://2357114426-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F3A6IaxQnezOTzxb1j8V7%2Fuploads%2Fgit-blob-7d0620d1c2ee39ec3b9107a11606c90f9c0e1a2f%2Fhuggingface-model-as-genstudio-model.png?alt=media" alt="huggingface model as genstudio model"><figcaption></figcaption></figure>

### Skalering af HuggingFace Endpoints til Zero

Skalering til 0 er en dynamisk funktion, der tilbydes af Inference Endpoints, designet til at optimere ressourceudnyttelse og omkostninger. Ved intelligent at overvåge anmodningsmønstre og reducere antallet af replikaer til ingen i inaktive perioder, sikrer det, at du kun bruger ressourcer, når det er nødvendigt.

Dog introducerer dette en kold startperiode, når trafikken genoptages, og der er nogle overvejelser, man skal være opmærksom på. For en dybdegående gennemgang af, hvordan denne funktion fungerer, dens fordele og potentielle udfordringer, henvises der til [HuggingFace's guide til Autoscaling](https://huggingface.co/docs/inference-endpoints/autoscaling).

### Understøttede modeller

I øjeblikket understøtter vi kun slutpunkter for modeller med et `text-generation` tag, der er implementeret som `text-generation-inference` containere. Vi arbejder på at udvide vores liste over understøttede modeller.

<figure><img src="https://2357114426-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F3A6IaxQnezOTzxb1j8V7%2Fuploads%2Fgit-blob-0c1ab5a0d59184ec59f198d38015cf32ca16c7d8%2Fimage%20(48).png?alt=media" alt="image (48)"><figcaption><p>LLaMA 2 er en model med Text Generation tag</p></figcaption></figure>

<figure><img src="https://2357114426-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F3A6IaxQnezOTzxb1j8V7%2Fuploads%2Fgit-blob-f81779ba2fdedf5471bc5ef3ee0acd1ecb5d8c7e%2Fimage%20(49).png?alt=media" alt="image (49)"><figcaption><p>Sørg for at vælge Text Generation Inference som container type under implementeringen</p></figcaption></figure>
