SkyDeck.ai Docs
google.com
Dansk
Dansk
  • SkyDeck.ai
  • GenStudio Workspace
    • Samtaler
    • SkyDeck AI Hjælpeapp
    • Dokumentupload
    • Deling og Samarbejde
    • Slack Synkronisering
    • Offentlige Snapshot
    • Web Browsing
    • Værktøjer
      • Pair Programmer
        • Sådan bruges
        • Eksempel – Python Script Assistance
      • SQL Assistent
        • Sådan bruges
        • Eksempel – Spørgsmål Fejlfinding
      • Gennemgang af Juridisk Aftale
        • Sådan bruges
        • Eksempel – NDA Klausul
      • Lær Mig Alt
        • Sådan bruges
        • Eksempel – Introduktion til Programmering
      • Strategikonsulent
        • Sådan bruges
        • Eksempel – Medarbejderfastholdelse
      • Billedgenerator
        • Sådan bruges
        • Eksempel – Vinterland
    • Datasikkerhed
      • Forebyggelse af Datatab
  • Kontrolcenter
    • Admin & Ejer Værktøjer
    • Opsætningsguide
      • Opret Konto
      • Opret Integrationer
        • Integrationshjælp
      • Opret Sikkerhed
        • Godkendelse (SSO)
      • Organiser Teams
        • Tilføj Ny Gruppe
        • Fjern Grupper
      • Kurater Værktøjer
        • Systemværktøjer
        • Tildel Tags
      • Administrer Medlemmer
        • Tilføj Medlemmer
        • Importer Fil
        • Inviter Medlemmer
        • Rediger Medlemmer
    • Fakturering
      • Gratis Prøveperiode
      • Køb Kredit
      • Planer og Opgraderinger
      • Modelbrugspriser
  • Integrationer
    • LLMs og Databaser
      • Anthropic Integration
      • Database Integration
      • Groq Integration
      • HuggingFace Integration
      • Mistral Integration
      • OpenAI Integration
      • Perplexity Integration
      • Together AI Integration
      • Vertex AI Integration
    • App Integrationer
      • Rememberizer Integration
      • Slack Integration
  • Udviklere
    • Udvikl Dine Egen Værktøjer
      • JSON format for Værktøjer
      • JSON Format for LLM Værktøjer
      • Eksempel: Tekstbaseret UI Generator
      • JSON Format for Smarte Værktøjer
  • Brugssager
    • Oprettelse af en Privatlivspolitik
  • Meddelelser
    • Brugsbetingelser
    • Privatlivspolitik
    • Cookie Meddelelse
  • Udgivelser
    • 9. maj 2025
    • 2. maj 2025
    • 25. apr 2025
    • 18. apr 2025
    • 11. apr 2025
    • 4. apr 2025
    • 28. mar 2025
    • 21. mar 2025
    • 14. mar 2025
    • 7. mar 2025
    • 28. feb 2025
    • 21. feb 2025
    • 14. feb 2025
    • 7. feb 2025
    • 31. jan 2025
    • 24. jan 2025
    • 17. jan 2025
    • 10. jan 2025
    • 3. jan 2025
    • 27. dec 2024
    • 20. dec 2024
    • 13. dec 2024
    • 6. dec 2024
    • 29. nov 2024
    • 22. nov 2024
    • 15. nov 2024
    • 8. nov 2024
    • 1. nov 2024
    • 25. okt 2024
    • 18. okt 2024
    • 11. okt 2024
    • 4. okt 2024
    • 27. sep 2024
    • 20. sep 2024
    • 13. sep 2024
    • 6. sep 2024
    • 23. aug 2024
    • 16. aug 2024
    • 9. aug 2024
    • 2. aug 2024
    • 26. jul 2024
    • 12. jul 2024
    • 5. jul 2024
    • 28. jun 2024
    • 21. jun 2024
    • 12. nov 2023
    • 6. nov 2023
    • 30. okt 2023
    • 23. okt 2023
    • 16. okt 2023
    • 18. sep 2023
    • 8. sep 2023
  • Sikkerhed
    • SkyDeck.ai Sikkerhedspraksis
    • Bug Bounty Program
  • AI Dokumentation
    • LLM Evaluering Rapport
    • SkyDeck.ai LLM Klar Dokumentation
Powered by GitBook
On this page
  • Skalering af HuggingFace Endpoints til Zero
  • Understøttede modeller
  1. Integrationer
  2. LLMs og Databaser

HuggingFace Integration

Brug af SkyDeck.ai som frontend til dine HuggingFace-modeller.

Last updated 10 days ago

Efter at have implementeret din inferens-endpoint på HuggingFace, bør du se følgende brugergrænseflade:

På denne side skal du bruge følgende information:

  • Endpoint URL

  • Model Repository

  • API-token. Du kan se dette ved at tjekke boksen "Add API token" i Call Examples kodeblok.

Udover disse skal du også bruge kontekstvinduet for din model. Dette kan findes på modellens informationsside.

Efter at have indsamlet disse oplysninger, skal du formatere dem til JSON som vist i eksemplet nedenfor:

{
    "api_key":"your_api_key",
    "endpoint": "your_api_endpoint",
    "model_name": "meta-llama/Llama-2-7b-chat-hf",
    "context_window": 4096
}

Næste skridt er at indsætte dette i Credential-feltet for din integration.

Når credentialet er blevet valideret med succes, bør du se din HuggingFace-model opført i GenStudio's modeliste:

Skalering af HuggingFace Endpoints til Zero

Skalering til 0 er en dynamisk funktion, der tilbydes af Inference Endpoints, designet til at optimere ressourceudnyttelse og omkostninger. Ved intelligent at overvåge anmodningsmønstre og reducere antallet af replikaer til ingen i inaktive perioder, sikrer det, at du kun bruger ressourcer, når det er nødvendigt.

Understøttede modeller

I øjeblikket understøtter vi kun slutpunkter for modeller med et text-generation tag, der er implementeret som text-generation-inference containere. Vi arbejder på at udvide vores liste over understøttede modeller.

Dog introducerer dette en kold startperiode, når trafikken genoptages, og der er nogle overvejelser, man skal være opmærksom på. For en dybdegående gennemgang af, hvordan denne funktion fungerer, dens fordele og potentielle udfordringer, henvises der til .

HuggingFace's guide til Autoscaling
LLaMA 2 er en model med Text Generation tag
Sørg for at vælge Text Generation Inference som container type under implementeringen
huggingface deploy interface
credential field
huggingface model as genstudio model
image (48)
image (49)