Kursplan

Introduktion till Ollama för LLM-distribution

  • Översikt över Ollama:s funktioner
  • Fördelar med lokal AI-modell-distribution
  • Jämförelse med molnbaserade AI-hosterlösningar

Konfigurera distributionsmiljön

  • Installera Ollama och nödvändiga beroenden
  • Konfigurera hårdvara och GPU-acceleration
  • Docker-anpassning av Ollama för skalbara distributioner

Distribuera LLM med Ollama

  • Ladda och hantera AI-modeller
  • Distribuera Llama 3, DeepSeek, Mistral och andra modeller
  • Skapa API:er och slutpunkter för AI-modelltillgång

Optimera LLM-prestanda

  • Finjustera modeller för effektivitet
  • Minska latens och förbättra svarstider
  • Hantera minne och resurstilldelning

Integrera Ollama i AI-arbetsflöden

  • Anslut Ollama till applikationer och tjänster
  • Automatisera AI-drivna processer
  • Använda Ollama i edge computing-miljöer

Övervakning och underhåll

  • Spåra prestanda och felsöka problem
  • Uppdatera och hantera AI-modeller
  • Säkerställa säkerhet och efterlevnad i AI-distributioner

Skalning av AI-modell-distributioner

  • Bästa praxis för att hantera höga arbetsbelastningar
  • Skala Ollama för företagsanvändning
  • Framtida framsteg inom lokal AI-modell-distribution

Sammanfattning och nästa steg

Krav

  • Grundläggande erfarenhet av maskininlärning och AI-modeller
  • Förtrogenhet med kommandoradsgränssnitt och skriptning
  • Förståelse för distributionsmiljöer (lokal, edge, moln)

Målgrupp

  • AI-ingenjörer som optimerar lokala och molnbaserade AI-distributioner
  • ML-praktiker som distribuerar och finjusterar LLM:er
  • DevOps-specialister som hanterar integrering av AI-modeller
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier