Kursplan

Introduktion till DeepSeek LLM Fine-Tuning

  • Översikt över DeepSeek modeller, t.ex. DeepSeek-R1 och DeepSeek-V3
  • Förstå behovet av att finjustera LLM:er
  • Jämförelse av finjustering vs. promptteknik

Förbereda datasetet för Fine-Tuning

  • Kuratering av domänspecifika dataset
  • Dataförbehandlings- och rengöringstekniker
  • Tokenization och datasetformatering för DeepSeek LLM

Installera Fine-Tuning-miljön

  • Konfigurera GPU och TPU-accelerering
  • Ställa in Hugging Face Transformers med DeepSeek LLM
  • Förstå hyperparametrar för finjustering

Fine-Tuning DeepSeek LLM

  • Implementera övervakad finjustering
  • använda LoRA (Low-Rank Adaptation) och PEFT (Parameter-Efficient Fine-Tuning)
  • Köra distribuerad finjustering för storskaliga dataset

Utvärdering och optimering av finjusterade modeller

  • bedöma modellens prestanda med utvärderingsmått
  • hantera överfitting och underfitting
  • optimera inferenshastighet och modelleffektivitet

Distribuera finjusterade DeepSeek modeller

  • Packa modeller för API-distribution
  • Integrera finjusterade modeller i applikationer
  • Skala distributioner med moln- och kantberäkning

Verkliga Use Case och tillämpningar

  • Finjusterade LLM:er för finans, hälsovård och kundsupport
  • Fallstudier av branschtillämpningar
  • Etiska överväganden i domänspecifika AI-modeller

Sammanfattning och nästa steg

Krav

  • Erfarenhet av ramverk för maskininlärning och djupinlärning
  • Familiarity med transformatorer och stora språkmodeller (LLMs)
  • Förståelse för databehandling och tekniker för modellträning

Målgrupp

  • AI-forskare som utforskar finjustering av LLM
  • Maskininlärningsingenjörer som utvecklar anpassade AI-modeller
  • Avancerade utvecklare som implementerar AI-drivna lösningar
 21 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier