Kursplan

Introduktion till Ollama

  • Vad är Ollama och hur fungerar det?
  • Fördelar med att köra AI-modeller lokalt
  • Översikt över stödda LLM:er (Llama, DeepSeek, Mistral, etc.)

Installation och konfiguration av Ollama

  • Systemkrav och hårdvaruöverväganden
  • Installation av Ollama på olika operativsystem
  • Konfigurera beroenden och miljöinställningar

Köra AI-modeller lokalt

  • Ladda ner och ladda AI-modeller i Ollama
  • Interagera med modeller via kommandoraden
  • Grundläggande prompt engineering för lokala AI-uppgifter

Optimera prestanda och resursanvändning

  • Hantera hårdvaruresurser för effektiv AI-körning
  • Minska fördröjning och förbättra modellsvarstid
  • Prestandamätning för olika modeller

Use Case för lokal AI-distribution

  • AI-drivna chattbotar och virtuella assistenter
  • Databehandling och automatiseringsuppgifter
  • Integritetsfokuserade AI-applikationer

Sammanfattning och nästa steg

Krav

  • Grundläggande förståelse för AI och maskininlärningskoncept
  • Förtrogenhet med kommandoradsgränssnitt

Målgrupp

  • Utvecklare som kör AI-modeller utan molnberoenden
  • Business professionella intresserade av AI-säkerhet och kostnadseffektiv implementering
  • AI-entusiaster som utforskar lokal modellimplementering
 7 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier