LLM bauen und optimieren

Für dieses Training erhalten Sie ein Teilnahmezertifikat von Spirit in Projects.

Sie möchten verstehen, wie Large Language Models (LLMs) funktionieren und wie Sie diese für Ihre spezifischen Anforderungen optimieren können? Wenn Sie die Grundlagen des Aufbaus und der Optimierung von LLMs kennenlernen und praktische Erfahrung im Umgang mit diesen Modellen sammeln möchten, dann freuen Sie sich auf dieses Training. In einer ausgewogenen Mischung aus Theorie und praktischen Übungen erkunden wir die Technologie zu LLMs und legen den Fokus auf ihren effektiven Einsatz. In unseren Hands-on-Sessions setzen Sie das Gelernte direkt um.

Wir empfehlen:

Ziele

  • Grundlegendes Verständnis von Large Language Models und deren Architektur entwickeln
  • Verschiedene LLM-Architekturen und deren Einsatzgebiete kennenlernen
  • Praktische Erfahrung im Feintuning und der Optimierung von LLMs sammeln
  • Methoden zur Evaluation und Qualitätssicherung von LLMs verstehen
  • Praktische Übungen zur Implementierung und Optimierung von LLMs durchführen

Zielgruppen:

Business Analyst, Requirements Engineer, AI Expert, Project Manager, Projektleiter, Software Architect, Software Designer, Software Entwickler, Data Scientists, Machine Learning Engineers und alle, die sich mit der Entwicklung und Optimierung von LLMs beschäftigen möchten.

Inhalt

1. Grundlagen der Large Language Models

  • Definition und Hauptmerkmale von LLMs
  • Verschiedene LLM-Architekturen im Überblick
  • Transformer-Architektur verstehen
  • Unterschiede zwischen verschiedenen LLM-Typen (BERT, GPT, T5)
  • Praktische Übung: Vergleich verschiedener LLM-Architekturen an praktischen Beispielen

2. Training und Feintuning von LLMs

  • Transfer Learning und Feintuning-Grundlagen
  • Datenaufbereitung und Preprocessing
  • Training von Language Models
  • Verschiedene Pretraining-Objectives
  • Implementierung von Trainingsschleifen
  • Praktische Übung: Durchführung eines Feintuning-Prozesses auf einem vortrainierten Modell

3. Optimierungstechniken

  • Prompt Engineering und strukturierte Ausgaben
  • Knowledge Distillation für effizientere Modelle
  • Quantisierung und Modellkomprimierung
  • Hyperparameter-Optimierung
  • Performance-Monitoring und -Verbesserung
  • Praktische Übung: Optimierung eines Modells mittels verschiedener Techniken

4. Praktische Implementierung

  • Aufbau einer LLM-basierten Anwendung
  • Integration von LLMs in bestehende Systeme
  • Arbeiten mit verschiedenen Frameworks
  • Hands-on Workshop: Entwicklung einer eigenen LLM-Anwendung von Grund auf

5. Produktiver Einsatz

  • Best Practices für den Deployment-Prozess
  • Skalierung und Ressourcenmanagement
  • Kostenoptimierung
  • Monitoring und Wartung
  • Sicherheitsaspekte und ethische Überlegungen
  • Praktische Übung: Deployment und Monitoring eines optimierten Modells

6. Evaluation und Qualitätssicherung

  • Metriken zur Bewertung von LLMs
  • Teststrategien und Validierungstechniken
  • Fehleranalyse und Optimierung
  • Kontinuierliche Verbesserung
  • Praktische Übung: Durchführung einer umfassenden Modell-Evaluation
Spirit in Projects