KI in Anwendungen integrieren

Für dieses Training erhalten Sie ein Teilnahmezertifikat von Spirit in Projects

Sie möchten das volle Potenzial von Large Language Models (LLMs) in der Praxis ausschöpfen und in Ihre bestehenden Systeme integrieren? Wenn Sie mehr über die verschiedenen Anwendungsszenarien erfahren und gemeinsam praxisnahe Lösungen erarbeiten möchten, dann freuen Sie sich auf dieses Training. Von der Textklassifizierung bis zur Systemintegration lernen Sie, wie Sie LLMs effektiv in Ihre Infrastruktur einbinden, moderne RAG-Architekturen aufbauen, Function Calling nutzen und eigene Lösungen für Ihre realen Problemstellungen entwickeln können.

Wir empfehlen:

alt " "

Ziele

  • Praktische Erfahrung mit verschiedenen LLM-Anwendungsszenarien sammeln
  • Implementierung von State-of-the-Art NLP-Lösungen mit aktuellen Modellen
  • Integration von LLMs in bestehende Systemlandschaften
  • Verständnis für die Stärken und Grenzen verschiedener Modelltypen entwickeln
  • RAG (Retrieval-Augmented Generation) Architekturen aufbauen und optimieren
  • Function Calling und Tool Use für erweiterte Funktionalität einsetzen
  • Eigene LLM-basierte Lösungen konzipieren und umsetzen können

Zielgruppen:

AI Expert, Software Entwickler, System Architect, Software Architect und alle, die sich mit künstlicher Intelligenz beschäftigen möchten.

Inhalt

1. Grundlagen der LLM-Integration

  • Architekturpatterns für LLM-basierte Systeme
  • REST-APIs und Microservices mit LLMs
  • Skalierbare Infrastrukturen für LLM-Anwendungen
  • Verschiedene Deployment-Optionen (Cloud, On-Premise, Hybrid)
  • Multi-Model-Strategien (GPT, Claude, Gemini, Open Source Modelle)
  • Security und Governance

2. Aktuelle LLM-Modelle und APIs (neu: 2026)

  • OpenAI GPT: Multimodale Fähigkeiten und API-Integration
  • Anthropic Claude: Large-Token Context Window, Tool Use
  • Google Gemini: Multi-Million-Token Context, Hybrid Reasoning
  • Open Source Modelle sicher einsetzen: Llama, Mistral, DeepSeek und weitere
  • Modellauswahl und Performance-to-Cost-Ratio
  • Praktische Übung: Vergleich verschiedener LLM-APIs für Use Cases

3. RAG (Retrieval-Augmented Generation) Architekturen

  • Grundlagen von RAG: Verbesserung der Faktentreue
  • Vektordatenbanken: Pinecone, Weaviate, Chroma, Qdrant
  • Embedding-Modelle und Vektor-Suche
  • Chunking-Strategien und Metadaten-Management
  • RAG-Pipeline-Optimierung
  • Hybride Ansätze: RAG + Fine-tuning
  • Praktische Übung: Aufbau eines RAG-Systems mit Vektordatenbank

4. Function Calling und Tool Use

  • Konzept von Function Calling
  • Integration externer Tools und APIs
  • Multi-Tool-Orchestrierung
  • Error Handling und Fallback-Strategien
  • Sicherheitsaspekte bei Tool Use
  • Praktische Übung: LLM mit externen Funktionen erweitern

5. Textklassifizierung und Sentimentanalyse

  • Aufbau von Klassifizierungspipelines
  • Feature-Extraktion mit Transformer-Modellen
  • Integration in Content-Management-Systeme
  • Batch- und Realtime-Processing
  • Praktische Übung: Integration eines Sentiment-Analyzers in eine bestehende Webanwendung

6. Informationsextraktion und Dokumentenverarbeitung

  • Multilinguale NER-Systeme
  • Integration mit Document Processing Pipelines
  • Anbindung an Dokumentenmanagementsysteme
  • Workflow-Integration
  • Praktische Übung: Entwicklung einer Dokumentenverarbeitungspipeline mit LLM-Integration

7. Chatbots und Dialogsysteme

  • Integration mit Messaging-Plattformen
  • Anbindung an CRM-Systeme
  • Kontextmanagement und Sessionhandling
  • Memory-Strategien für längere Konversationen
  • Monitoring und Logging
  • Praktische Übung: Integration eines LLM-basierten Chatbots in eine Unternehmensplattform

8. Entwicklungs-Frameworks und Tools

  • LangChain: Modular Workflows und Memory Handling
  • LlamaIndex: Spezialisierung auf RAG-Anwendungen
  • Semantic Kernel (Microsoft): Enterprise-Integration
  • Hugging Face: Open-Source-Modelle und Transformers
  • Praktische Übung: Anwendungsentwicklung mit LangChain

9. Observability und Monitoring

  • LangSmith für LLM-Debugging und Tracing
  • Weights & Biases für Experiment-Tracking
  • Logging von Prompts und Responses
  • Performance-Metriken und Latency-Monitoring
  • Kostenkontrolle und Budgetierung
  • Praktische Übung: Monitoring-Setup für LLM-Anwendungen

10. Systemintegration und Produktivbetrieb

  • API-Design und -Management
  • A/B-Testing und Gradual Rollout
  • Fehlerbehandlung und Fallback-Strategien
  • Skalierung und Load Balancing
  • Fine-tuning und Anpassungsmethoden
  • Praktische Übung: Implementierung eines vollständigen LLM-Service mit Monitoring und Failover

Nach Absolvierung empfehlen wir:

  • AI Testing

    Für dieses Training erhalten Sie ein Teilnahmezertifikat von Spirit in Projects.

Spirit in Projects