KI als Teil des Softwareentwicklungsprozesses: Schnellere Umsetzung – bei verlässlich hoher Code-Qualität

Künstliche Intelligenz verändert derzeit die gesamte IT-Branche – und damit auch grundlegend, wie Software entwickelt wird. Begriffe wie Agentic Programming oder Prompt-Driven Development tauchen immer häufiger in Entwickler*innen-Communities auf und stehen für einen neuen Ansatz: Code wird nicht mehr ausschließlich Zeile für Zeile geschrieben, sondern entsteht im Zusammenspiel mit Large Language Models (LLMs) – schneller, iterativer und stärker über Anforderungen gesteuert. Für Unternehmen ist das vor allem aus drei Gründen relevant: kürzere Time-to-Market, höhere Produktivität und ein stärkerer Fokus auf fachliche Anforderungen.

Wir haben diesen Ansatz in einem unserer internen Projekt bei Spirit in Projects eingesetzt – und haben dabei zwei zentrale Learnings bei der Verwendung von KI in Entwicklungsprojekten gewonnen: KI kann die Entwicklung von Anwendungen deutlich beschleunigen, verlangt aber Mehraufwand durch präzise Steuerung sowie eine konsequente Qualitätssicherung durch Reviews und Tests.

Nachdem Stefan Hiermann in einem anderen Blogbeitrag bereits Power Apps und eine herkömmliche Entwicklung mit KI-Unterstützung anhand desselben Projekts gegenübergestellt hat (👉 hier geht’s zu Teil 1), zeigen wir in diesem Beitrag, wie KI-Integration bei uns in der Softwareentwicklung umgesetzt wurde, welche Erfahrungen wir dabei gesammelt haben – und warum KI-gestützte Programmierung für uns mehr als ein kurzfristiger Trend ist.

Projektkontext

Ziel dieses internen Projektes war die Entwicklung eines Dashboards für Mitarbeitende und Management als zentrales Portal für:

  • Arbeitszeiterfassung
  • Ressourcenmanagement
  • Urlaubsverwaltung

Technisch basiert die Lösung auf Django (Python) und HTMX. Die Software- und Datenarchitektur (u. a. Struktur, Rollen, Rechte, Datenmodell) haben wir dabei selbst entworfen, um eine robuste und langfristig wartbare Grundlage zu schaffen. 

Unser Vorgehen: KI-gestützt entwickeln – ohne Qualitätsverlust

Die Grundlage des gesamten Entwicklungsprozesses waren klar definierte Anforderungen. Deshalb haben wir vor der Umsetzung eine Requirements Engineering Phase durchgeführt: Gemeinsam mit unseren Stakeholder*innen haben wir Ziele, Rollen, Rechte und Prozesse geschärft, User Stories inkl. Use Cases beschrieben und davon priorisierte Anforderungen mit Akzeptanzkriterien abgeleitet – die als „Single Source of Truth“ dienten. Mehr dazu in unseren IREB/CPRE Trainings.

Darauf aufbauend wurde der Code promptgetrieben mithilfe eines AI-nativen Plugins (Kilo Code) direkt in unserer Entwicklungsumgebung (Visual Studio Code) generiert. Dabei haben wir unterschiedliche Modelle eingesetzt (u. a. Gemini 3 Flash oder Claude Sonnet 4.5). Einen Vergleich dieser Modelle haben wir bereits in einem separaten Beitrag beschrieben: 👉 Hier gehts zum Beitrag

Der KI-generierte Code wurde anschließend regelmäßig reviewed, an unsere Standards angepasst und bei Bedarf manuell ergänzt, insbesondere bei komplexerer Logik oder spezifischen Bugs. Durch konsequentes Testing konnten wir Fehler frühzeitig identifizieren und beheben. In Kombination mit unserer technischen Expertise stellte das sicher, dass Qualität, Wartbarkeit und Stabilität jederzeit gewährleistet blieben.

Die zentralen Herausforderungen (und was wir daraus gelernt haben)

Der Einsatz von KI in der Softwareentwicklung bringt neben großen Chancen auch berechtigte Herausforderungen mit sich. Drei Punkte waren für uns dabei besonders relevant – und sind zugleich die wichtigsten Learnings:

1) Konkret zu formulieren, was wir wirklich wollen

KI ist besonders stark, wenn Aufgaben genau beschrieben sind. In der Praxis war es jedoch teilweise überraschend anspruchsvoll, den LLMs das gewünschte Verhalten so präzise zu vermitteln, dass wirklich die passende Lösung entsteht.

Konsequenz:  Wir haben weniger „einfach direkt implementiert“, sondern deutlich stärker in geschärfte Anforderungen, konkrete Beispiele sowie Use- und Edge Cases investiert.

2) Mehr Aufmerksamkeit für Seiteneffekte

Ein zweites, sehr praxisnahes Learning: Wenn wir an Stelle A im Code etwas geändert haben, konnte an Stelle B unerwartet etwas kaputtgehen. Das ist grundsätzlich ein bekanntes Thema in der Softwareentwicklung – durch KI-generierten Code und schnelleren Iterationen wird es jedoch noch relevanter.

Konsequenz: Wir haben spürbar mehr Zeit in Code Reviews und Tests investiert, um Stabilität und Wartbarkeit zuverlässig abzusichern.

3) Architektur bleibt Verantwortung des Teams

KI kann bei der Umsetzung sehr gut unterstützen. Architektur und Datenmodell haben wir jedoch bewusst selbst verantwortet und KI vor allem dort eingesetzt, wo sie zuverlässig beschleunigt: bei Umsetzung, Refactoring und Detailarbeit.

Fazit

Innerhalb weniger Wochen konnten wir ein modernes und übersichtliches Dashboard launchen, das unsere Prozesse effizient abbildet und genau auf unsere Anforderungen zugeschnitten ist. Was mit klassischer Vorgehensweise vermutlich Monate gedauert hätte, ließ sich so in deutlich kürzerer Zeit erreichen.

KI-gestützte Softwareentwicklung ist für uns kein Ersatz für Erfahrung, sondern vielmehr ein Hilfsmittel, das die bereits gewonnene Erfahrung verstärkt. Den größten Nutzen sehen wir dann, wenn KI nicht „einfach eingesetzt“ wird, sondern mit klaren Anforderungen, konsequenter Qualitätssicherung und Architekturverantwortung im Team zusammenspielt. So lässt sich die Entwicklungszeit deutlich reduzieren – bei gleichzeitig hoher Codequalität sowie stabilen, wartbaren Ergebnissen und das Wichtigste: Zufriedene Benutzerinnen und Benutzer.

Eine Zeiterfassung, die Zeit frisst: Unser Power-Apps-Experiment

Als kleines Team aus drei Entwicklern, haben wir eine interne Zeiterfassungs-App entwickelt. Ziel war ein stabiles internes Tool, das sich sauber in unsere Systemlandschaft integriert und langfristig wartbar bleibt.

Da unser Unternehmen stark in Microsoft 365 integriert ist, haben wir uns für unsere – bis dato – aktuelle Zeiterfassung für Power Apps entschieden. Rückblickend war diese Entscheidung naheliegend – aber nicht effizient.

Warum Power Apps für uns zunächst sinnvoll war

Auf dem Papier bietet Power Apps viele Vorteile für Microsoft-365-nahe Organisationen. Azure Active Directory, Outlook, Teams und SharePoint sind direkt angebunden. Authentifizierung, Benutzerverwaltung und Rollenmodelle sind vorhanden und müssen nicht neu entworfen werden.

Genau diese Punkte haben uns überzeugt. Die Plattform versprach einen schnellen Einstieg, wenig Infrastrukturaufwand und eine niedrige Einstiegshürde – insbesondere für interne Anwendungen.

In der Praxis sah das jedoch anders aus.

Die Realität: Ein Jahr Einarbeitung in eine Low-Code-Welt

Die Entwicklung der Zeiterfassung in Power Apps war kein schneller Start.
Im Gegenteil: Es hat uns knapp ein Jahr gekostet, um die Plattform richtig zu entwickeln.

Der größte Zeitfaktor war nicht die fachliche Komplexität, sondern die Einarbeitung in:

  • die Denkweise von Power Apps,
  • die Limitierungen der Formeln und Komponenten,
  • die Eigenheiten von Power Automate,
  • und das Zusammenspiel der verschiedenen Microsoft-Werkzeuge.

Da man nicht direkt im Code arbeitet, sondern über die von Microsoft vorgegebenen Werkzeuge, Patterns und Abstraktionen, ist man stark eingeschränkt. Viele Dinge, die in klassischem Code trivial sind, lassen sich nur über Umwege oder gar nicht umsetzen.

Ein großer Teil der Entwicklungszeit floss nicht in fachliche Logik, sondern in das Verstehen und Umgehen der Plattformmechanismen.

Wenn Low-Code zum strukturellen Problem wird

Die Performance-Probleme von Power Apps waren kein schleichender Effekt, sondern von Beginn an vorhanden. Bereits beim Öffnen der Anwendung dauerte es spürbar lange, bis alle notwendigen Operationen, Abhängigkeiten und Initialisierungen geladen waren. Dieses Verhalten war unabhängig von Datenmenge oder Nutzung und zeigte klar die fehlende Effizienz des Frameworks.

Optimierung war kaum möglich, da wesentliche Abläufe außerhalb unseres Einflussbereichs lagen. Zusätzlich verschärften systemische Eigenheiten wie das automatische Deaktivieren inaktiver Power-Automate-Flows die Situation. Um produktive Prozesse stabil zu halten, mussten technische Workarounds implementiert werden, ohne fachlichen Mehrwert.

An diesem Punkt wurde deutlich: Unsere Entwicklungsarbeit richtete sich nicht mehr nach fachlichen Anforderungen, sondern nach Plattformgrenzen.

Der Vergleich: Drei Monate Django statt ein Jahr Power Apps

Der Wechsel war kein Experiment, sondern eine bewusste Entscheidung.
Wir haben die Zeiterfassung neu aufgebaut – dieses Mal mit Django in Python.

Die eigentliche Entwicklung der neuen Plattform dauerte rund drei Monate.

Trotz vollständiger Neuentwicklung waren wir deutlich schneller als mit Power Apps. Der Grund war einfach: Wir konnten wieder direkt im Code arbeiten. Architektur, Datenmodelle, Geschäftslogik und Performance lagen vollständig in unserer Hand.

Wir setzen dabei auf Prompt Driven Development als Produktivitätsverstärker. KI-gestützte Prompts unterstützen uns bei Standardlogik, Tests, Refactorings und Modellierung. Die technische Verantwortung bleibt jedoch klar beim Entwicklungsteam.

Die bestehende Power-App wurde nicht abrupt abgeschaltet. Die relevanten Daten wurden über Dataflows aus der Power-Apps-Welt entkoppelt und in eine eigenständige Datenbasis überführt. So konnten wir schrittweise migrieren, ohne den laufenden Betrieb zu gefährden.

Dieser Ansatz ermöglichte uns, die neue Plattform parallel aufzubauen und sukzessive zu übernehmen.

Microsoft-Integration ohne Low-Code

Mit dem Wechsel entfiel die implizite Microsoft-Integration von Power Apps. Authentifizierung, Benutzer-Synchronisation und Berechtigungen mussten explizit umgesetzt werden – etwa über Azure AD, OAuth und Microsoft Graph.

In der Praxis erwies sich dieser Aufwand als überschaubar und gut kontrollierbar. Statt impliziter Plattformlogik gibt es nun explizite Schnittstellen, klare Konfigurationen und nachvollziehbares Verhalten. Die Integration ist nicht schwieriger – sie ist transparenter und besser testbar.

Fazit: Low-Code kostet Zeit – klassischer Code spart sie

Power Apps hat uns keinen schnellen Start ermöglicht. Die Plattform erforderte eine lange Einarbeitung und zwang uns, in den Grenzen ihrer Werkzeuge zu denken.

Die Django-basierte Neuentwicklung war dagegen deutlich schneller, obwohl sie vollständig neu implementiert wurde. Direkter Code, klare Architektur und volle Kontrolle über das System haben sich als effizienter erwiesen als jede Low-Code-Abstraktion.

Heute entwickeln wir zielgerichteter, stabiler und nachhaltiger.
Unsere Zeiterfassung tut wieder das, was sie soll:
Zeit erfassen – nicht verbrauchen.

AI Governance Schulung für E-Control

Es ist wie mit jeder Technologie, die neu etabliert wird: Viele Unklarheiten bestehen in der Anwendung, das Verständnis über die Reichweite der Möglichkeiten ist nicht greifbar und oftmals wissen nur wenige Personen die Antworten, womit diese leicht mit Anfragen überlastet werden. Man kann versuchen, sich querzustellen und die Technologie zu vermeiden – „Es hat ja vorher auch schon super funktioniert!“ – doch wie weit man mit dieser Haltung kommen wird bzw. unternehmerischen Erfolg haben wird – das lasse ich Sie selbst beantworten.

Die Herausforderung

E-Control hat erkannt, dass die Verwendung von Künstlicher Intelligenz (KI), im Sinne von Sprachmodellen, ein riesiges Potenzial hat und die bisherigen internen Richtlinien für die Verwendung von KI eine Anpassung benötigen. Zusätzlich tritt die EU-KI-Verordnung (EU AI Act) schrittweise in Kraft. Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von KI und legt verbindliche Regeln für Sicherheit, Transparenz und den Schutz der Grundrechte fest. Die Verordnung stellt konkrete Anforderungen an Unternehmen und Organisationen – darunter auch die Pflicht, alle Mitarbeiter:innen im Umgang mit KI angemessen zu schulen und weiterzubilden. Neben der Präsenzteilnahme wurde die KI-Schulung auch online angeboten und aufgezeichnet, sodass alle Personen unabhängig von ihrer Verfügbarkeit von den Inhalten profitieren konnten.

Unser Ansatz

Unser Anspruch bei dieser Schulung war es, allen teilnehmenden Personen eine ganzheitliche Betrachtungsweise zu vermitteln. Das Thema KI ist nämlich mit dieser Schulung nicht vorbei, sondern es entwickelt sich stetig fort. Genau deswegen möchten wir unsere eigenen Lehransätze den teilnehmenden Personen vermitteln, damit diese eigenständig im Nachgang wissen, welche Themen am relevantesten sind. Für E-Control selbst haben wir den Fokus auf behördliche Themen gesetzt und Use Cases für die Schulung vorbereitet. Somit wurden direkt die Grundlagen und das Verständnis für die Ergebnisse eine eines Sprachmodells besprochen und diskutiert. Wer selbst schon viel mit KI zu tun gehabt hat, der weiß, wie unterschiedlich die Ergebnisse sein können. Mit speziellen Techniken oder Leitfäden für das Prompt Engineering lassen sich die Ergebnisse mit sehr hoher Wahrscheinlichkeit verbessern. Neben dem positiven Potenzial beim Einsatz von KI, birgt die Technologie ebenso Risiken und Herausforderungen, die wir klar hervorgehoben haben, damit die teilnehmenden Personen darüber informiert sind. Bei E-Control selbst war der EU AI Act ein wichtiger Pfeiler in unserem Vortrag, weshalb diesem Thema mehr Zeit zugewandt wurde.

Der Nutzen

Spirit in Projects hat jahrelange Erfahrung bei der Ausarbeitung diverser Schulungen. Somit konnten wir schnell und professionell ein Konzept gemeinsam mit den Verantwortlichen von E-Control ausarbeiten. Die Anforderungen seitens E-Control konnten alle vollständig berücksichtigt werden. Die vorgetragenen Inhalte stießen bei den Teilnehmenden auf sehr gute Resonanz und wurden als hilfreich bewertet. Das Ziel war nicht, das Thema einmal zu besprechen und einen „Haken“ darunter zu setzen, sondern eine Grundlage zu schaffen, auf welcher E-Control nachhaltig aufbauen kann. Oftmals kommt es nicht auf die Abteilung an, denn der Einsatzbereich von KI ist größer als man denkt. Im Vordergrund steht hierbei immer der Mensch, der die Technologie verwendet und dafür geradesteht.

Möchten auch Sie KI in Ihrem Unternehmen klar strukturiert, rechtssicher und ohne Berührungsängste einführen? Wir unterstützten Sie gerne dabei, das volle Potenzial auszuschöpfen.

Jetzt Kontakt aufnehmen und Beratungstermin vereinbaren!

IREB ZERTIFIZIERUNG

In unserem vorherigen Blogbeitrag haben Sie bereits gelesen, dass wir seit Jänner 2026 IREB/CPRE Platinum-zertifiziert sind. Heute möchten wir tiefer in das Thema eintauchen und über die Ursprünge des IREB (International Requirements Engineering Board) berichten.

Das IREB ist aus der Vision entstanden, Requirements Engineering (RE) als eigenständige Disziplin international einheitlich, vergleichbar und professionell zu vermitteln – um Missverständnisse, Change Requests, Verzögerungen und ungeplante Mehrkosten in Projekten zu reduzieren.

Ausgangslage: Warum brauchte man Vereinheitlichung?

In den frühen 2000er-Jahren war Requirements Engineering zwar als Erfolgsfaktor in Projekten anerkannt, aber:

  • es gab keinen international einheitlichen Lehrplan,
  • die Ausbildung war stark heterogen (je nach Unternehmen, Hochschule, Trainer oder Methode),
  • viele Projekte litten unter unklaren, widersprüchlichen oder schlecht abgestimmten Anforderungen,
  • zudem fehlte ein vergleichbarer Kompetenznachweis für RE-Know-how.

Das führte in der Praxis zu einem zunehmenden Bedarf nach Standardisierung, den CEO Karl Schott erkannte. Er definierte, welche Mindestanforderungen „gutes“ Requirements Engineering erfüllen sollte – unabhängig davon, ob agil, klassisch oder hybrid gearbeitet wird. Darauf aufbauend gründete er 2003 das D-A-CH Board mit dem Ziel, einen einheitlichen Standard im deutschsprachigen Raum zu etablieren.

Gründung: Wie wurde das IREB ins Leben gerufen?

Auf Basis des D-A-CH Boards wurde in den Folgejahren das IREB als international ausgerichtete, unabhängige Organisation gegründet. Ziel war dabei weniger ein klassischer Mitgliedschaftsverband, sondern vor allem:

  • ein neutrales Gremium, das Inhalte abstimmt, 
  • die Definition eines öffentlich zugänglichen Grundwissens (Syllabus), 
  • die Vergabe darauf aufbauender Zertifizierungen.

Wie ging es dann weiter?

Da das IREB großen Anklang fand, wurde es weiter internationalisiert und verbreitet. Es entstanden ein einheitlicher Syllabus sowie standardisierte Prüfungsfragen, die über internationale Trainings- und Prüfungsnetzwerke ausgerollt wurden. Seitdem gilt IREB in vielen Unternehmen als anerkannter Qualifikationsstandard – unter anderem für Business Analyst:innen, Requirements Engineers, Product Owner und weitere Rollen.

Wir sind stolz darauf, als einer der führenden IREB-Partner in Österreich RE-Kurse anzubieten. Unsere aktuellen Kurse finden Sie hier:
https://spiritinprojects.com/requirements-engineer/

IREB / CPRE PLATINUM ZERTIFIZIERUNG!

IREB / CPRE PLATINUM ZERTIFIZIERUNG!

Seit Anfang des Jahres sind wir bei Spirit in Projects IREB/CPRE Platinum zertifiziert.

Damit legen wir nicht nur mit unseren Trainings den Grundstein für eine IREB/CPRE Zertifizierung für unsere TeilnehmerInnen, sondern haben uns unsere In-House Kompetenzen jetzt auch offiziell zertifizieren lassen. Uns war wichtig, ein sichtbares Zeichen nach außen zu setzen.

Unsere Mitarbeiter – Spezialisten im RE

Wir sind sehr stolz darauf, denn diese Auszeichnung steht vor allem für eines: gelebte Requirements-Engineering-Kompetenz innerhalb unseres Teams. Die IREB/CRPE Zertifikate legen dar, wie viele Mitarbeitende eines Unternehmens selbst eine IREB Zertifizierung haben. Bei uns so viele, dass wir die Platinum – und damit höchste – Ebene erreichen konnten. Für unsere Kunden und Kundinnen bedeutet das, dass wir leben, was wir „lehren“ = RE-Kompetenz auf höchstem Niveau. Gleichzeitig geben wir unser Wissen weiter: Als Trainingsanbieter bieten wir praxisnahe Schulungen im Requirements Engineering an, mit denen sich Teilnehmende gezielt auf eine IREB/CPRE-Zertifizierung vorbereiten können.

Über IREB/CRPE

CPRE (Certified Professional for Requirements Engineering) – ist eine weltweit anerkannte Personenzertifizierung im RE Bereich. Das Zertifikat ist ein anerkannter Nachweis der Fähigkeiten und dokumentiert den erforderlichen Wissensstand und somit ein Garant für hohe Qualität.

Es ist ein vierstufiges Zertifizierungsprogramm, das jede Stufe mit einem eigenen Zertifikat abschließt und Wissen um den professionellen Umgang mit Anforderungen dokumentiert.  

Das Zertifikat ist:

  1. Ein Zertifikat mit lebenslanger Gültigkeit
  2. Praxisrelevant
  3. International anerkannt und geschätzt
  4. Mitbewerbs-Vorteil am Arbeitsmarkt

Gründungsmitglied Karl Schott
Wussten Sie, dass…

… Spirit in Projects von Anfang an mit der IREB®-Zertifizierung verbunden ist? Geschäftsführer und Gründungsmitglied von Spirit in Projects Karl Schott wollte das Berufsbild des Requirements Engineer professionalisieren und gründete 2003 das D-A-CH RE Board. Später ist daraus das weltweit agierende International Requirements Engineering Board (IREB®) entstanden.

Heute sind weltweit mehr als 90.000 Personen in 102 Ländern im Bereich des Certified Professional Requirements Engineering zertifiziert worden. Spirit in Projects ist der führende Anbieter dieser internationalen Zertifizierung in Österreich und international einer der top Trainingsprovider und Berater. Als erstes Unternehmen weltweit haben wir Trainings zu den Advanced Levels der IREB®-Zertifizierung angeboten und durchgeführt.

Vorteil für unsere Kunden

Unser Anspruch bleibt dabei klar: (Projekt-) Anforderungen so zu erheben, zu strukturieren und abzusichern, dass Projekte erfolgreicher werden – mit weniger Missverständnissen, weniger Rework und mehr Klarheit für alle Beteiligten.

Einführung des Scaled Agile Framework SAFe: Agile Transformation bei AGES

Die Österreichische Agentur für Gesundheit und Ernährungssicherheit (AGES) ist ein Unternehmen der Republik Österreich. Seit über 20 Jahren steht die AGES im Einsatz für die Gesundheit von Mensch, Tier und Pflanzen. Dabei nimmt sie unterschiedlichste gesetzlich festgelegte Aufgaben wahr – etwa im Bereich der Lebensmittel- und Arzneimittelsicherheit oder der Tiergesundheit.

Die Herausforderung

Die AGES betreibt eine Reihe von IT-Systemen, um ihren Aufgaben nachzukommen. Im Bereich der Softwareentwicklung wurden schon länger SCRUM-Methoden eingesetzt. Nach der erfolgreichen Teilnahme an einem Seminar von Spirit in Projects zum Scaled Agile Framework (SAFe) beschloss das Management der AGES, im Unternehmen zukünftig Methoden zur Skalierung von Agilität umzusetzen.

Mit einer Unternehmensgröße von über 1750 Mitarbeitenden und 10 Standorten ergab sich für die nachhaltige Integration in der Organisation eine durchaus beachtenswerte Herausforderung. In enger Zusammenarbeit mit dem Auftraggeber wurde von Spirit in Projects ein umfassendes Coaching- und Mentoring-Programm entwickelt, um die Integration der SAFe-Elemente in die Organisationsstruktur effektiv zu unterstützen.

Unser Ansatz

Bereits zu Anfang war klar, dass ein blindes Ausrollen des „Standard“-SAFe-Frameworks nicht infrage kommen würde. Hier war die umfassende Erfahrung von Spirit in Projects mit agilen Frameworks in unterschiedlichen Unternehmens- und Trainingskontexten nützlich. Im Zuge einer strategischen Beratung wurden geeignete Methoden aus SAFe identifiziert, die in weiterer Folge speziell auf die Bedürfnisse der AGES zugeschnitten werden sollten. Für das gesamte Projekt plante Spirit in Projects ein agiles Vorgehen in enger Abstimmung mit der Auftraggeberin.

Für die praktische Umsetzung bot Spirit in Projects gezielte Hands-on-Unterstützung bei der Einführung und Umsetzung des SAFe-Frameworks, von der initialen Konzeption bis hin zur operativen Durchführung.

Besonderes Augenmerk wurde auf Coaching- und Mentoring-Maßnahmen von einzelnen Mitarbeitenden und Teams gelegt. Diese wurden dabei unterstützt, die für das SAFe-Framework erforderlichen Rollen effektiv zu übernehmen und auszufüllen. Mit ihrer Expertise standen die Spirit-Consultants als Sparringpartner für fachliche und methodische Fragen zur Verfügung – immer mit dem Ziel, ein Verständnis der agilen Prinzipien und Praktiken zu vermitteln, um eigenständig Lösungen für zukünftige Herausforderungen zu entwickeln. Gemeinsam mit Entwicklungsteams wurden agile Praktiken wie SCRUM, Kanban und der Built-In-Quality-Ansatzes noch stärker etabliert, um den Produktentwicklungsprozess zu optimieren.

Für das Framework wurden relevante KPIs entwickelt und im Projekt implementiert, um eine Steuerung der Organisation zu ermöglichen. Dies erfolgte in enger Abstimmung mit dem organisatorischen Kernteam (Lean-Agile Change Agents) zur Festlegung von Zielsetzungen und nächsten Schritten.

Der Nutzen

Die über ein Jahr laufende Begleitung durch Spirit in Projects im Zuge der Implementierung von SAFe ermöglichte es den Mitarbeitenden der AGES, neue Methoden und Techniken effektiv anzuwenden und ihre Arbeitsprozesse kritisch zu reflektieren. Die Unterstützung bei der Auswahl und Anwendung der Methoden sowie das gezielte Feedback trugen signifikant zur Steigerung von Qualität, Struktur, Effizienz und Effektivität bei.

Die intensive Begleitung durch Planungsworkshops und Retrospektiven sowie individuelles Coaching vertiefte das Verständnis und die Anwendung der SAFe-Methodik. Zusätzlich wurde ein praxisorientierter Leitfaden für die Methoden entwickelt, und die Kommunikationsstrukturen sowie das Reporting innerhalb der AGES wurden optimiert.

Den Erfolg bescheinigt auch der Leiter der AGES IT-Services, Ing. Gottfried Scheck, BSc MSc: „Die Umsetzung und Begleitung der Transformation von SCRUM in das SAFe-Framework wurde zur vollsten Zufriedenheit umgesetzt. Neben der methodischen Unterstützung wurden die erforderlichen organisatorischen Anpassungen begleitet und unterstützt.“

Möchten auch Sie in Ihrem Unternehmen den nächsten Schritt gehen und von der Skalierung agiler Methoden profitieren? Wir bieten zum Thema Scaled Agile spezialisierte Trainingsangebote an und beraten Sie gerne mit unserem praxiserprobten Wissen zur Wahl der geeigneten Frameworks und Umsetzung für Ihr Business. Kontaktieren Sie uns – wir beraten Sie gerne!

AGI – Ein überbewertetes Ziel?

Der AGI-Hype und seine Versprechen

In den Medien und auf Tech-Konferenzen dominiert ein Begriff die Diskussion über die Zukunft der künstlichen Intelligenz: AGI – Artificial General Intelligence. Die Vision einer superintelligenten Maschine, die jede intellektuelle Aufgabe eines Menschen bewältigen kann, fasziniert KI-Anwender und Investoren. Milliarden fließen in die AGI-Forschung, bzw. in die Bereitstellung der dafür benötigten Computing Kapazitäten. In Unternehmen fragt man sich, wie man sich auf den Tag X vorbereitet, wenn AGI erreicht ist, sowie wie und ob man auf diesen Zug überhaupt noch aufspringen kann und wie man die Kosten dafür stemmt.

Bei dem Bemühen um baldige Verwirklichung künstlicher Superintelligenz, bleibt eine kritische Frage weitgehend unbeantwortet: Brauchen wir menschenähnliche AGI in Unternehmen überhaupt?

Die kurze Antwort: Nein. Ich möchte in diesem Beitrag beleuchten, warum eine an menschliche Leistungen ausgerichtete AGI für die breite KI Anwendung ein überbewertetes Ziel ist und wie uns die Fixierung darauf von den wahren Potenzialen heutiger KI-Technologien ablenkt.

Was ist AGI und warum ist sie so verlockend?

Definition und Abgrenzung

Artificial General Intelligence (AGI) bezeichnet hypothetische KI-Systeme, die in der Lage sind, beliebige intellektuelle Aufgaben zu verstehen, zu lernen und auszuführen – ähnlich wie ein Mensch. Im Gegensatz dazu steht Narrow AI (auch Weak AI genannt), die auf spezifische Aufgaben spezialisiert ist.

Charakteristika von AGI sind: – Breite Anwendbarkeit über verschiedenste Domänen hinweg – Menschenähnliches Verständnis und Kontexterfassung – Autonomes Lernen und Weiterentwicklung.

Charakteristika von Narrow AI sind: – Spezialisierung auf definierte Aufgabenbereiche – Exzellente Performance in spezifischen Domänen – Skalierbar und praktisch einsetzbar – Heute bereits wirtschaftlich erfolgreich.

Die Versprechen der AGI-Befürworter

Prominente Stimmen aus dem Silicon Valley verheißen eine revolutionäre Zukunft durch AGI: – Lösung komplexer globaler Probleme (Klimawandel, Krankheiten, Armut) – Explosives Wirtschaftswachstum – Wissenschaftliche Durchbrüche in allen Disziplinen – Geradezu eine neue Ära der Menschheitsgeschichte.

Die positiven Visionen sind verlockend – aber sind sie realistisch? Und vor allem: Sind sie notwendig für wirtschaftlichen Fortschritt?

Das fundamentale Problem mit AGI

Ein grundlegendes Problem der AGI-Diskussion ist die mangelnde Einigkeit darüber, was AGI überhaupt ist. Es gibt keine klare Definition, wann ein System als “allgemein intelligent” gelten soll. Die Zielpfosten für AGI verschieben sich dabei ständig: Was gestern als AGI galt, wird heute als “bloße” Narrow AI abgetan. Das macht AGI zu einem beweglichen Ziel, das möglicherweise sogar unerreichbar bleibt.

Aktuelle KI-Systeme, insbesondere Large Language Models, basieren auf statistischen Korrelationen in riesigen Datensätzen. Sie erkennen Muster, aber verstehen keine kausalen Zusammenhänge.

Ein häufiges Argument der AGI-Befürworter lautet: “Wenn wir nur mehr Daten und mehr Rechenleistung investieren, erreichen wir AGI.” Diese Annahme – oft als Scaling Laws bezeichnet – steht zunehmend unter Kritik.

Eine 2025 veröffentlichte Nature-Studie kommt zu dem Schluss: Scaling allein führt nicht zu AGI. Es bedürfe grundlegend neuer Architekturen – die möglicherweise gar nicht existieren.1 

Warum die AGI-Fixierung problematisch ist

Ablenkung von praktischen Lösungen

Die Obsession mit AGI lenkt Ressourcen, Aufmerksamkeit und Talent von Technologien ab, die heute bereits funktionieren und wirtschaftlichen Wert schaffen. Ein Artikel in Foreign Affairs (September 2025) kritisiert die AGI-Jagd als “The Cost of the AGI Delusion” – eine gefährliche Illusion, die wirtschaftliche und strategische Fehlentscheidungen verursacht.2

Überzogene Erwartungen und Enttäuschungen

AGI-Versprechen und Erwartungen können auch in Unternehmen zu einem Hype-Zyklus führen, der dem praktischen Einsatz von KI schadet:

  1. Unrealistische Erwartungen werden geschürt
  2. Enttäuschung stellt sich ein, wenn AGI nicht erscheint
  3. “KI-Winter” droht – Rückzug von Investitionen und Vertrauen der Unternehmen

Wir haben dieses Muster bereits in den 1990ern erlebt. Die aktuelle AGI-Euphorie einerseits und AGI-Ängste andererseits könnten einen ähnlichen Zyklus bewirken und einen neuen KI-Winter auslösen, der wiederum dem produktiven Einsatz praktikabler KI-Technologien in Unternehmen mittelfristig schadet.

Narrow AI löst bereits heute wichtigste Aufgaben

Unsere Meinung: Die meisten wirtschaftlich relevanten Aufgaben erfordern keine AGI.

Was Narrow AI heute bereits leistet:

  • Medizinische Diagnosen mit superhuman Performance
  • Automatisierung komplexer Geschäftsprozesse
  • Personalisierte Kundenerlebnisse
  • Predictive Maintenance in der Industrie
  • Optimierung von Lieferketten
  • Datengetriebene Entscheidungsfindung
  • Pair Programming für effizientere Software Entwicklung und Software-Test

Für diese Anwendungen – die bereits jetzt messbare Werte schaffen – ist AGI nicht erforderlich.

Zwischenfazit: Ein Paradigmenwechsel ist nötig

Die AGI-Fixierung ist ein strategischer Fehler. Sie basiert auf: – Unklaren Definitionen – Philosophisch fragwürdigen Annahmen – Technisch unbewiesenen Skalierungstheorien – durch Werbung aufgeblasene Versprechen

Stattdessen sollten wir erkennen: – Narrow AI ist leistungsfähig genug für wirtschaftliche Transformation – Spezialisierung ist ein Feature, kein Bug – Praktische Implementierung schafft heute bereits Wert – AGI ist unnötig für naheliegenden Fortschritt und Produktivitätssteigerungen.

Handlungsempfehlungen für Ihr Unternehmen

Sofort umsetzbar:

  • Hinterfragen Sie AGI-Versprechen kritisch – Fallen Sie nicht auf Marketing-Hypes herein
  • Fokussieren Sie auf Narrow AI-Lösungen – Diese sind verfügbar, erprobt und wirtschaftlich
  • Identifizieren Sie konkrete Use Cases – Welche spezifischen Probleme können KI-Tools heute lösen?
  • Investieren Sie in praktische Implementierungen – Statt auf AGI zu warten, nutzen Sie heutige Technologien
  • Bilden Sie Ihr Team weiter – In der Anwendung von Narrow AI, nicht in AGI-Spekulationen

Strategisch wichtig:

  • Entwickeln Sie eine KI-Roadmap basierend auf verfügbaren Technologien
  • Messen Sie ROI anhand konkreter Business-Metriken, nicht hypothetischer AGI-Visionen
  • Bauen Sie interne Expertise in spezifischen KI-Domänen auf
  • Bleiben Sie realistisch bezüglich Möglichkeiten und Grenzen

Fazit

AGI ist ein faszinierendes Konzept – aber ein unnötiges Ziel für wirtschaftlichen Erfolg. Die absehbare Zukunft gehört nicht der allmächtigen Superintelligenz, sondern intelligenten, spezialisierten KI-Systemen, die heute bereits existieren und morgen noch besser werden.

Die gute Nachricht: Sie müssen nicht auf AGI warten, um von KI zu profitieren. Die Werkzeuge für die digitale Transformation sind bereits da – wir müssen sie nur klug und konsequent einsetzen.

In weiteren Beiträgen zeigen wir, wie Narrow AI die Wirtschaft bereits heute revolutioniert – mit konkreten Erfahrungen und Erfolgsgeschichten.


Referenzen:

1https://www.nature.com/articles/d41586-025-00649-4

2 https://www.foreignaffairs.com/united-states/cost-delusion-artificial-general-intelligence

Anwendungen effizient und flexibel bereitstellen: Einführung von OpenShift für die Stadt Wien

Die schnelle und zuverlässige Bereitstellung von Anwendungen ist in Zeiten rascher Digitalisierung eine wichtige Voraussetzung, um digitale Lösungen an die Kunden zu bringen. Die Stadt Wien als Provider unzähliger digitaler Services hat diese Herausforderung erkannt. Im Rahmen des Technologie-Erneuerungsprogrammes wendet die Stadt daher Kubernetes auf Basis von Red Hat OpenShift zur Orchestrierung von Container-Anwendungen an. Damit wird die Effizienz und Flexibilität in der Softwareentwicklung und -bereitstellung deutlich gesteigert.

Die Herausforderung

Die zahlreichen Anwendungen im Umfeld der Stadt Wien müssen einerseits horizontal skalierbar sein, um punktuell hohe Lastspitzen (beispielsweise durch neue Anträge, gesetzliche Antragsfristen oder dergleichen) abzufedern.

Andererseits müssen die Services stetig weiterentwickelt werden, um aktuellen Anforderungen (neue Bedarfe, gesetzliche Änderungen, Sicherheit usw.) gerecht zu werden. Dafür müssen neue Anwendungen oder Versionen bedarfsgerecht und schnell bereitgestellt werden, wofür ein möglichst hoher Automatisierungsgrad nötig ist.

Zudem muss die Lösung dem komplexen Enterprise-Technologieumfeld sowie der Rechenzentrumsarchitektur der Stadt Wien mit mehreren Standorten entsprechen. Sie soll zukunftsfähig sein und eine möglichst einfache Verwaltung und punktgenaue Skalierbarkeit bieten.

Unser Ansatz

Die Experten von Spirit in Projects wurden von Wien Digital (MA 01) mit der Projektleitung sowie der Enterprise-Architektur beauftragt.

Zunächst wurde mithilfe der Enterprise-Architekten von Spirit in Projects ein umfassendes Konzept zur Integration von OpenShift in die bestehende Enterprise-Landschaft der Stadt Wien erstellt. Hauptaugenmerk dabei war der Aufbau einer Infrastruktur in mehreren Rechenzentren der Stadt Wien, die die Hochverfügbarkeit aller dort betriebenen Anwendungen der Stadt Wien sicherstellt. Durch die fundierte Technologie-Expertise von Spirit in Projects konnte sichergestellt werden, dass dieses Konzept aktuellen Standards, den internen Vorgaben sowie den Konzepten aus dem übergeordneten Technologie-Erneuerungsprogramm entspricht.

Die Projektleitung durch Spirit in Projects stellte sicher, dass stets eine enge Abstimmung mit anderen laufenden Projekten innerhalb der Stadtverwaltung gegeben war. Durch die Synergie von Programmleitung und Projektleitung (beides Experten von Spirit in Projects) konnten die angestrebten Lösungen ganzheitlich vorangetrieben werden.

Der Nutzen

Mit Unterstützung von Spirit in Projects konnte Wien Digital (MA 01) mit Red Hat OpenShift eine Plattform implementieren, mit der Container-Technologien optimal genutzt werden. Bei der Einführung der Technologie in der Stadt Wien wurde besonders deutlich, welchen Vorteil die tiefe Verankerung von Spirit in Projects in der Technik und im Ingenieurswesen mit sich bringt. So wurden bereits im Projektverlauf erste Anwendungen in der neu geschaffenen Infrastruktur erfolgreich in Betrieb genommen.

Dieser Meilenstein auf dem Weg zu einer modernen und flexiblen Infrastruktur ermöglicht der Stadt Wien zukünftig, ihre digitalen Dienstleistungen effizienter zu gestalten und besser auf Kundenbedürfnisse zu reagieren. Finden Sie hier einen Blogbeitrag von der Stadt Wien. 

SLM vs. LLM: Warum kleine Sprachmodelle für Unternehmen die bessere Wahl sein können

Die KI-Landschaft im Wandel 

Künstliche Intelligenz ist aus der modernen Unternehmenswelt nicht mehr wegzudenken. Während in den letzten Jahren vor allem Large Language Models (LLMs) wie GPT-4, Claude oder Gemini die Schlagzeilen dominierten, zeichnet sich seit 2025 ein interessanter Trend ab: Small Language Models (SLMs) gewinnen zunehmend an Bedeutung – besonders im Enterprise-Umfeld. 

Für viele Unternehmensanwendungen sind SLMs nicht nur “gut genug” – sie sind die bessere Wahl. Mit umsichtiger Planung und dem richtigen Know-how lassen sich auch komplexe KI-Projekte auf den Boden bringen. 

Doch was unterscheidet SLMs von ihren größeren Geschwistern? Und warum sollten Unternehmen gerade jetzt einen genaueren Blick auf kleine Sprachmodelle werfen? In diesem Beitrag beleuchten wir die Vorteile von SLMs und zeigen auf, wann sie die wirtschaftlich und technisch sinnvollere Wahl darstellen. 

Was sind Small Language Models? 

Small Language Models sind kompakte KI-Systeme für natürliche Sprachverarbeitung, die mit deutlich weniger Parametern arbeiten als ihre großen Pendants: 

  • LLMs: Typischerweise 100 Milliarden bis über 1 Billion Parameter (z.B. GPT-4, DeepSeek, Claude) 
  • SLMs: Meist einige Millionen bis niedrige zweistellige Zahl an Milliarden Parameter (z.B. Phi-3, Mistral 7B, Gemma 2, GPT-OSS-20b) 

SLMs entstehen oft durch Knowledge Distillation – ein Verfahren, bei dem das Wissen größerer Modelle in kompaktere Strukturen übertragen wird. Das Ergebnis: spezialisierte Modelle, die für spezifische Aufgaben optimiert sind und dabei einen Bruchteil der Ressourcen benötigen. 

Kleine Modelle zeigen dabei Fähigkeiten die vor kurzem nur mit großen Modellen erreichbar waren. 
Hier der Link zur Studie

Die sieben entscheidenden Vorteile von SLMs 

1. Kosteneffizienz: Drastische Reduktion der Betriebskosten 

Die finanziellen Vorteile von SLMs sind beachtlich: 

  • Potentiell 10 – 100-fach niedrigere Inferenzkosten im Vergleich zu LLMs 
  • Keine teuren GPU-Cluster zwingend erforderlich – SLMs laufen sogar auf Standard-Hardware (CPUs mit kleinen GPUs 8 – 32 GB RAM) 
  • Reduzierte Cloud-Kosten durch geringeren Ressourcenverbrauch 

Für Unternehmen bedeutet dies: KI-Projekte werden wirtschaftlich realisierbar, ohne das Budget zu sprengen. Die niedrigen Einstiegskosten ermöglichen auch kleineren Organisationen den Zugang zu KI-Technologie. 

2. Ressourceneffizienz: Nachhaltigkeit trifft auf Performance 

In Zeiten steigender Energiekosten und wachsendem Umweltbewusstsein punkten SLMs durch ihre Effizienz, da die Nutzung kleinerer Modelle deutlich weniger Energie verbraucht als große Modelle. Dieser Vorteil macht SLMs nicht nur wirtschaftlich, sondern auch ökologisch zur verantwortungsvolleren Wahl. 

3. Geschwindigkeit: Echtzeit-Performance für zeitkritische Anwendungen 

Die kompakte Architektur von SLMs ermöglicht deutlich schnellere Antwortzeiten

  • deutlich kürzere Inferenzzeiten in spezialisierten Anwendungen 
  • Niedrige Latenz für Echtzeit-Applikationen (z.B. Chatbots, Fraud Detection Algorithmen) 

Für Anwendungsfälle wie Kundenservice-Chatbots, Voice Assistants oder IoT-Geräte ist diese Geschwindigkeit ein entscheidender Wettbewerbsvorteil. 

4. Datenschutz und Sicherheit: Volle Kontrolle über sensible Daten 

Ein kritischer Faktor für europäische Unternehmen ist die Datensouveränität: 

  • On-Premise-Deployment – Daten verlassen niemals das Unternehmensgelände 
  • Edge-Computing-Fähigkeit – Verarbeitung direkt auf Endgeräten möglich 
  • Reduziertes Risiko durch kleinere Angriffsfläche 
  • DSGVO-Compliance durch lokale Datenverarbeitung 

Besonders für regulierte Branchen wie Finanzwesen, Gesundheitswesen oder öffentliche Verwaltung ist dieser Vorteil entscheidend. SLMs ermöglichen KI-Einsatz ohne Kompromisse beim Datenschutz. 

5. Spezialisierung: Höhere Genauigkeit in der Zieldomäne 

Während LLMs als “Alleskönner” konzipiert sind, überzeugen SLMs durch Fokussierung: 

  • Höhere Genauigkeit in spezialisierten Aufgaben bezogen auf konkrete und trainierte Unternehmensanwendungen 
  • Weniger Halluzinationen in domänenspezifischen Aufgaben sind erreichbar, wenn SLMs mit hochwertigen, kuratierten Unternehmensdaten via RAG und/oder leichtgewichtigem FineTuning betrieben werden. 
  • Schnellere Anpassung durch einfaches Fine-Tuning 

Für Unternehmen bedeutet dies: bessere Ergebnisse in genau den Bereichen, die für das Geschäft relevant sind – ohne das “Rauschen” unnötigen Allgemeinwissens. 

6. Deployment-Flexibilität: KI überall, wo sie gebraucht wird 

SLMs eröffnen neue Einsatzmöglichkeiten: 

  • Mobile Geräte – KI auf Smartphones ohne Cloud-Verbindung 
  • Edge-Devices – IoT-Sensoren, Smart Manufacturing 
  • Lokale Server – vollständige Kontrolle in der eigenen Infrastruktur 
  • Offline-Betrieb – KI auch ohne Internetverbindung 

Diese Flexibilität ist besonders wertvoll für Produktionsumgebungen, Außendienst-Szenarien oder Regionen mit eingeschränkter Konnektivität. 

7. Compliance und Governance: Kontrolle in regulierten Umgebungen 

Für Unternehmen in stark regulierten Branchen bieten SLMs entscheidende Vorteile: 

  • Nachvollziehbarkeit durch einfachere Architektur 
  • Auditierbarkeit – leichtere Dokumentation von Entscheidungsprozessen 
  • Kontrolle über Datenflüsse und Modellverhalten 
  • Einhaltung von Regulierungen wie NIS 2, DSGVO oder branchenspezifischen Standards 

Die aktuelle Entwicklung der KI-Regulierung (EU AI Act) macht diese Eigenschaften zunehmend geschäftskritisch. 

Wann sind SLMs die richtige Wahl? 

SLMs sind besonders geeignet für: 

Spezialisierte Anwendungsfälle – Kundenservice, Dokumentenanalyse, Prozessautomatisierung 
Budget-bewusste Projekte – Mittelstand, Start-ups, Pilotprojekte 
Datenschutzkritische Szenarien – Gesundheitswesen, Finanzbranche, öffentlicher Sektor 
Edge- und IoT-Anwendungen – Smart Manufacturing, mobile Apps 
Schnelle Time-to-Market – agile Entwicklung mit kurzen Iterationszyklen 
Multi-Agenten-Architekturen – mehrere spezialisierte Modelle im Verbund 

Fazit: SLMs als Enabler pragmatischer KI-Innovation 

Small Language Models stellen keine “abgespeckte” Version von LLMs dar – sie sind eine bewusste strategische Alternative für Unternehmen, die KI-Technologie effizient, sicher und zielgerichtet einsetzen wollen. 

Die Vorteile sind überzeugend: – Wirtschaftlich durch niedrige Kosten – Nachhaltig durch geringen Ressourcenverbrauch – Sicher durch lokale Deployment-Optionen – Präzise durch domänenspezifische Optimierung 

Wichtige Anforderungskategorien in KI-Projekten 

In der Praxis von KI-Projekten zeigen sich oft spezifische Anforderungsblöcke, die über die klassischen funktionalen, nicht-funktionalen oder rein datenbezogenen Kategorien hinausgehen. Wichtige Bereiche sind etwa Daten & Datenqualität, Modell & Algorithmen, Integration & Betrieb, Benutzer & Domäne sowie Sicherheit & Ethik. Jede dieser Kategorien bringt besondere Fragestellungen mit sich, die im Projekt frühzeitig geklärt werden sollten.

Daten & Datenqualität, sichere IT-Umgebung, Modell & Algorithmen, Integration & Betrieb, Benutzer & Domäne.

Daten und Datenqualität 

KI lebt von Daten: Sie sind das Fundament jeder KI-Anwendung. Im Vergleich zu klassischen Softwareprojekten steht hier die Qualität, Quantität und Diversität der Daten im Fokus. Schlechte oder einseitige Daten führen unweigerlich zu falschen Vorhersagen oder Verzerrungen. In der Praxis müssen daher frühzeitig Fragen geklärt werden wie: Woher stammen die Daten? Sind sie vollständig, aktuell und korrekt aufbereitet? Stehen ausreichend viele repräsentative Trainingsdaten zur Verfügung? Wie werden sie annotiert und versioniert? 

Checkliste: 

  • Sind alle benötigten Datenquellen identifiziert, zugänglich und dokumentiert? 
  • Entsprechen Datenstruktur und -format den Anforderungen des Modells? 
  • Wurde eine Datenbereinigung durchgeführt (fehlende Werte, Ausreißer, Korrektur) und sind Qualitäts-Checks implementiert? 
  • Sind Datenschutz und Nutzungsrechte (z. B. DSGVO, Urheberrecht) geklärt und angewendet?

Modell und Algorithmus 

Nachdem die Datenbasis steht, stellt sich die Frage nach dem passenden Lernverfahren. Hier geht es um die Wahl von Algorithmus und Modellarchitektur sowie um Leistungs- und Evaluationskriterien. Entscheidend ist zunächst zu klären, welcher Algorithmus zum Use Case passt (z. B. Klassifikation, Regression, Clustering) und welche Zielmetriken (z. B. Genauigkeit, Precision/Recall) erreicht werden sollen. Auch Anforderungen an Erklärbarkeit (Explainability) oder Robustheit (z. B. gegen Ausreißer oder Adversarial-Angriffe) fließen in diese Kategorie ein. 

Checkliste: 

  • Welcher KI-Algorithmus und welche Modellarchitektur werden eingesetzt? 
  • Welche Zielwerte (Accuracy, etc.) oder Benchmarks müssen erreicht werden? 
  • Sind Anforderungen an Interpretierbarkeit, Transparenz oder Erklärbarkeit definiert? 
  • Wie wird Modell-Drift überwacht und wie häufig erfolgt ein Nachtraining? 

Integration und Betrieb (MLOps) 

Anders als bei herkömmlicher Software endet die Arbeit mit einem KI-Modell nicht nach dem Deployment. Das Modell muss dauerhaft in die Systemlandschaft integriert und im Betrieb gepflegt werden. Wesentliche Punkte sind hier: Welches System und welche Infrastruktur wird genutzt (Cloud vs. On-Premise, GPU/CPU)? Wie erfolgt das Deployment (z. B. CI/CD-Pipeline) und das Release-Management? Gibt es klar definierte Schnittstellen und Datenflüsse (APIs, Datenbanken, Messaging-Systeme)? Sind Service-Level (z. B. Antwortzeiten, Verfügbarkeit) definiert und gesichert? Experten betonen, dass KI-Lösungen nicht als Insellösung konzipiert werden sollten, sondern nahtlos in bestehende Prozesse integriert werden müssen. 

Checkliste: 

  • Ist die Ziel-Infrastruktur (Cloud/On-Premise, Hardware-Anforderungen) definiert und verfügbar? 
  • Sind alle Schnittstellen (APIs, Datenbanken, Authentifizierung) spezifiziert und getestet? 
  • Gibt es ein Monitoring (Leistungs-KPIs, Daten-/Modell-Drift) und Alarmierungen im Live-Betrieb? 
  • Wie sind der Release-Prozess und die Verantwortlichkeiten für Betrieb & Wartung geregelt (DevOps/MLOps)? 

Benutzer, Domäne und Organisation 

Ein KI-Projekt ist nur so erfolgreich wie seine Akzeptanz bei den Nutzern. Daher ist die Einbindung von Domänenexperten und Endanwendern essenziell. Welche konkreten Geschäftsprozesse werden automatisiert oder unterstützt? Welche Benutzerrollen (z. B. Endanwender, Administratoren, Data Scientists) gibt es und wie sollen sie mit dem System interagieren (Dashboards, Alerts, Berichte)? Zudem muss oft explizit definiert werden, wie die KI die Arbeit der Mitarbeiter ergänzt: Soll sie Empfehlungen geben, Entscheidungen treffen oder nur Vorschläge liefern? 

Checkliste: 

  • Sind alle relevanten Benutzerrollen und ihre Anforderungen definiert? 
  • Wie werden KI-Ergebnisse präsentiert (z. B. Dashboard, Berichte, Alerts) und interpretiert? 
  • Gibt es Interaktions- oder Rückmeldemöglichkeiten für die Anwender (z. B. Korrektur, Feedback)? 
  • Sind Trainings- und Akzeptanzmaßnahmen für die Anwender vorgesehen (Change Management)? 

Sicherheit, Ethik und Compliance 

KI-Projekte bringen oft zusätzliche rechtliche und ethische Anforderungen. Besonders bei sensiblen oder personenbezogenen Daten muss der Datenschutz (z. B. DSGVO) strikt eingehalten werden. Das umfasst u. a. informierte Einwilligung, Datenminimierung und sichere Speicherung. Gleichzeitig ist Fairness ein zentrales Thema: Verzerrungen in den Daten oder Modellen können zu diskriminierenden Ergebnissen führen (so genannter Algorithmic Bias). Auch andere Regularien (z. B. der EU AI Act oder branchenspezifische Vorgaben) sind hier relevant. 

Checkliste: 

  • Sind alle Datenschutz-Anforderungen (Einwilligung, Anonymisierung, DSGVO-Compliance) geklärt? 
  • Wurden Trainingsdaten und Modelle auf Bias und Fairness geprüft? 
  • Sind Nachvollziehbarkeit und Erklärbarkeit der KI-Entscheidungen definiert (Audit-Trail, Logging)? 
  • Wie werden Modelle und Daten gegen Angriffe und Manipulation geschützt? 

Fazit

Insgesamt erfordern KI-Projekte eine ganzheitliche Anforderungsanalyse, die technische, fachliche und regulatorische Aspekte vereint. Die obigen Kategorien – abgeleitet aus Praxiserfahrung – helfen Projektleitern und Entscheidern, typischerweise übersehene Punkte systematisch abzuarbeiten. Eine klare Zieldefinition und ein iteratives Vorgehen (MVP, Prototypen) runden das Bild ab und verhindern unerwünschte Überraschungen.