Wie bei der Modellierungsphase müssen alle Ergebnisse dokumentiert werden. Vor allem im Hinblick auf Explainability ist der Austausch zwischen Ihren Fachleuten mit Domänenwissen und unseren KI-Experten wichtig.
Qualitätssicherung
Für qualitativ hochwertige und zuverlässige Modellvorhersagen/-auswertungen testen und bewerten wir unser Modell im Anschluss an die Entwicklung mit einem Testdatensatz auf Herz und Nieren – auch als Offline-Testing (*) bekannt. Situationsabhängig testen wir dabei die:
![Produktivität Icon](/documents/5739549/73978179/Produktivit%C3%A4t.png/3e80b02c-dbdc-29aa-6946-70c65e732198?t=1683212679440)
Performance
Was ist die Genauigkeit, Effizienz und Latenz?
![Robustheit Icon](/documents/5739549/73978179/Robustheit.png/cfdc20c9-97d4-3643-97e5-901e83e15204?t=1683213462105)
Robustheit
Wie robust ist das Modell gegenüber Rauschen (noise) oder falschen Input-Daten?
![Explainability AI Icon](/documents/5739549/73978179/Explainable-AI-neu.png/7e13c3cd-cb86-6b2d-e9cf-daf8e0178490?t=1683212766412)
Explainability (XAI)
Sind die Modellentscheidungen nachvollziehbar?
(*) „Offline“, weil das Modell nicht im Betrieb, sondern „offline“ getestet wird