KI in Medizinproduktesoftware gemäss EU-MDR & IVDR
Künstliche Intelligenz (KI) oder maschinelles Lernen sind revolutionär, aber auch umstritten. Sie waren bereits in CE-gekennzeichneter Medizinproduktesoftware enthalten, lange bevor das Europäische Gesetz über künstliche Intelligenz (KI-Gesetz) veröffentlicht wurde. Als horizontale Gesetzgebung überschneidet sich das KI-Gesetz mit der EU-MDR und IVDR für gewisse Medizinproduktesoftware.
Dieser Artikel untersucht die Auswirkungen des KI-Gesetzes auf Medizinproduktesoftware und geht dabei auch auf die Bereiche ein, in denen noch Unsicherheiten bestehen, bis die Regulierung vollständig anwendbar ist.
Wichtigste Erkenntnisse
- Es gibt keine einfache Antwort darauf, welche Arten von Medizinproduktesoftware (MDSW) unter das KI-Gesetz fallen. Man muss die Mehrdeutigkeit der rechtlichen Definition der Begriffe “KI-System” und KI-Modellen mit allgemeinem Verwendungszweck (“Allzweck-KI”) verstehen, die durch die Leitfäden der EU-Kommission nicht vollständig geklärt werden.
- Hersteller von MDSW sollten prüfen, wie sich das KI-Gesetz auf ihre Software auswirkt, und zwar auf Grundlage der Einstufung als KI-System oder Allzweck-KI. Verbotene KI-Praktiken müssen erkannt und unterbunden werden.
- Trotz des Leitfadens MDCG 2025-6 zu Überschneidungen von EU-MDR/IVDR und dem KI-Gesetz, und trotz verschiedener Team-NB Positionen, müssen Hersteller bei der Extrapolation der bestehenden Anforderungen für MDSW immer noch den gesunden Menschenverstand benutzen.
Inhalt
Was ist das KI-Gesetz der EU?
Das EU-Gesetz über künstliche Intelligenz (KI-Gesetz), das in der Verordnung (EU) 2024/1689 umgesetzt wird, ist Teil der digitalen Strategie der EU. Diese zielt auf die Entwicklung und Nutzung von sicherer und rechtmässiger KI vor dem Hintergrund der EU-Grundrechte ab.
Das KI-Gesetz folgt den Grundsätzen des Neuen Rechtsrahmens der EU und sieht eine Kennzeichnung von “Hochrisiko-KI-Systemen” und bestimmte Verpflichtungen für “Allzweck-KI” (auch “KI-Modelle mit allgemeinem Verwendungszweck”) vor. Ausgenommen sind Algorithmen für militärische, verteidigungspolitische oder nationale Sicherheitszwecke sowie für wissenschaftliche Forschung und Entwicklung. KI-Systeme, die unter freien und Open-Source-Lizenzen veröffentlicht werden, fallen ebenfalls nicht in den Anwendungsbereich des KI-Gesetzes, sofern sie nicht als “hochriskant” eingestuft werden, verbotene KI-Praktiken beinhalten [Art. 5] oder direkt mit natürlichen Personen interagieren [Art. 50].
Das KI-Gesetz ist eine “horizontale” Gesetzgebung, d.h. sie gilt für alle Sektoren, unter anderem für Medizinprodukte. Sie überschneidet sich daher auch mit der Verordnung (EU) 2017/745 über Medizinprodukte (EU-MDR) und der Verordnung (EU) 2017/746 über In-vitro-Diagnostika (IVDR). Dies führt zu einigen inkonsistenten Anforderungen und Begriffen.
Die Definitionen der Begriffe “KI-System” und “Allzweck-KI” sind für das Verständnis der Auswirkungen auf Medizinproduktesoftware (MDSW) von wesentlicher Bedeutung.
- “KI-System” ist definiert als: “ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie betrieben werden kann und nach seiner Einführung Anpassungsfähigkeit zeigt, und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren kann, die physische oder virtuelle Umgebungen beeinflussen können.” [Art. 3 Abs. 1 KI-Gesetz]
- “Allzweck-KI” ist definiert als: “ein KI-Modell, auch wenn es mit einer grossen Datenmenge unter Verwendung von Selbstüberwachung in grossem Massstab trainiert wurde, das eine erhebliche Allgemeinheit aufweist und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, unabhängig davon, wie das Modell auf den Markt gebracht wird, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann, mit Ausnahme von KI-Modellen, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, bevor sie auf den Markt gebracht werden.”
[Art. 3 Abs. 63 KI-Gesetz]
Die Medical Device Coordination Group hat (MDCG) endlich einen lang erwarteten Leitfaden MDCG 2025-6 zum Zusammenspiel zwischen KI-Gesetz und EU-MDR/IVDR veröffentlicht. Der Leitfaden bezieht sich auf KI-Systeme, die für medizinische Zwecke eingesetzt werden, sogenannte Medical Device Artificial Intelligence (MDAI). Abgedeckt werden auch “Annex XVI-Produkte” und Zubehör für Medizinprodukte und IVD. Wir empfehlen, sich mit diesem neuen Begriff vertraut zu machen.
HINWEIS: In diesem Artikel wird der Begriff “KI-gestützte MDSW” allgemein verwendet und umfasst sowohl MDAI als auch Software, die nicht als KI-System eingestuft wird, aber dennoch KI-gestützt ist. Dies ist auf die unklare Definition von KI-Systemen im Rahmen des KI-Gesetzes zurückzuführen.
Welche Arten von MDSW-Algorithmen fallen unter das KI-Gesetz?
Die einfache Antwort wäre: alle MDSW-Algorithmen, die als KI-Systeme oder Allzweck-KI eingestuft werden.
Angesichts der vielschichtigen und teilweise ungenauen rechtlichen Definitionen von KI-System und Allzweck-KI gibt es jedoch keine einfache Antwort.
Die EU-Kommission verpflichtete sich, klärende Leitfäden herauszugeben, um bei der Auslegung dieser rechtlichen Definitionen zu helfen. Der erste Leitfaden bezog sich auf die Definitionen von KI-Systemen und enthielt verschiedene Beispiele, die jedoch zu weiterer Verwirrung führten.
Laut Erwägungsgrund (12) des KI-Gesetzes “…sollte die Definition auf den Hauptmerkmalen von KI-Systemen beruhen, die sie von einfacheren herkömmlichen Softwaresystemen oder Programmieransätzen unterscheiden”.
Zu diesen Hauptmerkmalen gehören:
- Das System wurde entwickelt, um mit unterschiedlichen Autonomiegraden zu arbeiten. Laut Erwägungsgrund (12) bedeutet dies, dass KI-Systeme bis zu einem gewissen Grad unabhängig von menschlichen Eingriffen agieren.
Die Leitfäden der EU-Kommission zu Definitionen von KI-Systemen weisen darauf hin, dass die menschliche Beteiligung und Intervention entweder direkt sein kann, z.B. durch manuelle Kontrollen, oder indirekt, z.B. durch automatisierte systembasierte Kontrollen, die es dem Menschen erlauben, Systemoperationen zu delegieren oder zu überwachen. Die Leitfäden kommen auch zum Schluss, dass jedes System mit einem gewissen Grad an Unabhängigkeit die Definition eines KI-Systems erfüllt. Die Leitfäden enthalten jedoch keine Beispiele, anhand derer sich sagen liesse, was ein gewisser Grad ist.
Kurz, dieses Kriterium bedarf weiterer Klärung. Insbesondere, wie sich Autonomie von Regeln “zur automatischen Ausführung von Operationen” (d.h. Automatisierung) unterscheidet, die gemäss Erwägungsgrund (12) von der Definition von KI-Systemen ausgeschlossen werden sollten.
- Das System besitzt die Fähigkeit zur Schlussfolgerung. Laut Erwägungsgrund (12) bedeutet dies den Prozess der Generierung von Outputs (z.B. Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen), die physische und virtuelle Umgebungen beeinflussen können (gemäss den Leitfäden der EU-Kommission betrifft dies eher die Nutzungsphase des KI-Systems), sowie die Fähigkeit, Modelle und Algorithmen aus Eingaben oder Daten abzuleiten (gemäss EU-Kommission eher die Aufbauphase des KI-Systems). Zu den Techniken, die Schlussfolgerungen ermöglichen, gehören sowohl Ansätze für maschinelles Lernen als auch logik- und wissensbasierte Ansätze. Dies umfasst auch die Fähigkeit eines KI-Systems, Schlussfolgerungen zu ziehen, die über die grundlegende Datenverarbeitung hinausgeht, indem es Lernen oder Modellieren ermöglicht.
Die Leitfäden der EU-Kommission lassen vermuten, dass die in der Definition enthaltene Fähigkeit, “abzuleiten, wie Ergebnisse zu erzielen sind”, so verstanden werden sollte, dass sie sich auf die Aufbauphase des KI-Systems bezieht. Dies ist hilfreich. Die Interpretation von “logik- und wissensbasierten Ansätzen” in Erwägungsgrund (12) ist jedoch der Punkt, an dem die Verwirrung beginnt. Die Verwirrung wächst noch beträchtlich mit einigen Beispielen und Erklärungen zu Systemen des maschinellen Lernens, die nicht in den Anwendungsbereich der Definition von KI-Systemen fallen würden: Die rätselhaftesten betreffen Systeme, die Vorhersagen mit dem Ziel der Verbesserung der Rechenleistung treffen. - Potenzielle Anpassungsfähigkeit. Diese bezieht sich auf selbstlernende Fähigkeiten, die es dem System ermöglichen, sich während der Nutzung zu verändern.
Nach den Kriterien in Artikel 6(1) ist die Anpassungsfähigkeit jedoch kein definierendes Merkmal, da ein KI-System Anpassungsfähigkeit aufweisen kann oder nicht.
Es ist daher klar, dass sich die Grauzone bei der Einstufung von Software als KI-System mit den Leitfäden der EU-Kommission zur Definition von KI-Systemen vergrössert hat und einer sorgfältigen Bestimmung bedarf.
Was “Allzweck-KI” anbelangt, so wird in Erwägungsgrund (97) des KI-Gesetzes ebenfalls der Begriff anhand seiner wichtigsten funktionellen Merkmale definiert:
- Erhebliche Allgemeinheit
- Fähigkeit zur kompetenten Ausführung eines breiten Spektrums unterschiedlicher Aufgaben.
Auch hier ist die Beschreibung dieser beiden Merkmale für diejenigen, die mit der KI-Terminologie nicht vertraut sind, unzureichend.
In Erwägungsgrund (97) wird lediglich erläutert, dass Allzweck-KI in der Regel anhand grosser Datenmengen mit verschiedenen Methoden wie selbstüberwachtem oder verstärktem Lernen trainiert werden. In Erwägungsgrund 98 wird darauf hingewiesen, dass Modelle mit mindestens einer Milliarde Parametern, die mit einer grossen Datenmenge unter Verwendung von Selbstüberwachung in grossem Massstab trainiert wurden, als sehr allgemein und für die kompetente Ausführung eines breiten Spektrums spezieller Aufgaben geeignet angesehen werden sollten. Der Begriff “künstliche allgemeine Intelligenz” (KAI) wird üblicherweise für KAI-Technologien mit generativen Fähigkeiten verwendet, die auf einem breiten Satz unbeschrifteter Daten trainiert wurden und für verschiedene Aufgaben mit minimaler Feinabstimmung verwendet werden können. Ein anderer ähnlicher Begriff ist “Basismodell”.
Das GPAIM-Konzept wurde von der EU-Kommission im zweiten Leitfaden zum KI-Gesetz präzisiert (GPAIM-Definitionen und damit verbundene Anforderungen). Diese Leitfäden sind am 2. August 2025 in Kraft getreten. Ab diesem Datum gelten auch die Verpflichtungen für GPAIM-Anbieter gemäss Kapitel V des KI-Gesetzes.
Kurz gesagt gilt ein KI-Modell als GPAIM, wenn seine Trainingsrechenleistung grösser als 10^23 FLOP ist (die Rechenleistung, die in der Regel erforderlich ist, um ein Modell mit einer Milliarde Parametern und grossen Datenmengen zu trainieren) und es Sprache (Text oder Audio), Text-zu-Bild oder Text-zu-Video generieren kann. Aber:
- Wenn ein Modell das indikative Kriterium erfüllt, aber ausnahmsweise keine signifikante Allgemeingültigkeit aufweist oder keine breite Palette von Aufgaben erfüllt, ist es kein GPAIM. Es werden verschiedene Beispiele angeführt.
- Umgekehrt gilt: Wenn es das Kriterium nicht erfüllt, aber ausnahmsweise eine erhebliche Allgemeinheit aufweist und eine Vielzahl von Aufgaben erfüllt, handelt es sich um ein GPAIM. Es werden keine Beispiele angegeben, sodass Raum für Interpretationen bleibt.
Die folgende Tabelle fasst die in den Erwägungsgründen des KI-Gesetzes beschriebenen Schlüsselkonzepte zusammen, die von den Herstellern von Medizinproduktesoftware gut verstanden werden müssen.

Wie wirkt sich das KI-Gesetz auf Medizinproduktesoftware (MDSW) aus?
Die Auswirkungen des KI-Gesetzes auf MDSW hängen davon ab, ob der Algorithmus als KI-System oder Allzweck-KI eingestuft wird, und um welche Art KI-System bzw. Allzweck-KI es sich handelt. Weiter stellt sich die Frage, ob es bei MDSW KI-Praktiken gibt, die nach KI-Gesetz Artikel 5 verboten sind.
MDSW als KI-Systeme (MDAI)
MDAI, die als “Hochrisiko-KI-Systeme” eingestuft werden, unterliegen einer doppelten CE-Kennzeichnung, sowohl nach dem KI-Gesetz als auch nach der EU-MDR oder IVDR. Der Zertifizierungsprozess soll aber ein gemeinsamer sein, d.h. er kann gleichzeitig von derselben Benannten Stelle durchgeführt werden.
In Anhang I des KI-Gesetzes sind harmonisierte EU-Rechtsvorschriften aufgeführt, die bestimmte Produkte betreffen, wozu auch Medizinprodukte unter der EU-MDR und IVDR gehören. Ein KI-System gilt als hochriskant, wenn es ein solches Produkt oder ein Sicherheitsbauteil davon ist und dieses gleichzeitig einer Konformitätsbewertung durch Dritte unterliegt (im Falle einer MDSW durch eine Benannte Stelle gemäss EU-MDR oder IVDR). [Art. 6 Abs. 1 KI-Gesetz]
Beachten Sie, dass MDAI, die innerhalb einer Gesundheitseinrichtung hergestellt und verwendet wird (so genanntes “In-House”-Produkt), keine Beteiligung einer Benannten Stelle erfordert [Art. 5 Abs. 5 EU-MDR/IVDR]. 5(5), und daher nicht als Hochrisiko-KI-System eingestuft wird. Dies scheint überraschend, da ein “In-House”-Produkt einem Produkt der Klasse III oder einem IVD der Klasse D ähneln könnte, vorbehältlich einer Prüfung durch eine Benannte Stelle gemäss EU-MDR/IVDR. Der Leitfaden MDCG 2025-6 über das Zusammenspiel zwischen KI-Gesetz und der EU-MDR/IVDR bestätigt diese Anomalie, weist aber darauf hin, dass spezifische Leitfäden für MDAI herausgegeben werden, die in Gesundheitseinrichtungen hergestellt und verwendet werden.
Um festzustellen, ob ein KI-Algorithmus in MDSW als Hochrisiko-KI-System einzustufen ist, ist auch die Definition von “Sicherheitsbauteil” wichtig. Ein Sicherheitsbauteil:
“ist ein Bauteil eines Produkts oder eines KI-Systems, das eine Sicherheitsfunktion für dieses Produkt oder KI-System erfüllt oder dessen Ausfall oder Fehlfunktion die Gesundheit und Sicherheit von Personen oder Sachen gefährdet. [Art. 3 Abs. 14 KI-Gesetz]
Das Konzept des Sicherheitsbauteils im KI-Gesetz gleicht dem der “Teile und Komponenten” in der EU-MDR und IVDR [Art. 23 Abs. 2 EU-MDR und Art. 20 Abs. 2 IVDR].
In Anbetracht von Artikel 6 des KI-Gesetzes kann daher der Schluss gezogen werden, dass folgende Systeme als “Hochrisiko-KI-Systeme” betrachtet werden:
- KI-gestützte MDSW, die höher als Medizinprodukte der Klasse I bzw. höher als In-vitro-Diagnostika der Klasse A eingestuft wird,
- KI-Algorithmen mit Auswirkungen auf die Sicherheit/Leistung innerhalb eines MDSW, das höher als Klasse I bzw. Klasse A eingestuft ist.
Wer die in Anhang III des KI-Gesetzes aufgeführten Hochrisiko-KI-Systeme betrachtet, findet weitere Fälle, die auf MDSW zutreffen könnten, insbesondere auf MDSW der Klasse I, die nicht die Kriterien in Art. 6 Abs. 1 erfüllen:
- KI-Systeme, die im Namen von Behörden verwendet werden, um die Berechtigung natürlicher Personen für wesentliche öffentliche Unterstützungsleistungen, wie Gesundheitsdienstleistungen, zu bewerten sowie solche Leistungen zu gewähren, zu kürzen, etc. [Anhang III, Abschnitt 5(a)]
Dies könnte bei Algorithmen der Fall sein, die die klinische Eignung für kostspielige oder seltene chirurgische Behandlungen (z.B. Transplantationen) bewerten.
- KI-Systeme, die Notrufe von natürlichen Personen bewerten und klassifizieren, oder die Prioritäten bei der Entsendung von Notfalldiensten, einschliesslich medizinischer Hilfe, festlegen, sowie Notfall-Patiententriage-Systeme. [Anhang III, Abschnitt 5(d)]
Schliesslich benötigen MDSW, die einem KI-System entsprechen, aber als “nicht Hochrisiko” eingestuft werden, zwar gemäss KI-Gesetz keine CE-Kennzeichnung, sind aber trotzdem nicht völlig frei von Anforderungen. Weitere Einzelheiten finden Sie im Abschnitt Welche Anforderungen gelten für MDSW gemäss KI-Gesetz?
Allzweck-KI in MDSW
Bei der Feststellung, ob ein MDSW-Algorithmus einer Allzweck-KI entspricht, ist es wichtig, die Kriterien “erhebliche allgemeine Verwendbarkeit” und “breites Spektrum unterschiedlicher Aufgaben kompetent erfüllen” in der Definition von Allzweck-KI richtig zu interpretieren.
Interessanterweise bezieht sich die MDCG 2025-6 nicht auf Medizinprodukte, die Allzweck-KI sind. Dies ist sicherlich auf die Unwahrscheinlichkeit eines solchen Szenarios zurückzuführen. MDSW kann jedoch Allzweck-KI enthalten und tut dies auch häufig, so dass es wichtig ist, die entsprechenden Konzepte zu verstehen.
Allzweck-KI bezieht sich auf KI-Technologien mit generativen Fähigkeiten, die auf einem breiten Satz unbeschrifteter Daten trainiert wurden und mit minimaler Feinabstimmung für verschiedene Aufgaben eingesetzt werden können. Typische Allzweck-KI sind grosse generative KI-Modelle wie Bilderkennung z.B. ResNet, grosse Sprachmodelle wie GPT-4 oder Video- und Audiogenerierungswerkzeuge. Für MDSW sind solche Allzweck-KI besonders nützlich. Sie sind daher bereits als Grundlage in zahlreichen MDSW integriert. Der MDSW-Hersteller muss in der Lage sein, solche Allzweck-KI bei Fremdsoftware, z.B. einem Chatbot, zu identifizieren.
Allzweck-KI werden wiederum anhand ihrer “systemischen Risiken” klassifiziert, und zwar nach den folgenden Kriterien [Art. 51 KI-Gesetz]:
- Fähigkeiten mit hohem Wirkungsgrad. Dies wird einer Allzweck-KI zugesprochen, die mit einer kumulierten Menge verwendeter Berechnungen von mehr als 10^25 FLOPs (Gleitkommaoperationen) trainiert wurde.
- Fähigkeiten mit gleichwertigem Wirkungungsgrad. “Gleichwertig” im Vergleich mit Allzweck-KI mit hohem Wirkungsgrad. Dies wird von der EU-Kommission auf der Grundlage der Kriterien in Anhang XIII des KI-Gesetzes entschieden.
Die kumulativen Trainingsrechenleistungen umfassen alle Berechnungen, die zu den Modellfähigkeiten beitragen, wie z.B. Vorabtraining, Generierung synthetischer Daten (einschliesslich verworfener Daten) und Feinabstimmung. Der Anhang zu den Leitfäden zur GPAIM der EU-Kommission veranschaulicht, wie die Trainingsrechenleistung entweder durch hardwarebasierte oder architekturbasierte Ansätze geschätzt/berechnet werden kann.
Kurz gesagt gelten Allzweck-KI als “systemisch riskant”, wenn sie sehr leistungsfähig und weit verbreitet sind (d.h. derzeit mindestens 10.000 registrierte geschäftliche Nutzer auf dem Unionsmarkt) und beispielsweise viele Nutzer beeinträchtigen könnten, wenn sie schädliche Verzerrungen in vielen Anwendungen verbreiten.
Die EU-Kommission kann delegierte Rechtsakte erlassen, um die Schwellenwerte für die Einstufung von Allzweck-KI als “systemisch riskant” zu ändern.
Laut Erwägungsgrund (97) des KI-Gesetzes, können Allzweck-KI über Bibliotheken, Schnittstellen (APIs), als direkter Download oder auf andere Weise auf den Markt gebracht werden. Die Allzweck-KI können dann vom Anbieter des KI-Systems weiter modifiziert (z.B. durch Hinzufügen einer Benutzeroberfläche) oder weiterentwickelt werden. Da Allzweck-KI eine wesentliche Komponente von KI-gestützter MDSW sind, werden die entsprechenden Allzweck-KI-Anbieter zu kritischen Lieferanten des MDSW-Herstellers, was regulatorische Fragen über die Durchführbarkeit einer solchen Beziehung aufwirft.
MDAI-Hersteller, die ein GPAIM in einer Weise modifizieren, die zu einer wesentlichen Änderung der Allgemeingültigkeit, der Fähigkeiten oder des systemischen Risikos des Modells führt, werden zu GPAIM-Anbietern. Die Leitfäden der EU-Kommission zu GPAIM stellen klar, dass dies der Fall ist, wenn die für die Modifizierung verwendete Trainingsrechenleistung mehr als ein Drittel der Trainingsrechenleistung des ursprünglichen Modells beträgt.

KI-gestützte MDSW dürfen keine der in Artikel 5 aufgeführten verbotenen Praktiken beinhalten.
Verbotene KI-Praktiken
KI-gestützte MDSW darf keine der in Artikel 5 des KI-Gesetzes aufgeführten verbotenen Praktiken enthalten. Diese werden als potenzielle Bedrohung für die Grundrechte und -werte der EU angesehen, da sie mit einem erheblichen Potenzial für Manipulation, Ausbeutung und soziale Kontrolle verbunden sind. Der MDSW-Hersteller muss die verbotenen KI-Praktiken ausschliessen.
Die verbotenen KI-Praktiken sind:
- Unterschwellige Techniken oder absichtlich manipulative/trügerische Techniken, die die Fähigkeit, eine informierte Entscheidung zu treffen, beeinträchtigen und damit erheblichen Schaden verursachen.
- Techniken, die die Verletzlichkeit einer Person oder einer bestimmten Personengruppe ausnutzen (z.B. bestimmtes Alter, Behinderung, sozialer/wirtschaftlicher Status), um deren Verhalten zu verzerren und damit erheblichen Schaden zu verursachen.
- Erstellung eines Sozialpunktsystems auf der Grundlage von sozialem Verhalten oder persönlichen Merkmalen, wenn ein solches System zu einer nachteiligen Behandlung einer Person oder Personengruppe in nicht verwandten sozialen Kontexten führt.
- Profilerstellungstechniken zur Vorhersage des Risikos, dass eine Person eine Straftat begeht.
- Ungezieltes Auslesen von Gesichtsbildern aus dem Internet oder aus Überwachungskameras, um Gesichtserkennungsdatenbanken zu erstellen oder erweitern.
- Rückschlüsse auf Emotionen am Arbeitsplatz und in Bildungseinrichtungen, ausser aus medizinischen oder Sicherheitsgründen.
- Biometrische Kategorisierungssysteme, die Rückschlüsse auf Ethnie, politische Meinung, die Gewerkschaftszugehörigkeit, religiöse oder philosophische Überzeugungen, Sexualleben oder sexuelle Orientierung zulassen (es sei denn, sie werden rechtmässig zu Strafverfolgungszwecken erworben).
- Biometrische Fernidentifikationssysteme in Echtzeit in öffentlich zugänglichen Räumen zum Zweck der Strafverfolgung, mit einigen Ausnahmen und Bedingungen.
Die verbotenen Praktiken gelten seit dem 2. Februar 2025 und werden seit dem 2. August 2025 durchgesetzt. Für weitere Details hat die EU-Kommission umfangreiche Leitfäden zu verbotenen Praktiken der künstlichen Intelligenz (KI) veröffentlicht.
Welche Anforderungen gelten für MDSW gemäss KI-Gesetz?
Die Anforderungen an KI-gestützte MDSW gemäss KI-Gesetz hängen von der Einstufung der spezifischen KI-Algorithmen ab:
- “Hochrisiko”-KI-System (gilt als Hochrisiko-MDAI in MDCG 2025-6),
- “nicht Hochrisiko”-KI-System (gilt als MDAI in MDCG 2025-6),
- Allzweck-KI mit “systemischem Risiko”,
- Allzweck-KI “ohne systemisches Risiko”.
Anbieter von Hochrisiko-KI-Systemen müssen unter Berücksichtigung der Zweckbestimmung und des allgemein anerkannten Stands der Technik folgende Anforderungen erfüllen:
- Risikomanagementsystem [Art. 9]
- Daten und Daten-Governance [Art. 10]
- Technische Dokumentation [Art. 11]
- Aufzeichnungspflichten [Art. 12]
- Transparenz und Bereitstellung von Informationen für die Betreiber [Art. 13]
- Menschliche Aufsicht [Art. 14]
- Genauigkeit, Robustheit und Cybersicherheit [Art. 15]
- Qualitätsmanagementsystem [Art. 17]
- Aufbewahrung der Dokumentation. Dokumentation der CE-Kennzeichnung [Art. 18] und automatisch erstellte Protokolle [Art. 19]
- Korrekturmassnahmen und Informationspflicht [Art. 20]
- Zusammenarbeit mit den zuständigen Behörden [Art. 21]
- Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme [Art. 27]
- Konformitätsbewertung [Art. 43]. Der Weg der Konformitätsbewertung basiert auf:
- entweder interne Kontrollen (d.h. Selbstdeklaration) für Hochrisiko-MDAI, die gemäss EU-MDR/IVDR nicht der Aufsicht einer Benannten Stelle unterliegen und die den Hochrisiko-KI-Systemen in Anhang III des KI-Gesetzes entsprechen,
- oder Zertifizierung durch eine Benannte Stelle für Hochrisiko-MDAI, die bereits der Aufsicht durch eine Benannte Stelle nach der EU-MDR/IVDR unterliegen. Die Benannte Stelle führt die Zertifizierung gemäss EU-MDR oder IVDR durch, wobei sie zusätzliche Anforderungen aus dem KI-Gesetz übernimmt, nämlich: Punkte 4.3, 4.4, 4.5 und Punkt 4.6 Absatz 5 des Anhangs VII sowie Abschnitt 2, Kapitel III.
- Für Hochrisiko-MDAI in Anhang III, die nicht der Aufsicht durch eine Benannte Stelle unterliegen: Registrierung in der in Kapitel VIII beschriebenen EU-Datenbank [Art. 49 Abs. 1]
- PMS-Überwachung [Art. 72]
- Meldung schwerwiegender Vorkommnisse [Art. 73]. Im Falle von MDAI betrifft dies nur den Verstoss gegen die EU-Rechtsvorschriften zum Schutz der Grundrechte [Art. 3 Abs. 49 lit. c].
Gemäss Artikel 8 Absatz 2 des AI-Gesetzes und MDCG 2025-6, können MDAI-Hersteller die erforderlichen Prozesse, Informationen und Unterlagen, die sie in Bezug auf ihre MDAI bereitstellen, in die technische Dokumentation und die QMS-Verfahren integrieren, die sie bereits im Rahmen der EU-MDR/IVDR für eine einzige Konformitätsbewertung eingeführt haben.
Die spezifischen Anforderungen der KI-Gesetzgebung können die gemeinsame Konformitätsbewertung verkomplizieren.
MDAI-Hersteller müssen eine Lückenanalyse der zusätzlich benötigten Elemente durchführen und feststellen, ob es sinnvoll ist, die Konformitätsnachweise in einer einzigen technischen Dokumentation zusammenzufassen.

Es wird erwartet, dass viele der Anforderungen zusammen mit den Anforderungen für die CE-Kennzeichnung von MDSW gemäss EU-MDR oder IVDR erfüllt werden.
Für Anbieter von KI-Systemen, die kein hohes Risiko bergen, gelten deutlich geringere Anforderungen:
- Sie müssen sicherstellen, dass das KI-System vertrauenswürdig ist, indem sie eigene freiwillige Verhaltenskodizes entwickeln oder sich an die von anderen repräsentativen Verbänden verabschiedeten Verhaltenskodizes halten.
- Transparenzpflichten für KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind [Art. 50].
- Eintragung in die in Kapitel VIII beschriebene EU-Datenbank [Art. 49 Abs. 2].
Anbieter von Allzweck-KI mit systemischem Risiko müssen die folgenden Verpflichtungen erfüllen:
- Erstellung und Pflege einer technischen Dokumentation gemäss Anhang XI, die dem EU KI-Büro und den nationalen zuständigen Behörden zur Verfügung gestellt werden muss [Art. 53 Abs. 1 lit. a].
- Offenlegung der Dokumentation für Anbieter von KI-Systemen, die die Allzweck-KI integrieren [Art. 53 Abs. 1 lit. b].
- Festlegung einer Politik zur Einhaltung des Unionsrechts im Bereich des Urheberrechts und der verwandten Schutzrechte [Art. 53 Abs. 1 lit. c].
- Zusammenstellung und Veröffentlichung einer hinreichend detaillierten Zusammenfassung der für das Training der Allzweck-KI verwendeten Inhalte [Art. 53 Abs. 1 lit. d]. Das EU KI-Büro stellt eine Vorlage für diese Zusammenfassung zur Verfügung.
- Durchführung der Modellbewertung, einschliesslich kontradiktorischer Tests [Art. 55 Abs. 1 lit. a].
- Bewertung und Abschwächung möglicher systemischer Risiken [Art. 55 Abs. 1 lit. b].
- Verfolgung, Dokumentation und Meldung schwerwiegender Vorkommnisse und möglicher Abhilfemassnahmen an das KI-Büro und die zuständigen nationalen Behörden [Art. 55 Abs. 1 lit. c].
- Gewährleistung eines angemessenen Schutzes der Cybersicherheit [Art. 55 Abs. 1 lit. d].
Und Anbieter von Allzweck-KI “ohne systemisches Risiko” unterliegen den folgenden Anforderungen:
- Erstellung und Pflege einer technischen Dokumentation gemäss Anhang XI, die dem EU KI- Büro und den nationalen zuständigen Behörden zur Verfügung zu stellen ist [Art. 53 Abs. 1 lit. a].
- Offenlegung der Dokumentation für Anbieter von KI-Systemen mit integrierter Allzweck-KI [Art. 53 Abs. 1 lit. b].
- Festlegung von Richtlinien zur Einhaltung des Unionsrechts im Bereich Urheberrecht und verwandte Schutzrechte [Art. 53 Abs. 1 lit. c].
- Zusammenstellung und Veröffentlichung einer hinreichend detaillierten Zusammenfassung der Inhalte, die für die Schulung der Allzweck-KI verwendet wurden. Das EU KI-Büro hat eine Vorlage für diese Zusammenfassung veröffentlicht.
Für „Legacy-GPAIMs”, d.h. solche, die vor dem 2. August 2025 in Verkehr gebracht wurden, haben die Anbieter bis zum 2. August 2027 Zeit, um die Anforderungen zu erfüllen. In solchen Fällen ist eine Umschulung nicht erforderlich, wenn dies nicht möglich ist oder wenn Informationen nicht verfügbar sind oder wenn es einen unverhältnismässigen Aufwand erfordert, sofern dies in der technischen Dokumentation angegeben ist.
Die EU-Kommission hat klargestellt, dass der Lebenszyklus eines GPAIM mit dem Start des umfangreichen Vorabtrainings beginnt und jede nachfolgende Weiterentwicklung (z.B. Destillation, Quantisierung, Zusammenführung von Modellgewichten) durch oder im Auftrag des Anbieters als Teil des Lebenszyklus desselben Modells betrachtet wird und kein neues Modell darstellt.
Die Einhaltung der in Artikel 56 beschriebenen Praxisregeln für Anbieter von Allzweck-KI liefert den Nachweis der Konformität mit den oben genannten Anforderungen, bis eine harmonisierte Norm veröffentlicht wird.
Wie sollen MDSW-Hersteller die Auswirkungen des KI-Gesetzes ermitteln?
Hersteller von MDSW müssen folgendes tun:
- Prüfen, ob die Anwendbarkeit des KI-Gesetzes auf ihre MDSW gegeben ist, d.h. prüfen, ob die MDSW unter die Definition von KI-Systemen oder Allzweck-KI fällt. Dabei muss auch berücksichtigt werden, dass MDSW im Anwendungsbereich für militärische, verteidigungspolitische und nationale Sicherheitszwecke vom KI-Gesetz ausgeschlossen ist. Der Ausschluss des Anwendungsbereichs für reine Forschungsprodukte macht für MDSW keinen Sinn, da die Software auch nicht als Medizinprodukt gelten würde.
Die Prüfung der Anwendbarkeit des KI-Gesetzes ist nicht immer einfach, z.B. wenn Software unbekannter Herkunft in der MDSW integriert ist und der Hersteller nicht alle Details über die Algorithmen hinter der Software unbekannter Herkunft kennt. - Eine Bewertung der KI-gestützten MDSW durchführen und diese Bewertung dokumentieren, um die Anwendung einer verbotenen Praktik auszuschliessen.
Fällt die MDSW unter das KI-Gesetz, so muss eine Einstufung gemacht werden. Im Falle eines KI-Systems als “hochriskant” oder “nicht hochriskant” gemäss Art. 6 Abs. 1 oder 2, und im Falle eines Allzweck-KI in der MDSW als “mit systemischem Risiko” oder “ohne systemischem Risiko” gemäss Art. 51 Abs. 1.
Das nachstehende Flussdiagramm veranschaulicht den Prozess der Folgenabschätzung.
Wann muss ein Hersteller von KI-gestützter MDSW tätig werden?
Das KI-Gesetz gilt ab dem 2. August 2026. Es gelten jedoch folgende Ausnahmen:
- Ab 2. Februar 2025 gelten die allgemeinen Bestimmungen [Kapitel I] und das Verbot von KI-Systemen, die unannehmbare Risiken darstellen [Kapitel II].
- Ab dem 2. August 2025 gelten die Aspekte in Bezug auf die benennenden Behörden und Benannten Stellen für Hochrisiko-KI-Systeme [Kapitel III, Abschnitt 4], die Verpflichtungen für Allzweck-KI [Kapitel V], Governance-Aspekte [Kapitel VII], Vertraulichkeit [Art. 78] und Sanktionen [Kapitel XII], mit Ausnahme der Geldbussen für Allzweck-KI-Anbieter [Art. 101].
- Ab dem 2. August 2027 gelten die Verpflichtungen in Bezug auf Hochrisiko-KI-Systeme, die neu auf den Markt gebracht werden, mit Ausnahme derjenigen, die die benennenden Behörden und Benannten Stellen betreffen [Kapitel III, Abschnitt 4].
Gemäss KI-Gesetz Art. 111 gelten für bereits in Verkehr gebrachte KI-Systeme und Allzweck-KI einige Ausnahmen und zusätzliche Fristen:
- Für KI-Systeme, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen werden, gilt das KI-Gesetz für die betroffenen Betreiber nur, wenn sie nach diesem Datum wesentliche Designänderungen an der Software vornehmen. Nun, da das KI-Gesetz Art. 6 (hier wird der Begriff “Hochrisiko-KI-System” definiert) erst am 2. August 2027 in Kraft treten wird, ist der Stichtag für Hochrisiko-MDAI der 2. August 2027.
Bis die Leitfäden der EU Kommission zu wesentlichen Designänderungen gemäss KI-Gesetz erscheinen, könnten die Leitfäden MDCG 2020-3 für Medizinprodukte und MDCG 2022-6 für IVD als Leitprinzipien herangezogen werden. Beachten Sie, dass diese Ausnahmeregelung dazu führen könnte, dass alte KI-gestützte MDSW nie der CE-Kennzeichnung gemäss KI-Gesetz unterliegt.
- Wenn das Hochrisiko-KI-System von Behörden verwendet werden soll, müssen die Anbieter das KI-Gesetz bis zum 2. August 2030 einhalten, unabhängig davon, ob wesentliche Änderungen am Design des KI-Systems vorgenommen werden oder nicht.
- Anbieter von Allzweck-KI, die vor dem 2. August 2025 in Verkehr gebracht wurden, müssen das KI-Gesetz bis zum 2. August 2027 einhalten.
Kurz gesagt wird das KI-Gesetz schrittweise angewandt, wobei die Fristen vor und nach dem eigentlichen Anwendungsdatum gestaffelt sind, wie in der folgenden Infografik dargestellt.

Die Ausnahme von der Anwendbarkeit für “legacy” KI-Systeme könnte dazu führen, dass alte KI-gestützte MDSW nie der CE-Kennzeichnung gemäss EU-KI-Gesetz unterliegt.
Zusätzlich zu der im vorherigen Kapitel beschriebenen Folgenabschätzung (siehe Wie sollen MDSW-Hersteller die Auswirkungen des KI-Gesetzes ermitteln?), mit besonderem Schwerpunkt auf der Identifizierung verbotener KI-Praktiken, die bis zum 2. Februar 2025 eingestellt werden mussten, sollten Hersteller von KI-gestützter MDSW bereits jetzt damit beginnen, sich zumindest auf die folgenden Aspekte vorzubereiten:
KI-Kompetenz
Anbieter von KI-gestützter MDSW sowie Anwender (d.h. KI-Anwender im Rahmen einer beruflichen Tätigkeit) sind verpflichtet, ein ausreichendes Mass an “KI-Kompetenz” für ihr eigenes Personal sowie für Dritte sicherzustellen , die die KI-Systeme in ihrem Auftrag betreiben und nutzen [Art. 4].
Das KI-Gesetz definiert “KI-Kompetenz” als die Fähigkeiten, das Wissen und das Verständnis, die einen informierten Einsatz von KI-Systemen ermöglichen, sowie ein Bewusstsein für die Chancen und Risiken von KI und mögliche Schäden, die sie verursachen kann [Art. 3 Abs. 56]. Obwohl es diesbezüglich keine spezifischen Kriterien gibt, könnte KI-Kompetenz auf verschiedenen Ebenen innerhalb der Organisation verlangt werden, je nachdem, wie viele Mitarbeitende am KI-Einsatz beteiligt sind und wie die Chancen und Risiken eingeschätzt werden.
Daher mussten MDAI-Hersteller bis zum 2. Februar 2025 Massnahmen ergreifen, um zu bestimmen, welche Stellen im Betrieb KI-Kompetenz erfordern, und die betreffenden Personen schulen oder neu einstellen.
Die nationalen Marktaufsichtsbehörden werden ab dem 2. August 2026 mit der Überwachung und Durchsetzung der Vorschriften beginnen.
Die EU-Kommission hat eine Webseite mit Q&A zu KI-Kompetenzen zur Verfügung gestellt. Sie ist leider nicht besonders aussagekräftig, da es keine rechtliche Verpflichtung gibt, die einen bestimmten Ansatz für den Erwerb von KI-Kompetenzen oder die Zertifizierung von Schulungen vorschreibt.
In gewissem Zusammenhang steht das KI-Gesetz Artikel 26, der für Betreiber von Hochrisiko-KI-Systemen gilt. Sie müssen sicherstellen, dass ihr Personal ausreichend auf den Umgang mit KI-Systemen geschult und dass die menschliche Aufsicht gewährleistet ist. Dieser Artikel wird jedoch erst ab dem 2. August 2026 gelten.
Benannte Stelle für neue oder wesentlich veränderte Hochrisiko-KI-Systeme
Die Zeit bis zum August 2027 scheint zwar ausreichend für die Vorbereitung für eine Zertifizierung gemäss KI-Gesetz, aber Hersteller von Hochrisiko-MDAI sollten sich sofort auf den Weg machen, um herauszufinden, ob ihre Benannte Stelle die Benennung gemäss KI-Gesetz bereits vorbereitet oder plant. Sollte dies nicht der Fall sein, muss ein Wechsel der Benannten Stelle ins Auge gefasst werden. Da es zu Engpässen bei der Verfügbarkeit von Benannten Stellen mit doppelter Benennung (EU-MDR/IVDR und KI-Gesetz) kommen dürfte, könnten Hersteller von Hochrisiko-MDAI gezwungen sein, separate Benannte Stellen einzuschalten.
Das Team-NB hat bereits in seinem Position Paper on AI designation angedeutet, dass es Herausforderungen in Bezug auf seine Kapazitäten voraussieht.
Anpassung der QMS-Prozesse in Anbetracht der MDCG 2025-6 zu MDAI
Einige der Prozesse, die für MDSW-Hersteller gemäss EU-MDR/IVDR erforderlich sind, überschneiden sich mit denen, die für Hersteller von Hochrisiko-KI-Systemen gemäss KI-Gesetz erforderlich sind. Minimale Anpassungen des Qualitätsmanagementsystems (QMS) sind erforderlich, um den Anwendungsbereich auch auf das KI-Gesetz auszudehnen und alle relevanten harmonisierten Normen zu berücksichtigen, die in Zukunft veröffentlicht werden könnten. Dies gilt in der Regel für das Risikomanagement, die Kennzeichnung (insbesondere die Gebrauchsanweisung), die technische Dokumentation, die Überwachung nach dem Inverkehrbringen und die Vigilanz-Berichterstattung.
Die Grundsätze des Risikomanagements sind dieselben, aber die Arten von Risiken, die nach dem KI-Gesetz zu berücksichtigen sind, müssen neben den KI-spezifischen Risiken wie Verzerrungen, Robustheit und Cybersicherheit (auch auf der Ebene der Datensätze) auch die Grundrechte umfassen. In einer interessanten regulatorischen Wendung wird die menschliche Aufsicht (eine spezifische Anforderung des KI-Gesetzes) nun zu einem nützlichen risikomindernden Faktor für Hochrisiko-MDAI, wie MDCG 2025-6 anerkannt.
Umgekehrt müssen zusätzliche Anforderungen wie Kompetenzen, Daten-Governance, Protokollierung (für die Rückverfolgbarkeit der Leistung in der Nachbereitungsphase), Transparenz, Erklärbarkeit, menschliche Aufsicht und vorab bestimmte Änderungen (für Hochrisiko-KI-Systeme, die in der Nachbereitungsphase weiterlernen) im QMS von Herstellern von Hochrisiko-MDAI neu berücksichtigt werden.
Daten-Governance ist eindeutig das kritischste Thema für KI-Systeme, da schlechte Trainings-, Validierungs- oder Testdatensätze kein geeignetes KI-Modell ergeben. Hersteller von Hochrisiko-MDAI müssen in der Lage sein, nachzuweisen, dass die Datensätze für die Zweckbestimmung relevant, ausreichend repräsentativ und so fehlerfrei und vollständig wie möglich sind. Der Mangel an qualitativ hochwertigen Datenquellen macht die Einhaltung der Vorschriften derzeit zur Herausforderung, selbst für Benannte Stellen, die die Datensätze überprüfen müssen. Dies wird im Positionspapier von Team-NB zum KI-Gesetz (v.2) deutlich gemacht. In der MDCG 2025-6 wird darauf hingewiesen, dass die Einhaltung der Daten-Governance durch eine Zertifizierung durch Dritte nachgewiesen werden kann, was letztlich zur Pflicht werden könnte. Neben den bevorstehenden harmonisierten Normen zu diesem Thema wird die EU-Kommission Leitfäden zu Daten und Daten-Governance für Hochrisiko-KI-Systeme herausgeben.
Schliesslich unterliegen klinische Studien/Leistungsstudien weiterhin den EU-MDR/IVDR-Anforderungen. Selbst wenn sie “Praxistests” für Hochrisiko-MDAI entsprechen würden, stellt die MDCG 2025-6 klar, dass solche Tests zulässig sind, wenn sie gemäss den Anforderungen der EU-MDR oder IVDR durchgeführt werden.
Decomplix’ Empfehlungen für Hochrisiko-MDAI bis zum Inkrafttreten des KI-Gesetzes
In Anbetracht der rechtlichen Unklarheiten im KI-Gesetz ist es momentan erforderlich, sich mit den (wenn auch ungenauen) Leitfäden der EU Kommission, den verschiedenen Best Practices und Empfehlungen von Berufsverbänden und Experten vertraut zu machen. Ebenso gibt es einen zunehmenden Bestand an internationalen Normen, die sich zwar nicht spezifisch auf KI-gestützte MDSW beziehen, die aber für KI allgemein relevant sind, sowie EU-Initiativen für KI-gestützte MDSW (z.B. EU-Netzwerk von realen Testeinrichtungen TEF-Health).
Leider hilft der lang erwartete Leitfaden MDCG 2025-6 über das Zusammenspiel zwischen EU-MDR/IVDR und KI-Gesetz den Herstellern von Hochrisiko-MDAI zum jetzigen kritischen Zeitpunkt nicht wirklich weiter, wenn es um die korrekte Planung der Vorbereitung einer Zertifizierung gemäss KI-Gesetz geht. Es gibt auch keinen Hinweis auf den Zeitpunkt, ab dem MDCG 2025-6 gelten soll.
Da der Zertifizierungsprozess voraussichtlich einige Zeit in Anspruch nehmen wird, ist es besser, wenn Hersteller die MDCG 2025-6 früher einhalten. Auch in Anbetracht eines Team-NB-Positionspapiers zu den MDCG-Leitfäden, wurde vorgeschlagen, dass die Einführung solcher Leitfäden in das QMS der Benannten Stelle innerhalb von 12 Monaten nach dem Veröffentlichungsdatum erfolgen soll, was Juni 2026 bedeuten würde.
Trotz ihrer Unzulänglichkeiten bleibt die MDCG 2025-6 vorerst der Eckpfeiler. Siehe unsere Zusammenfassung unter: Anpassung der QMS-Prozesse in Anbetracht der MDCG 2025-6 zu MDAI.
Decomplix empfiehlt, als erstes Kapitel III, Abschnitt 2 des KI-Gesetzes zu lesen und zu verstehen. Es legt einige allgemeine Grundlagen für Hochrisiko-KI-Systeme fest (z.B. zu Daten-Governance, zu Genauigkeit, Robustheit und Cybersicherheit sowie zum Testen von Hochrisiko-KI-Systemen unter realen Bedingungen), die von den Herstellern bereits in ihren Entwicklungsprozess für KI-gestützte MDSW einbezogen werden können.
Darüber hinaus sollte bei der Extrapolation der bestehenden Leitfäden für MDSW, z.B. MDCG 2020-1 zur klinischen Leistung bzw. Leistungsbewertung von MDSW und MDCG 2019-16 zur Cybersicherheit, auf der Grundlage der Leitprinzipien der MDCG 2025-6 der gesunde Menschenverstand walten.
Zum jetzigen Zeitpunkt ist unklar, inwieweit die Praktiken und Erwartungen der einzelnen Benannten Stellen mit dem Team-NB-Fragebogen zu KI in Medizinprodukten übereinstimmen werden. Dieser geht zwar detailliert auf die Erwartungen in Bezug auf EU-MDR/IVDR ein, aber nicht in Bezug auf das KI-Gesetz. Dennoch empfehlen wir unseren Kunden, diesen Fragebogen in eine Checkliste für regulatorische Vorgaben umzuwandeln, die Elemente zu identifizieren, die sinnvoll sind, und die wichtigsten Aspekte zu priorisieren, wofür ihre Hochrisiko-MDAI Nachweise benötigen.
In jedem Fall sollten Hersteller von Hochrisiko-MDAI bereits Massnahmen ergreifen.
Wie Decomplix helfen kann
Decomplix bietet Ihnen eine fachkundige regulatorische und klinische Bewertung Ihrer Situation, die Qualifizierung und Klassifizierung Ihrer MDSW sowohl nach dem KI-Gesetz der EU als auch nach der EU-MDR oder IVDR sowie einen vollständigen Fahrplan zur Erlangung einer CE-Kennzeichnung für Ihre KI-gestützte MDSW.
Mehr über unsere Dienstleistungen erfahren Sie hier.
Weitere Lektüre
- 7 Fragen an den CEO von Evidencio, Rob Mentink, zu ihrer Plattform für medizinische Algorithmen
- Medizinproduktesoftware (MDSW) gemäss EU-MDR und IVDR
- “Wesentliche Änderungen” bei Medizinprodukten und IVDs gemäss EU-MDR/IVDR
- Harmonisierte Normen für Medizinprodukte und IVDs verstehen
Dieser Artikel wurde mit Informationen aus dem Leitliniendokument MDCG 2025-6, den verschiedenen Leitfäden der EU-Kommission zu verbotenen KI-Praktiken, Definitionen von KI-Systemen und den GPAIM-Verpflichtungen aktualisiert, unter Berücksichtigung des Fragebogens von Team-NB zu KI für Medizinprodukte sowie der aktualisierten Version des Positionspapiers von Team-NB zum AI Act.
Wie hilfreich war dieser Beitrag?
Bitte bewerten Sie:


