Einführung in den AI Act für Hersteller von Medizinprodukten

Der AI Act wird weitreichende Auswirkungen sowohl auf die aktuelle als auch auf die zukünftige Entwicklung von Software haben – insbesondere im medizinischen Bereich, wo KI einer der Haupttreiber für Innovationen ist.
Der AI Act ist ein umfassendes, horizontales, also mehrere Branchen betreffendes EU-Rechtsrahmenwerk, das alle Aspekte der Entwicklung und Nutzung von Künstlicher Intelligenz (KI) regeln soll. Unternehmen, die Medizinprodukte und Software entwickeln, müssen sich mit den neuen Vorschriften vertraut machen, um Verzögerungen und zusätzliche Kosten zu vermeiden.
Mehr Regulierung für zusätzliche Sicherheit
Der AI Act ist eine zusätzliche Verordnung zu den bereits strengen Anforderungen der MDR. Während die MDR sich auf die physische Sicherheit und das Wohl der Patienten und Nutzer konzentriert, bringen KI und maschinelles Lernen neue Bedenken auf den Tisch. Der AI Act befasst sich mit diesen Themen, insbesondere mit ethischen Fragen und gesellschaftlichen Risiken, wie Bedrohungen für die Grundrechte, und fügt somit eine zusätzliche Sicherheitsebene hinzu.
Ähnlich wie die MDR ist auch der AI Act in risikobasierte Kategorien unterteilt:
Verbotene KI: Anwendungen, die als unzumutbares Risiko für Recht und Freiheit gelten, wie Social Scorings, Manipulation oder Überwachung im öffentlichen Raum, sind bereits ab Februar 2025 verboten.
Hochrisiko-KI-Systeme mit erheblichen Sicherheits- oder grundrechtsbezogenen Risiken, in Bereichen wie Gesundheit, Bildung und Strafverfolgung. KI-unterstützte Medizinprodukte fallen aufgrund ihres potenziellen direkten Einflusses auf die menschliche Gesundheit häufig in diese Kategorie.
Begrenztes Risiko KI-Systeme, die weniger Risiken bergen, aber dennoch Transparenz und Aufsicht erfordern, wie z.B. Chatbots, die Ernährungsberatung anbieten.
Minimales Risiko KI-Systeme mit vernachlässigbarer Auswirkung, wie Spamfilter, die weitgehend unreguliert bleiben.

Die MDR klassifiziert Medizinprodukte bekanntermaßen in Risikoklassen (Klasse I bis Klasse III) basierend auf ihrem Verwendungszweck und dem potenziellen Einfluss auf die Gesundheit der Patienten. So kann es sein, dass ein Medizinprodukt trotz direktem Kontakt mit dem Patienten nur als Klasse I eingestuft wird – ein KI-gestütztes Diagnosewerkzeug jedoch aufgrund seiner Komplexität und der Konsequenzen seiner Leistung in eine höhere Klasse (IIa oder IIb) fällt.
Trotz unklarer Richtlinien frühzeitig handeln

Da der AI Act im August 2024 in Kraft trat, müssen sich die Hersteller nun auf seine Umsetzung vorbereiten und frühzeitig die notwendigen Maßnahmen einleiten. Eine besondere Unsicherheit besteht darin, dass die EU-Kommission ihre verpflichtenden Richtlinien erst im 4. Quartal 2025 veröffentlichen wird, was im Vergleich zur Frist für die vollständige Einhaltung im August 2026 relativ spät ist.
Es ist daher ratsam, schon jetzt darüber nachzudenken:
- wie Daten genutzt werden,
- wie KI-Systeme trainiert werden,
- wie dies dokumentiert werden sollte.
Als Beispiel: Hersteller, die ihre Hochrisiko-KI-Systeme in zwei Jahren zulassen möchten, müssen jetzt sicherstellen, dass die verwendeten Datensätze den zukünftigen Anforderungen entsprechen. Andernfalls besteht das Risiko von Nichtkonformitäten, die zu erheblichen Verzögerungen führen könnten.
Da wir bei Corscience schon immer großen Wert auf Sicherheit und die Gesundheit der Patienten und Anwender legen, haben wir in den letzten Jahren begonnen, Künstliche Intelligenz in vielen Bereichen unseres Unternehmens (Softwareentwicklung, automatisiertes Testen, KI-gestützter Post-Market-Support) zu implementieren und zur Verbesserung unserer Systeme zu nutzen. Dies empfehlen wir auch allen unseren Kunden und Herstellern. Um die regulatorische Umsetzung in Ihrem Unternehmen zu erleichtern, geben wir im nächsten Teil von „AI Act – Insights“ Tipps, wie Sie sich auf die nächsten Schritte vorbereiten können.