Eine Juristische Perspektive auf die Neue Verordnung zur Künstlichen Intelligenz

Eine Juristische Perspektive auf die Neue Verordnung zur Künstlichen Intelligenz

4. Juni 2024-

© Ivan Marc / shutterstock.com


Am 21. Mai 2024 wurde der AI Act vom Rat der Europäischen Union verabschiedet, eine bahnbrechende Regulierung, die die Nutzung und den Einsatz von Künstlicher Intelligenz (KI) in der Europäischen Union umfassend regelt.

Definition von Künstlicher Intelligenz gemäß dem AI Act

Der AI Act definiert KI-Systeme in Artikel 3 als Software, die unter Anwendung einer oder mehrerer der folgenden Techniken entwickelt wurde und in der Lage ist, aus Daten und Informationen bestimmte Aufgaben zu erfüllen:

  • Maschinelles Lernen: einschließlich überwachten, unüberwachten und bestärkenden Lernens sowie Methoden des tiefen Lernens.
  • Logik- und wissensbasierte Ansätze: wie wissensbasierte Systeme, Inferenz- und Entscheidungslogik.
  • Statistik: und andere mathematische Ansätze.

Diese Definition stellt sicher, dass eine breite Palette von Technologien und Anwendungen abgedeckt wird, was die Notwendigkeit unterstreicht, dass Unternehmen sich bewusst mit den Spezifikationen und Anforderungen des AI Act auseinandersetzen.

Anwendungsbereich des AI Act

Der AI Act gilt gemäß Artikel 2 für:

  • Anbieter von KI-Systemen innerhalb der EU.
  • Nutzer von KI-Systemen innerhalb der EU.
  • Anbieter aus Drittstaaten, die KI-Systeme auf dem europäischen Markt anbieten oder deren Nutzung in der EU überwachen.

Ziel ist es, nicht nur den Binnenmarkt zu regulieren, sondern auch sicherzustellen, dass international agierende Unternehmen, die in der EU tätig sind, die gleichen hohen Standards einhalten.

Klassifizierung und Risikobewertung von KI-Systemen

Der AI Act teilt KI-Systeme in vier Risikokategorien ein, die in den Artikeln 5 bis 7 behandelt werden:

1.) Unvertretbare Risiken (Verbotene KI): Diese KI-Systeme stellen ein erhebliches Risiko für die Sicherheit und Grundrechte der Menschen dar und sind daher verboten. Beispiele umfassen:

  • Echtzeit-Remote-Biometrische Identifizierung im öffentlichen Raum durch Strafverfolgungsbehörden (außer in Ausnahmefällen, Artikel 5).
  • Manipulative Techniken, die Menschen unbewusst beeinflussen (Artikel 5).
  • Sozialbewertungssysteme durch staatliche Akteure (Artikel 5).

2.) Hochrisiko-KI-Systeme: Diese unterliegen strengen Anforderungen, einschließlich Konformitätsbewertungen und kontinuierlicher Überwachung. Beispiele sind:

  • KI-Systeme,  die für die Erkennung von Emotionen eingesetzt werden sollen (Artikel 6, Anhang III).
  • Algorithmen zur Kreditbewertung (Artikel 6, Anhang III).
  • KI-Anwendungen zur Personalauswahl (Artikel 6, Anhang III).

3.) Begrenzte Risiken: Diese Systeme müssen spezifische Transparenzanforderungen erfüllen, wie die Offenlegung, dass eine Interaktion mit einem KI-System stattfindet und dient der Interaktion mit natürlichen Personen.

4.) Minimale Risiken: Diese Systeme unterliegen den allgemeinen Anforderungen des AI Act und haben keine zusätzlichen Verpflichtungen.

Beispiele aus der Praxis und Potenzielle Herausforderungen für Unternehmen

Gesundheitswesen: KI-Systeme zur Diagnose und Behandlung von Krankheiten müssen hohen Sicherheits- und Zuverlässigkeitsstandards entsprechen. Diese Systeme werden streng überwacht, um sicherzustellen, dass sie keine fehlerhaften Diagnosen stellen, die Patienten gefährden könnten.

  • Herausforderungen: Die Implementierung dieser Systeme erfordert erhebliche Investitionen in Forschung und Entwicklung sowie die Sicherstellung der Datenqualität und -integrität. Zudem müssen Unternehmen sicherstellen, dass ihre Systeme den strengen Sicherheits- und Datenschutzanforderungen entsprechen.

Finanzwesen: Algorithmen, die zur Bewertung der Kreditwürdigkeit von Personen eingesetzt werden, müssen sicherstellen, dass sie keine diskriminierenden Praktiken anwenden. Diese Systeme müssen transparent sein, und die Entscheidungen müssen nachvollziehbar erklärt werden können.

  • Herausforderungen: Finanzinstitutionen müssen komplexe Modelle entwickeln, die Transparenz und Fairness gewährleisten. Zudem erfordert die Einhaltung der Vorschriften eine umfassende Dokumentation und regelmäßige Audits der verwendeten Algorithmen.

Personalwesen: KI-Anwendungen zur Auswahl und Bewertung von Bewerbern müssen sicherstellen, dass sie fair und unvoreingenommen sind. Unternehmen müssen nachweisen, dass ihre Systeme keine Diskriminierung aufgrund von Geschlecht, Herkunft oder anderen persönlichen Merkmalen verursachen.

  • Herausforderungen: Unternehmen müssen sicherstellen, dass ihre KI-Systeme auf repräsentativen und ausgewogenen Datensätzen trainiert werden. Die Entwicklung solcher Systeme erfordert eine sorgfältige Überprüfung und Anpassung der Algorithmen, um Vorurteile zu vermeiden.

E-Commerce: Empfehlungssysteme, die personalisierte Produktempfehlungen basierend auf Nutzerverhalten geben, fallen unter begrenzte Risiken und müssen spezifische Transparenzanforderungen erfüllen.

  • Herausforderungen: E-Commerce-Unternehmen müssen sicherstellen, dass ihre Systeme nicht diskriminierend sind und den Nutzern klar kommunizieren, dass sie von einem KI-System bedient werden. Die Balance zwischen personalisierten Empfehlungen und dem Schutz der Privatsphäre der Nutzer ist eine ständige Herausforderung.
Verbotene Praktiken

Der AI Act verbietet in Artikel 5 bestimmte Praktiken, die als unverhältnismäßige Risiken für die Sicherheit und die Grundrechte der Menschen angesehen werden. Dazu gehören:

  • Echtzeit-Remote-Biometrische Identifizierung im öffentlichen Raum durch Strafverfolgungsbehörden, außer in Ausnahmefällen.
  • Manipulative Techniken, die Menschen in ihrem Verhalten erheblich beeinträchtigen, beispielsweise durch subliminale Techniken, die unbewusste Reaktionen hervorrufen.
  • Sozialbewertungssysteme, bei denen das Verhalten oder die persönlichen Merkmale von Menschen über einen längeren Zeitraum bewertet und dafür Sanktionen oder Belohnungen ausgesprochen werden.
Handlungsempfehlungen für Unternehmen

1.) Risikobewertung durchführen: Unternehmen sollten eine gründliche Bewertung ihrer KI-Systeme vornehmen, um deren Risikokategorie zu bestimmen. Dies ist der erste Schritt, um die notwendigen Maßnahmen zur Einhaltung der Vorschriften des AI Act zu ergreifen.

2.) Transparenz und Erklärbarkeit sicherstellen: Es ist wichtig, dass die Funktionsweise der KI-Systeme transparent und nachvollziehbar ist. Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren. Die Entscheidungsprozesse sollten nachvollziehbar und erklärbar sein, um das Vertrauen der Nutzer zu gewinnen.

3.) Datenschutz gewährleisten:  Unternehmen müssen sicherstellen, dass alle datenschutzrechtlichen Bestimmungen eingehalten werden, insbesondere im Umgang mit sensiblen Daten. Dies umfasst die Einhaltung der Datenschutz-Grundverordnung (DSGVO) sowie spezifischer Anforderungen des AI Act (Artikel 10). Lesen Sie auch unter folgendem Link den Artikel: Der Einsatz von künstlicher Intelligenz (KI) im Unternehmen und ihre Auswirkungen auf den Datenschutz

4.) Compliance-Management-System implementieren: Ein robustes System zur Einhaltung der Vorschriften des AI Act sollte implementiert werden. Dazu gehört die regelmäßige Schulung der Mitarbeiter, die Etablierung von internen Kontrollmechanismen und die Dokumentation aller Maßnahmen zur Einhaltung der Vorschriften.

5.) Konformitätsbewertung und Zertifizierung: Hochrisiko-KI-Systeme müssen einer strengen Konformitätsbewertung unterzogen werden. Unternehmen sollten sich auf Zertifizierungsprozesse vorbereiten und sicherstellen, dass ihre Systeme die erforderlichen Standards erfüllen.

Zusammenhang zu Aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz

Die Regulierung durch den AI Act steht im Einklang mit den globalen Entwicklungen und Diskussionen über die ethische und sichere Nutzung von KI. In den letzten Jahren haben verschiedene Skandale und Fehlanwendungen von KI-Systemen zu einem verstärkten Ruf nach Regulierung und Kontrolle geführt. Die EU positioniert sich mit dem AI Act als Vorreiter für eine verantwortungsvolle und menschenzentrierte KI-Entwicklung.

Aktuelle Entwicklungen wie die rasanten Fortschritte im Bereich des maschinellen Lernens und der tiefen neuronalen Netze erfordern eine ständige Anpassung der gesetzlichen Rahmenbedingungen, um mit den technischen Innovationen Schritt zu halten. Gleichzeitig steigt das Bewusstsein für die Notwendigkeit, ethische Grundsätze und Menschenrechte in den Mittelpunkt der KI-Entwicklung zu stellen.

Zusammenfassung

Der AI Act stellt eine umfassende Regulierung für den Einsatz von Künstlicher Intelligenz in der Europäischen Union dar. Er zielt darauf ab, die Sicherheit und Rechte der Menschen zu schützen, ohne die Innovation zu behindern.

Unternehmen sind gut beraten, sich frühzeitig mit den neuen Anforderungen auseinanderzusetzen und entsprechende Maßnahmen zu ergreifen, um die Einhaltung sicherzustellen.

Durch eine gründliche Risikobewertung, die Sicherstellung von Transparenz und Datenschutz sowie die Implementierung eines robusten Compliance-Management-Systems.

Ihr Ansprechpartner

Rechtsanwalt und Geschäftsführer Andreas Engler
info@hb-ecommerce.eu

Nach oben