Im vorherigen Beitrag haben wir uns mit den Pflichten befasst, die nach dem AI Act (KI-Verordnung) für die Betreiber von KI-Systemen gelten. In diesem Beitrag unserer Reihe nehmen wir nun die Pflichten für Anbieter solcher Systeme in den Blick. Damit der Blogbeitrag übersichtlich bleibt, behandeln wir in diesem nur KI-Systeme mit ihren unterschiedlichen Einstufungen. Die Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck behandeln wir in einem separaten Blogbeitrag. Wer ist Anbieter von KI-Systemen? Der Begriff „Anbieter“ ist in Art. 3 Ziffer 3 AI Act definiert und demnach „eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System […] entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich“. Betroffen sind also Eigenentwicklungen, die man selbst oder mit Hilfe von Dienstleistern umsetzt und die man entweder selbst nutzt oder Dritten im eigenen Namen zur Verfügung stellt (zum Beispiel als Software as a Service). In diesem Zusammenhang spielen insbesondere die „Inbetriebnahme“ und das „Inverkehrbringen“ der entsprechenden KI-Systeme eine zentrale Rolle. „Inverkehrbringen“ bedeutet nach Art. 3 Ziffer 9 „die erstmalige Bereitstellung eines KI-Systems […] auf dem Unionsmarkt“. „Inbetriebnahme“ bedeutet nach Art. 3 Ziffer 11 „die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung“. Sofern ein Anbieter sein eigenentwickeltes KI-System selbst nutzt, ist er zugleich auch Betreiber. Daneben gibt es auch noch den Begriff des „nachgelagerten Anbieters“. Hierbei handelt es sich nach Art. 3 Ziffer 68 AI Act um den „Anbieter eines KI-Systems, einschließlich eines KI-Systems mit allgemeinem Verwendungszweck, das ein KI-Modell integriert, unabhängig davon, ob das KI-Modell von ihm selbst bereitgestellt und vertikal integriert wird oder von einer anderen Einrichtung auf der Grundlage vertraglicher Beziehungen bereitgestellt wird“. Wer also ein KI-Modell, wie das LLM von OpenAI nutzt und dies in sein eigenes KI-System integriert, könnte hierdurch ebenfalls Anbieter eines KI-Systems werden. Es gibt weitere Spezialfälle, in denen Betreiber von Hochrisiko-KI-Systemen und sonstige Dritte nach Art. 25 AI Act zu Anbietern werden können. Hierzu muss man aber ein bestehendes Hochrisiko-KI-System eines Anbieters als das eigene ausgeben oder ein solches System bzw. seine Zweckbestimmung verändern. Ab wann gilt der AI Act für Anbieter von KI-Systemen grundsätzlich? Die Frage, ab wann der AI Act gilt, haben wir bereits im ersten Beitrag dieser Reihe zum AI Act beantwortet. Mit einigen Ausnahmen lässt sich der 2. August 2026 als der Zeitpunkt bezeichnen, an dem der AI Act seine volle Wirksamkeit entfaltet. Die Verbote im Hinblick auf bestimmte KI-Praktiken und neue Schulungspflichten gelten schon früher und Regelungen zur Produktsicherheit etwas später. Im Detail geregelt ist dies in Art. 113 AI Act. Welche Pflichten gelten für Anbieter von KI-Systemen? Um diese Frage zu beantworten kommt es darauf an, wie die KI-Systeme, um die es geht, einzustufen sind. Welche Unterscheidungen es im Rahmen der Einstufung von KI-Systemen gibt, haben wir in den vorherigen Blogbeiträgen schon kurz dargestellt. Zusammenfassend lassen sich folgende Kategorien von KI-Systemen unterscheiden: Allgemeine-KI-Systeme Hochrisiko-KI-Systeme Bestimmte KI-Systeme Die KI-Modelle und ihre Unterscheidungen in KI-Modelle mit allgemeinem Verwendungszweck ohne systemische Risiken KI-Modelle mit allgemeinem Verwendungszweck mit systemischen Risiken klammern wir für diesen Blogbeitrag erst einmal aus. Für jede Kategorie der unterschiedlichen KI-Systeme gelten unterschiedliche Pflichten, auf die wir im Folgenden näher eingehen werden. Dabei werden wir feststellen, dass für Anbieter weit mehr Pflichten als für Betreiber gelten. Pflichten der Anbieter von Allgemeinen-KI-Systemen Folgende Pflichten müssen Anbieter von Nicht-Hochrisiko-Systemen nach dem AI Act beachten: KI-Kompetenz nach Art. 4 AI Act Keine verbotenen KI-Praktiken (näheres hier) Dokumentationspflichten nach Art. 6 Abs. 4 AI Act in bestimmten Fällen: Wie bereits in einem der vorherigen Blogbeiträge beschrieben, können auch KI-Systeme, die eigentlich nach Anhang III des AI Act als Hochrisiko-KI-Systeme eingestuft werden müssen dennoch als Nicht-Hochrisiko-KI-System eingestuft werden. Diese abweichende Bewertung muss dann aber vom Anbieter nachvollziehbar dokumentiert werden. In diesem Fall gelten zusätzlich sogar noch weitere Registrierungspflichten nach Art. 49 Abs. 2 AI Act. Pflichten der Anbieter von Hochrisiko-KI-Systemen Sehr viel weiter gehen die Pflichten der Anbieter von Hochrisiko-KI-Systemen. Bevor wir uns hiermit im Detail befassen, möchten wir jedoch auf eine Besonderheit hinweisen. Denn zusätzlich zu den bereits dargestellten Zeitpunkten, zu denen der AI Act Wirksamkeit entfaltet (grundsätzlich zum 2. August 2026) finden sich in Art. 111 AI Act noch beachtliche Ausnahmen im Hinblick auf die Pflichten der Anbieter von Hochrisiko-KI-Systemen. So sind die Regelungen des AI Acts (mit Ausnahme der verbotenen KI-Praktiken) für viele Hochrisiko-KI-Systeme, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nicht anwendbar. Eine Anwendbarkeit des AI Acts ergibt sich somit grundsätzlich nur für Hochrisiko-KI-Systeme, die am oder nach dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen werden oder für KI-Systeme, die zwar schon vor dem 2. August 2026 bestanden aber danach in ihrer Konzeption erheblich verändert wurden. Den entsprechenden Erwägungsgründen 177 und 178 lässt sich entnehmen, dass diese Übergangsphase dazu dienen soll, Rechtssicherheit zu gewährleisten, einen angemessenen Anpassungszeitraum für die Akteure sicherzustellen und Marktstörungen zu vermeiden, unter anderem durch Gewährleistung der Kontinuität der Verwendung von KI-Systemen. Die Anbieter von Hochrisiko-KI-Systemen sollen jedoch ermutigt werden, auf freiwilliger Basis bereits während der Übergangsphase mit der Einhaltung der einschlägigen Pflichten des AI Act zu beginnen. Dass es eine solche Übergangsphase auch geben muss, zeigt die folgende Darstellung, nach der von Anbietern für Hochrisiko-KI-Systeme insbesondere das Folgende zu beachten ist: Registrierungspflichten Anbieter von Hochrisiko-KI-Systemen müssen ihr System vor dem Inverkehrbringen oder vor der Inbetriebnahme nach In Art. 16 lit. i i.V.m. Art. 49 Abs. 1 in einer EU-Datenbank registrieren. Eine entsprechende Datenbank errichtet die Kommission nach Art. 71 AI Act. Bestellung eines Bevollmächtigten in der EU Sofern der Anbieter eines Hochrisiko-KI-Systems nicht in der EU, sondern in einem Drittland niedergelassen ist, sieht Art. 22 AI Act vor, dass ein Bevollmächtigter, der in der Union niedergelassen sein muss, schriftlich zu bestellen ist. Diesem Bevollmächtigten muss ein konkreter Auftrag erteilt werden, dem Bevollmächtigen muss seine Aufgabenerfüllung ermöglicht und er muss in bestimmten Umfang ermächtigt werden. Der Mindestumfang der Aufgaben, die der Bevollmächtigte wahrzunehmen hat, ergibt sich aus Art. 22 AI Act. Hierzu zählen unter anderem die Zusammenarbeit mit Aufsichtsbehörden, die Überprüfung der Einhaltung bestimmter Anforderungen und die Bereithaltung bestimmter Informationen. Betreiben eines Risikomanagementsystems Anbieter von Hochrisiko-KI-Systemen müssen nach Art. 16 lit. a i.V.m. Art. 9 Abs. 2 AI Act ein Risikomanagementsystem betreiben. Der AI Act beschreibt auch nähere Anforderungen an ein solches Risikomanagementsystem. So soll dieses einen kontinuierlichen iterativen Prozess gewährleisten, der während des gesamten Lebenszyklus des Systems geplant und durchgeführt wird und eine regelmäßige systematische Überprüfung und Aktualisierung erfordert. Hierzu gehören u.a. eine Risikoanalyse bezogen auf die Schutzziele des AI Acts sowie die Ergreifung geeigneter und gezielter Risikomanagementmaßnahmen. Grundsätzlich dürften die Anforderungen an ein Risikomanagement insofern nicht völlig neu sein, denn insbesondere im ISO/IEC-Umfeld sind entsprechende Prinzipien zum Beispiel im Rahmen der Informations- und Cybersicherheit bekannt, wie unter anderem die ISO 27001 zeigt. Tatsächlich gibt es mit der ISO/IEC 42001 auch schon den ersten „AI Management System Standard“. In einem separaten Blogbeitrag beschäftigen wir uns mit den Anforderungen an den Aufbau eines Risikomanagementsystems i.S.v. Art. 9 AI Act näher. Betreiben eines Qualitätsmanagementsystems Neben dem Betrieb eines Risikomanagementsystems werden Anbieter von Hochrisiko-KI-Systemen gem. Art. 16 lit. c i.V.m. Art. 17 AI Act verpflichtet, ein Qualitätsmanagementsystem einzurichten, dass die Einhaltung des AI Acts gewährleistet. Der AI Act selbst regelt dabei in Art. 17 umfangreiche Mindestaspekte, die hierbei zu beachten sind. Ausnahmen von diesem Pflichten regelt in Teilbereichen nach Art. 63 AI Act für Kleinstunternehmen. Aufzeichnung- und Protokollierungsmöglichkeiten by design: Gemäß Art. 16 lit. a i.V.m. Art. 12 AI Act muss die automatische Aufzeichnung von bestimmen Ereignissen während des Lebenszyklus des Systems ermöglicht werden. Diese Protokollierungsfunktion müssen Anbieter von Hochrisiko-KI-Systemen berücksichtigen. Was genau zu protokollieren ist, regelt Art. 12 AI Act, allerdings lassen diese Regelungen viel Raum für Interpretation. Transparenz by design und Betriebsanleitung: Der AI Act enthält weitere Anforderungen, die Anbieter schon bei der Konzeptionierung und Entwicklung des Hochrisiko-KI-Systems berücksichtigen müssen. Gemäß Art. 16 lit. a i.V.m. Art. 13 AI Act muss der Betrieb hinreichend transparent sein, damit die Betreiber die Ausgaben eines Systems angemessen interpretieren und verwenden können. Die Betreiber müssen zudem in die Lage versetzt werden, ihre eigenen Pflichten nach dem AI Act erfüllen zu können. In diesem Rahmen kommt es insbesondere darauf an, dass Anbieter von Hochrisiko-KI-Systemen angemessene Betriebsanleitungen bereitstellen. Die Mindestanforderungen an die Form und den Mindestinhalt der Betriebsanleitungen regelt Art. 13 AI Act sehr detailliert. Hier müssen unter anderem auch die Maße an Genauigkeit und die relevanten Genauigkeitsmetriken des Hochrisiko-KI-Systems angegeben werden (Art. 15 Abs. 3 AI Act). Die Anforderungen an die Betriebsanleitung erscheinen hoch. Menschliche Aufsicht und Mensch-Maschine-Schnittstelle by design: Anbieter von Hochrisiko-KI-Systemen müssen diese gemäß Art. 16 lit. a i.V.m. Art. 14 AI Act zudem so konzipieren und entwickeln, dass sie während der Dauer ihrer Verwendung von natürlichen Personen wirksam beaufsichtigt werden können. Dies schließt die Gewährleistung einer geeigneten Mensch-Maschine-Schnittstelle ein. Mindestanforderungen an die Ermöglichung der Aufsicht sind in Art. 14 AI Act, wiederum im Detail, geregelt. Genauigkeit, Robustheit und Cybersicherheit by design: Art. 16 lit. a i.V.m. Art. 15 AI Act fordert zudem, dass Anbieter von Hochrisiko-KI-Systemen im Rahmen der Konzeption und Entwicklung dafür sorgen, dass die Systeme ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren. Die EU-Kommission soll insofern entsprechende Benchmarks und Messmethoden entwickeln. Im Rahmen der Robustheit spricht der AI Act von Sicherungs- und Störungssicherheitsplänen, es werden zudem Maßnahmen gegen verzerrte Ausgaben, die künftige Vorgänge beeinflussen („Rückkopplungsschleifen“), gefordert, das Hochrisiko-KI-System muss widerstandsfähig gegen Versuche unbefugter Dritter sein, die Verwendung, Ausgaben oder Leistung durch Ausnutzung von Systemschwachstellen zu verändern. Insgesamt muss ein angemessenes Maß an Cybersicherheit gewährleistet sein und KI-spezifischen Schwachstellen müssen bedacht werden. Der AI Act nennt hier Begriffe wie „data poisoning“, „model poisining“, „adversarial examples“ oder „model evasions“, mit denen wir uns in einem separaten Blogbeitrag beschäftigen werden. Daten-Governance: Sofern Hochrisiko-KI-Systeme eingesetzt werden, bei denen KI-Modelle mit Daten trainiert werden, müssen nach Art. 16 lit. a i.V.m. Art. 10 AI Act besondere Maßnahmen in Bezug auf die Trainings-, Validierungs- und Testdatensätze eingehalten werden. Die gleichen Pflichten gelten auch für Testdatensätze, die für KI-Systeme genutzt werden, die keine Modelle trainieren: Wer ein KI-Modell trainiert oder ein KI-System testet muss hier eine Menge beachten, unter anderem wie die Daten erhoben wurden und wo sie ursprünglich herkommen, auch der Verarbeitungszweck muss berücksichtigt werden Es müssen zusätzlich eine Reihe weiterer Voraussetzungen eingehalten werden, so muss zum Beispiel ein „Bias“, also eine Verzerrung verhindert werden, der sich negativ auf die Schutzziele es AI Acts auswirken kann. Die Trainingsdaten müssen darüber eine gewisse Qualität aufweisen, unter anderem möglichst fehlerfrei und vollständig sein. Im Falle von personenbezogenen Trainingsdaten müssen die Vorgaben der DSGVO eingehalten werden. Besonderheiten bestehen im Bereich der Verarbeitung besonderer Kategorien personenbezogener Daten. Barrierefreiheit by design (nur für bestimmte Fälle) Art. 16 lit. l AI Act nimmt Bezug auf weitere Regelungen zur Barrierefreiheit, die eingehalten werden müssen. Hier ist einerseits die Richtlinie die über den barrierefreien Zugang zu den Websites und mobilen Anwendungen öffentlicher Stellen zu nennen und andererseits die Richtlinie über die Barrierefreiheitsanforderungen für Produkte und Dienstleistungen. Da die Regelungen insofern nur bestimmte Stellen, Produkte und Dienstleistungen betreffen, müssen Anbieter im Einzelfall prüfen, ob sie diesen Pflichten unterfallen. Verpackungsvorschriften (Anbieterkennzeichnung) und CE-Kennzeichnung Weitere Anforderungen ergeben sich aus Art. 16 lit. b AI Act und aus Art. 16 lit. h i.V.m. Art. 48 AI Act. So muss eine Anbieterkennzeichnung auf dem Hochrisiko-KI-System selbst oder, falls dies nicht möglich ist, auf seiner Verpackung oder in der beigefügten Dokumentation angegeben werden (Namen des Anbieters, eingetragener Handelsname bzw. eingetragene Handelsmarke, Kontaktanschrift). Auf die gleiche Weise muss grundsätzlich auch eine CE-Kennzeichnung angebracht werden, deren nähere Details Art. 48 AI Act regelt. Konformitätsbewertung Damit nicht genug, denn gemäß Art. 16 lit. f i.V.m. Art. 43 AI Act müssen Anbieter von Hochrisiko-KI-Systemen sicherstellen, dass ihr System einem Konformitätsbewertungsverfahren unterzogen wird, bevor es in Verkehr gebracht oder in Betrieb genommen wird. Die Details hierzu regelt Art. 43 AI Act. Je nach Hochrisiko-System sind hier verschiedene Wege vorgeschrieben und es wird u. a. zwischen einer internen Kontrolle ohne Beteiligung einer notifizierten Stelle und einer Bewertung unter Beteiligung einer notifizierten Stelle unterschieden. Erwägungsgrund 125 weist insofern darauf hin, dass es angesichts der Komplexität von Hochrisiko-KI-Systemen und der damit verbundenen Risiken wichtig ist, angemessene Konformitätsbewertungsverfahren für Hochrisiko-KI-Systeme zu entwickeln, an denen auch notifizierte Stellen beteiligt sind (sogenannte Konformitätsbewertung durch Dritte). Nach Art. 113 lit. b AI Act muss eine entsprechende Infrastruktur ab dem 2. August 2025 aufgebaut werden. Ob es den Mitgliedstaaten gelingt, dies so rechtzeitig umzusetzen, dass Anbieter neuer Hochrisiko-KI-Systeme diese ab dem 2. August 2026 erstmals Inverkehrbringen oder Inbetriebnehmen können, erscheint fraglich. EU-Konformitätserklärung und Einhaltung von Produktanforderungen Gemäß Art. 16 lit. g i.V.m. Art. 47 AI Act muss der Anbieter eines Hochrisiko-KI-Systems zudem eine EU-Konformitätserklärung ausstellen. Mit der Ausstellung der EU-Konformitätserklärung übernimmt der Anbieter die Verantwortung für die Erfüllung der relevanten Anforderungen des AI Act. Nach Art. 16 lit. a i.V.m. Art. 8 Abs. 2 AI Act müssen KI-Systeme in Produkten darüber hinaus weitere für sie geltende Produktanforderungen erfüllen. Beobachtungspflichten und -pläne Nach dem Inverkehrbringen eines Hochrisiko-KI-Systems müssen Anbieter gemäß Artikel 72 AI Act ein System zur Beobachtung einrichten. Hierbei muss unter anderem gewährleistet werden, dass Daten zur Leistung des Hochrisiko-KI-Systems über die gesamte Lebensdauer hinweg aktiv und systematisch erhoben, dokumentiert und analysiert werden können. Der Anbieter muss damit in die Lage versetzt werden, die fortdauernde Einhaltung der Anforderungen an das Hochrisiko-KI-System bewerten können. Insofern muss der Anbieter auch einen Plan für die Beobachtung nach dem Inverkehrbringen haben. Die näheren Anforderungen an einen solchen Plan muss die EU-Kommission bis zum 2. Februar 2026 noch festlegen. Technische Dokumentation Gemäß Art. 16 lit. a i.V.m. Art. 11 AI Act sind Anbieter von Hochrisiko-KI-Systemen verpflichtet, vor der Inbetriebnahme bzw. vor dem Inverkehrbringen eine technische Dokumentation zu erstellen. Diese ist zudem stets auf dem neusten Stand zu halten. Details zum Mindestumfang der technischen Dokumentation sind in Anhang IV des AI Act aufgelistet. Hier sind sehr hohe Pflichten geregelt, unter anderem die Darstellung der allgemeinen Beschreibung des KI-Systems (inklusive einer Betriebsanleitung für Betreiber) eine detaillierte Beschreibung der Bestandteile des KI-Systems und seines Entwicklungsprozesses (inklusiver der ergriffenen Cybersicherheitsmaßnahmen) detaillierte Informationen über die Überwachung, Funktionsweise und Kontrolle des KI-Systems Darlegungen zur Eignung der Leistungskennzahlen für das spezifische KI-System eine detaillierte Beschreibung des Risikomanagementsystems die Beschreibung einschlägiger Systemänderungen eine Darstellung der angewandten Normen eine Kopie der Konformitätserklärung eine detaillierte Beschreibung des Systems zur Bewertung der Leistung des KI-Systems in der Phase nach dem Inverkehrbringen einschließlich des Plans für die Beobachtung nach dem Inverkehrbringen Die Pflichten sind an dieser Stelle gelinde gesagt heftig. Allerdings muss man sich auch vor Augen halten, dass diese nur für Hochrisiko-KI-Systeme gelten und dies somit längst nicht alle KI-Systeme betreffen wird. Hier sieht man aber, welche Auswirkungen im Hinblick auf den Grad der Pflichten die konkrete Einstufung des KI-Systems haben kann. Zudem gelten diese Pflichten nur für Anbieter und nicht für Stellen, die ausschließlich Betreiber sind. Zumindest im Hinblick auf KMU, einschließlich Start-up-Unternehmen, sieht Art. 11 AI Act Erleichterungen vor. Hier soll es in Zukunft ein von der EU-Kommission erstelltes vereinfachtes Formular für die technische Dokumentation geben, das auf die Bedürfnisse von kleinen Unternehmen und Kleinstunternehmen zugeschnitten ist. Aufbewahrungspflichten Gemäß Art. 16 lit. d i.V.m. Art. 18 AI Act sowie Art. 16 lit. e i.V.m. Art. 19 AI Act gelten spezielle Aufbewahrungspflichten im Hinblick auf die technische Dokumentation, die Dokumentation des Qualitätsmanagementsystems, bestimmte Genehmigungen bzw. Dokumente der notifizierenden Stellen, der EU-Konformitätserklärung und hinsichtlich der automatisch erzeugten Protokolle. Meldepflichten bei schwerwiegenden Vorfällen Anbieter von Hochrisiko-KI-Systemen sind nach Art. 73 AI Act verpflichtet, schwerwiegende Vorfälle gegenüber den jeweiligen Marktüberwachungsbehörden der Mitgliedstaaten zu melden. Die Meldung muss unverzüglich nach Feststellung erfolgen, je nach Fall aber spätestens nach zwei bis 15 Tagen. Mitwirkungs-, Korrektur und Informationspflichten Gemäß Art. 16 lit. k AI Act muss der Anbieter eines Hochrisiko-KI-Systems auf begründete Anfrage einer zuständigen nationalen Behörde nachweisen, dass das Hochrisiko-KI-System die Anforderungen an Hochrisiko-KI-Systeme erfüllt. Weitere Pflichten finden sich in Art. 16 lit. j i.V.m. Art. 20 AI Act: Sollte der Anbieter zu der Einschätzung kommen, dass ein Hochrisiko-KI-System die Anforderungen des AI Acts nicht erfüllt, muss er die weiteren Akteure, inklusive der Betreiber, informieren und Korrekturmaßnahmen vornehmen. Kommt der Anbieter zu der Einschätzung, dass das System ein Risiko birgt, so muss er die zuständige Marktüberwachungsbehörde und ggf. die im Rahmen der Konformitätsbewertung eingeschaltete notifizierende Stelle informieren sowie Korrekturmaßnahmen vornehmen. Weitere Mitwirkungspflichten sind in Art. 74 AI Act geregelt, unter anderem im Hinblick auf die uneingeschränkte Zugangsgewährung der Marktüberwachungsbehörden zur vorhandenen Dokumentation sowie zu den für die Entwicklung von Hochrisiko-KI-Systemen verwendeten Trainings-, Validierungs- und Testdatensätzen. Unter bestimmten Bedingungen muss den Marktüberwachungsbehörden auch Zugang zum Quellcode gegeben werden. Pflichten der Anbieter von Bestimmten KI-Systemen Art. 50 AI Act definiert bestimmte Arten von KI-Systemen, für die weitere Pflichten gelten. Diese Pflichten kommen zusätzlich zu den sonstigen Pflichten der Anbieter von Nicht-Hochrisiko-KI-Systemen bzw. Hochrisiko-KI-Systemen hinzu. Konkret werden folgende Kategorien von KI-Systemen mit folgenden Pflichten angesprochen: Systeme mit direkter Interaktion mit natürlichen Personen Anbieter müssen die Systeme dieser Kategorie so konzipieren und entwickeln, dass die Nutzer informiert werden, dass sie mit einem KI-System interagieren. Ausnahmen bestehen hier nur für bestimmte Spezialbereiche oder wenn sich die Interaktion schon von sich aus als eine solche mit einem KI-System offensichtlich erkennen lässt. Systeme die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen Hier müssen die Anbieter gewährleisten, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind. Auch hier gibt es einige Ausnahmen für spezielle Fälle. Artikel 50 AI Act regelt zwar noch weitere Informations- und Transparenzpflichten. Diese wenden sich aber an die Betreiber entsprechender Systeme und nicht an die Anbieter. Fazit Bei Lesen dieses Blogbeitrags, bzw. schon beim Überfliegen der Anforderungen an Anbieter von Hochrisiko-KI-Systemen, wird deutlich: Wer ein Hochrisiko-KI-System am oder nach dem 2. August 2026 in Verkehr bringen oder in Betrieb nehmen möchte, der hat sehr hohe Hürden zu nehmen. Hinzukommt, dass es fraglich ist, ob die erforderliche Infrastruktur im Hinblick auf die Konformitätsbewertung durch Dritte in Deutschland bis dahin bereitgestellt werden kann, da hier möglicherweise sehr hohe behördliche Auflagen im Rahmen des Akkreditierungsverfahrens einzuhalten sein werden. Allerdings, und das entspannt die Lage ggf. etwas, sind längst nicht alle KI-Systeme als Hochrisiko-KI-Systeme einzustufen und gemäß Art. 6 Abs. 3 AI Act wird oftmals auch eine abweichende Einstufung aufgrund einer individuellen Risikobewertung möglich sein. Hinzukommt, dass für Hochrisiko-KI-Systeme, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, großzügige Privilegien gelten, sofern keine erheblichen Veränderungen vorgenommen werden. Die Privilegien gehen dabei so weit, dass die Anforderungen an Hochrisiko-KI-Systeme für solche „Alt“-Systeme nicht gelten. Den ein oder anderen Anbieter könnte dieses Privileg sogar dazu veranlassen, sein System noch schnell vor dem Stichtag auf den Weg zu bringen. Ansonsten sind die Anforderungen für Anbieter von Nicht-Hochrisiko-KI-Systemen und im Hinblick auf Anbieter bestimmter KI-Systeme i.S.d. Art. 50 AI Act durchaus überschaubar.
Der AI Act formuliert nicht nur Anforderungen an Betreiber und Anbieter, sondern auch an Einführer und Händler. Einführer von KI-Systemen Ein Einführer ist gemäß Art. 3 Ziffer 6 AI Act eine in der Union ansässige oder niedergelassene natürliche oder juris
zum Artikel gehenNiklas Luhmann war ein deutscher Soziologe, der vor allem durch seine Arbeiten zur Systemtheorie bekannt geworden ist. Seine Systemtheorie ist eine interdisziplin re Theorie, die sich mit dem Verst ndnis von sozialen Systemen befasst. Luhmann unterscheide
zum Artikel gehenThe post Rechte und Pflichten im gemieteten Garten appeared first on MINEKO.
zum Artikel gehenThe post Die Untervermietung: Regeln und Pflichten für Mieter appeared first on MINEKO.
zum Artikel gehenSport machen mit möglichst normnahen Blutzuckerwerten – wie geht das, wenn man ein System zur automatisierten Insulindosierung (AID) nutzt? Prof. Dr. Othmar Moser ist einer der federführenden Autoren, die an der ersten internationalen Leitlinie für Sport
zum Artikel gehen