Anzeige Anzeige: ID Berlin GmbH ×

BSI setzt Standard für mehr Sicherheit in der Künstlichen Intelligenz myDRG Stellenmarkt Gesundheitswesen

« SPD-Ostbeauftragter: Fallpauschalen-System für Krankenhausleistungen prüfen | BSI setzt Standard für mehr Sicherheit in der Künstlichen Intelligenz | Fehlerhafte Klinikrechnungen bleiben Problem »

 

BSI setzt Standard für mehr Sicherheit in der Künstlichen Intelligenz

BSI setzt Standard für mehr Sicherheit in der Künstlichen Intelligenz (Pressemitteilung).

Der Einsatz von Künstlicher Intelligenz (KI) eröffnet neue Möglichkeiten und Anwendungen und beeinflusst schon jetzt viele kritische Prozesse und Entscheidungen, zum Beispiel in der Wirtschaft oder im Gesundheitsbereich. Gleichzeitig sind...

Der Einsatz von Künstlicher Intelligenz (KI) eröffnet neue Möglichkeiten und Anwendungen und beeinflusst schon jetzt viele kritische Prozesse und Entscheidungen, zum Beispiel in der Wirtschaft oder im Gesundheitsbereich.
Gleichzeitig sind auf KI basierende Systeme neuen Sicherheitsbedrohungen
ausgesetzt, die von etablierten IT-Sicherheitsstandards nicht abgedeckt
werden.

Der Einsatz von Künstlicher Intelligenz (KI) eröffnet neue Möglichkeiten und
Anwendungen und beeinflusst schon jetzt viele kritische Prozesse und
Entscheidungen, zum Beispiel in der Wirtschaft oder im Gesundheitsbereich.
Gleichzeitig sind auf KI basierende Systeme neuen Sicherheitsbedrohungen
ausgesetzt, die von etablierten IT-Sicherheitsstandards nicht abgedeckt werden.
Mit dem neuen Kriterienkatalog für KI-basierte Cloud-Dienste (Artificial
Intelligence Cloud Services Compliance Criteria Catalogue, AIC4) schafft das
Bundesamt für Sicherheit in der Informationstechnik (BSI) eine wichtige
Grundlage, um die Sicherheit von KI-Systemen bewerten zu können. Der AIC4 des
BSI definiert erstmals ein Basisniveau an Sicherheit für KI-basierte Dienste,
die in Cloud-Infrastrukturen entwickelt und betrieben werden. Ein
vergleichbarer einsetzbarer Prüfstandard für sichere KI-Systeme existiert
derzeit nicht. Der AIC4 umfasst KI-spezifische Kriterien, die eine unabhängige
Prüfung der Sicherheit eines KI-Service über dessen gesamten Lebenszyklus
hinweg ermöglichen. Dieser Ansatz hat sich schon beim C5-Kriterienkatalog
bewährt, mit dem das BSI einen weltweit anerkannten Standard der
Cloud-Sicherheit gestaltet und etabliert hat. Mit dem AIC4 nimmt das BSI eine
führende Rolle bei der Absicherung von KI-Anwendungen ein und leistet einen
wesentlichen Beitrag zur Gestaltung einer sicheren Digitalisierung „Made in
Germany“.

Mit der zunehmenden Verbreitung lernender Systeme stellt sich immer dringender
die Frage nach ihrer Vertrauenswürdigkeit. Deshalb nehmen wir uns als
Cyber-Sicherheitsbehörde des Bundes dieser Fragestellung an. Wir legen mit dem
AIC4 erstmals eine konkrete Lösung vor, die über nachvollziehbare Kriterien die
Informationssicherheit im Bereich der Künstlichen Intelligenz verbessert. Dies
ist der erste Schritt, weitere Schritte werden folgen. Als Gestalter einer
sicheren Digitalisierung in Deutschland befasst sich das BSI intensiv mit dem
Thema KI. Wir unterstützen die Bundesregierung dabei, den technologisch und
wirtschaftlich erfolgreichen sowie gesellschaftlich akzeptierten Einsatz von
KI-Lösungen in Deutschland voranzutreiben. Noch in diesem Jahr wird das BSI
einen Stützpunkt mit dem fachlichen Schwerpunkt KI im Saarland ansiedeln. Die
bereits begonnene Arbeit, Kooperationen mit nationalen und internationalen
Partnern zu schließen, werden wir weiter forcieren, erklärt BSI-Präsident Arne
Schönbohm.

Informationssicherheit ist auch im Bereich der Künstlichen Intelligenz eine
wesentliche Voraussetzung für den Erfolg neuer Technologien und Anwendungen.
Das BSI leistet Grundlagenforschung und entwickelt bedarfsorientierte und
praxisnahe Anforderungen, Prüfkriterien und -methoden, um den Einsatz von KI
zum Wohle der Allgemeinheit sicher zu gestalten.

Bereits im November 2020 ist das BSI im Rahmen der vom Land Nordrhein-Westfalen
geförderten Kompetenzplattform KI.NRW eine strategische Kooperation mit
Fraunhofer IAIS eingegangen, um die Entwicklung einer KI-Zertifizierung „Made
in Germany“ voranzubringen. Ziel der Zusammenarbeit ist es, Prüfverfahren für
die Zertifizierung von Systemen der Künstlichen Intelligenz zu entwickeln, die
als Basis für technische Standards und Normen dienen können. Bei der
Weiterentwicklung der Prüfverfahren sollen Praxistauglichkeit und
Marktfähigkeit in enger Abstimmung mit der Wirtschaft weiter verbessert werden.
Weitere Informationen des BSI zum Thema Künstliche Intelligenz sind auf der
BSI-Webseite abrufbar.

Quelle: Pressemitteilung, 02.02.2021

- - - - - - - - -



erschienen am Mittwoch, 03.02.2021
Anzeige Anzeige: ID GmbH ×