Richtlinien für Umgang und Sicherheit bei KI

0
38



Die Vereinigten Staaten, Großbritannien, Australien und 15 weitere Länder haben globale Leitlinien veröffentlicht, die helfen sollen, KI-Modelle vor Manipulationen zu schützen. Unternehmen werden hier auch dazu aufgefordert, ihre Modelle “sicher zu gestalten”.

Am 26. November veröffentlichten die 18 Länder ein 20-seitiges Dokument, in dem sie darlegen, wie KI-Firmen ihre Cybersicherheit bei der Entwicklung oder Verwendung von KI-Modellen handhaben sollten, da ihrer Meinung nach “die Sicherheit in der schnelllebigen Branche oft eine untergeordnete Rolle spielt”.

Die Richtlinien bestehen hauptsächlich aus allgemeinen Empfehlungen, wie z.B. die Infrastruktur des KI-Modells streng zu kontrollieren, die Modelle vor und nach der Veröffentlichung auf Manipulationen zu überwachen und die Mitarbeiter im Hinblick auf Cybersicherheitsrisiken zu schulen.

Nicht erwähnt wurden bestimmte strittige Fragen im Bereich der KI, darunter die Frage, wie die Verwendung von Bilderzeugungsmodellen und Deep Fakes oder die Methoden der Datenerfassung und -verwendung beim Training von Modellen kontrolliert werden sollte. Genau dieses Thema hat mehreren KI-Firmen wegen Urheberrechtsverletzungen Klagen eingebracht.

“Wir befinden uns an einem Wendepunkt in der Entwicklung der künstlichen Intelligenz, die möglicherweise die folgenreichste Technologie unserer Zeit ist”, so der US-Minister für Innere Sicherheit Alejandro Mayorkas in einer Erklärung. “Cybersicherheit ist beim Aufbau von KI-Systemen, die sicher und vertrauenswürdig sind, das wichtigste.”

Den Leitlinien gingen mehrere Regierungsinitiativen voraus, die sich mit KI befassen, darunter ein Treffen von Regierungen und KI-Firmen bei einem KI-Sicherheitsgipfel Anfang November in London. Dort wurde eine gemeinsame Vereinbarung im Hinblick auf die KI-Entwicklung getroffen.

Die Europäische Union hat unterdessen die Details ihres KI-Gesetzes ausgearbeitet und US-Präsident Joe Biden hat im Oktober eine Durchführungsverordnung erlassen, die Standards für die Sicherheit von KI festlegt. Beide Initiativen wurden von der KI-Industrie kritisiert, weil sie Innovationen behindern könnten.

Die neuen “Secure by Design”-Leitlinien wurden unter anderem von Kanada, Frankreich, Deutschland, Israel, Italien, Japan, Neuseeland, Nigeria, Norwegen, Südkorea und Singapur unterzeichnet. KI-Firmen wie OpenAI, Microsoft, Google, Anthropic und Scale AI haben ebenfalls zur Entwicklung der Leitlinien beigetragen.




Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

News4Today ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here