Erste Sicherheit: Ihre KI ist so einfach zu hacken …

Eingereicht von Modzy


KI wird zum Mainstream, eingebettet in immer mehr alltägliche Anwendungen. Von Gesundheitswesen und Finanzen bis hin zu Verkehr und Energie scheinen die Möglichkeiten endlos zu sein. Jeder Sektor ist mit Möglichkeiten gereift, Zeit, Geld und andere Ressourcen zu sparen, und AI bietet viele Lösungen.

Kritische Fragen zur KI-Sicherheit bleiben jedoch offen. Wie verwalten IT-Organisationen die KI-Sicherheit, da sie unternehmensbezogen ist und Sie über eine Prüfungsfunktion verfügen, um Fragen der Aufsichtsbehörden zu beantworten?

Wie stellen Sie für Datenwissenschaftler sicher, dass Ihre KI-Modelle über einen längeren Zeitraum zuverlässig bleiben? Wie können Entwickler die normalen Prozesse von DevOps auf AI-fähige Softwareentwicklung ausweiten? Das Stellen der richtigen Sicherheitsfragen sollte eine Schlüsselkomponente Ihrer KI-Skalierungsstrategie sein.

Unternehmen investieren lediglich in AI-Administration- und Überwachungstools, um eine Unternehmensgröße zu erreichen, was zu einem wachsenden Markt für MLOps- und ModelOps-Instruments führt, die in ihre vorhandenen Technologien passen.

Dies spiegelt jedoch einen breiteren Pattern wider – sie wenden nicht die gleiche Genauigkeit auf die KI-Entwicklungs- und Bereitstellungsprozesse an, die bei der Entwicklung eines Techniques oder einer Anwendung zu erwarten wäre. Gleiches gilt für die KI-Sicherheit. Da sich viele Unternehmen immer noch mit dem KI-Administration auseinandersetzen, drücken sie die Sicherheitsprioritäten nach unten, was nur zu größeren Problemen führen wird.

Da bei der Bereitstellung von KI so viel auf dem Spiel steht, kann Sicherheit nicht gedacht werden – und es ist wahrscheinlich noch dringlicher, zu Beginn der KI-Bereitstellung in einem Unternehmen auf Sicherheit zu achten.

Angriffe aus jeder Ecke

Die Realität von AI-kompatiblen Systemen ist, dass sie eine vergrößerte Angriffsfläche haben, so dass schlechte Spieler ausgenutzt werden können. Glücklicherweise können MLOps-Instruments Ihnen dabei helfen, die in Ihrem Unternehmen verwendete Zugriffssteuerung für KI zu steuern, und viele dieser Instruments helfen auch bei der Sicherheit und API-Nachverfolgung. Gleichzeitig gibt es andere Arten von Bedrohungen, mit denen man umgehen muss, und viele Unternehmen denken immer noch nicht darüber nach, wie sie in ihre gemeinsame Place oder Sicherheitsreaktion eingepasst werden können.

Das KI-Programm bezieht sich auf einen bestimmten Zweig des maschinellen Lernens, der sich auf die negativen Auswirkungen auf die Leistung des KI-Modells konzentriert, entweder durch Fehlinformationen oder durch Verschlechterung der Leistung des Modells. Heutzutage können schlechte Teilnehmer schlechte oder "vergiftete" Daten in ein Modell einreichen, um das Ergebnis zu beeinflussen, oder indem sie die Gewichte des Modells umkehren, um seine Ergebnisse zu beeinflussen.

Beispielsweise sind bei einer Datenvergiftung in Bildern die Effekte oft subtil genug, um für das bloße Auge unsichtbar zu sein. Nehmen Sie die bekannt gewordenen Nachrichten eines selbstfahrenden Autos, das getäuscht wurde, ein Stoppschild als 60MPH-Zeichen falsch zu interpretieren. Dieses Beispiel zeigt eine Datenvergiftung in Aktion und gibt ein Bild der bevorstehenden Risiken.

Glücklicherweise gibt es Ansätze, um diese Bedrohungen proaktiv zu managen, aber nur wenige Unternehmen investieren von Anfang an Zeit und Geld in Sicherheit, was wirklich bedeutet, dass es zu spät ist. Das Rennen muss ein wesentlicher Bestandteil Ihrer gesamten KI-Sicherheitsstrategie sein. Andernfalls besteht die Gefahr, dass Hacker die Tür offen lassen, um Ihre KI-Systeme von mehreren Zugriffspunkten aus zu gefährden.

Der Aufstieg der Schatten-KI

Es ist leicht vorstellbar, dass Bedrohungen außerhalb Ihrer Organisation auftreten. Was ist mit drinnen?

Für Unternehmen, die sich für Innovation interessieren, gibt es häufig viele Groups, die unternehmensweit KI-Lösungen entwickeln. Wenn sie nicht finden können, was sie brauchen, bekommen sie es oder erstellen es. Das ist großartig, außer dass Sie nicht verwalten und schützen können, was Sie nicht wissen.

Schatten-KI bezieht sich auf die Verwendung von KI-bezogenen Programmen oder Diensten ohne Kenntnis Ihrer maschinellen Lern-, IT- oder Sicherheitsgruppen. Wir wissen, dass durchschnittlich 40% aller IT-Kosten außerhalb der IT-Abteilung anfallen. In diesem Fall können schwerwiegende Sicherheitslücken auftreten.

Wie spricht man KI im Schatten an? Schaffen Sie ein größeres kollektives Bewusstsein für Sicherheitsrisiken im Unternehmen und arbeiten Sie mit KI-Entwicklungsteams zusammen. Mit den oben genannten MLOps- und ModelOps-Instruments können Sie das AI-Administration zentralisieren, indem Sie die langfristige Verwaltung und Überwachung vereinfachen. In Bezug darauf, wie KI verwendet wird und wer sie verwendet, finden Sie in der von Ihnen kontrollierten Infrastruktur eine Lösung.

Ständige, unerwartete Veränderungen sind ein weiteres Downside. Denken Sie an die letzten Monate, in denen wir gegen die Pandemie kämpfen. Plötzlich wurden zuverlässige und zuverlässige Modelle getestet, und einige von ihnen konnten sich nicht schnell an Echtzeitdaten anpassen. Wie werden Ihre Modelle in beispiellosen Situationen reagieren?

Die Antwort ist klar. Lösen Sie Sicherheitsprobleme, bevor AI-Modelle mit der Produktion beginnen. Da sich die meisten Organisationen noch in einem frühen Stadium befinden, ist dies der richtige Zeitpunkt, um zu handeln. Positionieren Sie Ihre KI-Investition für weniger Risiko und mehr Belohnung. Führen Sie jetzt die folgenden Schritte aus, um einen stabilen Sicherheitsgriff zu erhalten:

  • Schritt 1. Berücksichtigen Sie die Sicherheit in der KI-Pipeline, vom Datenempfang über das Modelltraining bis zur Bereitstellung.
  • Schritt 2. Adressieren Sie jetzt die Schatten-KI. Zentralisieren Sie Ihr KI-Administration, um Anleitung und Kontrolle im gesamten Entwicklungsökosystem bereitzustellen.
  • Schritt three. Investieren Sie in Administration- und Überwachungstools. Sie müssen wissen, was in Echtzeit passiert, und dabei die Registrierungs- und Audit-Informationen nachverfolgen. Eine vollständigere Dokumentation bietet mehr Transparenz und hilft bei der Berichterstellung und Prüfung.
  • Schritt four. Betten Sie den Rennschutz in Ihren Technologie-Stack ein. Suchen Sie nach Möglichkeiten, um Ihr Vermögen vor Angriffen zu schützen. Wir haben eine Pause vor uns. Schlechte Schauspieler werden immer komplizierter. Die angreifende Oberfläche breitet sich weiter aus.

Können Sie mit den Folgen des Ignorierens der KI-Sicherheit umgehen? Bevor das Schlimmste passiert, überprüfen Sie Ihre Sicherheitsrisiken. Diese Schritte sind ein Ausgangspunkt für die Entwicklung und Implementierung der besten KI – zuverlässig, sicher, zuverlässig und sicher. Investieren Sie in Instruments, die Ihnen dabei helfen, dorthin zu gelangen. Stellen Sie sicher, dass Ihre Plattform alles vor böswilliger Absicht, gebrochener Integrität und unachtsamem Einfluss schützen kann.

Josh Sullivan ist der Chef von Moji.


Gesponserte Artikel sind Inhalte, die von einem Unternehmen erstellt wurden, das entweder für die Veröffentlichung bezahlt oder eine Geschäftsbeziehung mit VentureBeat unterhält. Sie sind immer deutlich gekennzeichnet. Von unserer Redaktion erstellte Inhalte werden in keiner Weise von Werbetreibenden oder Sponsoren beeinflusst. Wenden Sie sich an gross [email protected], um weitere Informationen zu erhalten.

Leave a Comment