Email Security

    Das Risiko von KI-Voreingenommenheit in der Cybersicherheit verstehen und abmildern

    Da sich immer mehr Cybersecurity-Teams auf KI verlassen, um Cyberrisiken zu mindern, ist KI-Voreingenommenheit ein wachsendes Problem. Aber man kann sie in den Griff bekommen.

    by Stephanie Overby
    gettyimages-1263025554.png

    Wichtige Punkte

    • Voreingenommenheit ist ein Problem bei der Entwicklung und Nutzung jeder Anwendung künstlicher Intelligenz (KI).
    • Da Cybersecurity-Organisationen und -Anbieter immer mehr KI in ihre Abwehrsysteme integrieren, müssen sie darauf achten, KI-Voreingenommenheit zu begrenzen.
    • Menschen können KI-Modelle auf verschiedene Weise beeinflussen, aber es gibt Maßnahmen, die Unternehmen ergreifen können, um dies zu verhindern.

    KI ist in gewisser Weise von Natur aus voreingenommen. Wie ein erfahrener KI-Forscher kürzlich erklärte: "KI bezieht sich auf den Prozess, bei dem Maschinen anhand von Daten lernen, wie sie bestimmte Dinge tun können. Wann immer man das tut, hat man einen bestimmten Datensatz. Und jeder Datensatz ist per Definition voreingenommen, weil es so etwas wie einen vollständigen Datensatz nicht gibt." [1]

    Der Fehler, lieber Leser, liegt nicht bei unseren Werkzeugen, sondern bei uns selbst.

    Menschliche Voreingenommenheit führt natürlich zu KI-Voreingenommenheit

    Studenten der Gehirnforschung wissen, dass Voreingenommenheit eine der Abkürzungen ist, die das menschliche Gehirn im Laufe von Millionen von Jahren der Evolution entwickelt hat. In der freien Natur geben uns Vorurteile sozusagen die Fähigkeit, schnell und ohne bewusstes Nachdenken zu reagieren, wodurch wahrscheinlich unzählige Tragödien verhindert wurden. Aber in der modernen Welt können Vorurteile, die uns nicht einmal bewusst sind, zu Diskriminierung, Bevorzugung und anderen sozialen Missständen führen.

    Jetzt geben IT-Teams - auch im Bereich der Cybersicherheit - die menschliche Kontrolle in Form von KI-Modellen mit maschinellem Lernen an einige Terminator-ähnliche Oberherren ab. Ohne die richtigen Erkenntnisse und Kontrollen in ihrem Entwicklungsprozess werden sie wahrscheinlich dieselben bewussten oder unbewussten Vorurteile und Annahmen, die menschliches Verhalten beeinflussen, in die Fähigkeiten der resultierenden KI-Software einbauen. Folglich ist eine KI-gestützte Cybersicherheitslösung nur so gut wie die Menschen, die sie entwickeln.[2]

    Und KI-Voreingenommenheit in der Cybersicherheit kann geradezu gefährlich sein. Sobald Cyberkriminelle nämlich einen Fehler in einem voreingenommenen KI-System erkennen, können sie ihn ausnutzen, indem sie das Automatisierungswerkzeug dazu bringen, sich auf unkritische Bedrohungen zu konzentrieren und eine echte Bedrohung zu übersehen. Ein KI-Modell, das auf falschen Annahmen oder Voreingenommenheit beruht, bedroht nicht nur die Sicherheitslage eines Unternehmens, sondern kann sich auch auf das Geschäft auswirken, wie Aarti Barkar, Vice President von IBM Security , schrieb. [3] Und da eine voreingenommene KI-gestützte Lösung scheinbar genauso gut funktioniert wie eine unvoreingenommene, gibt es keine roten Fahnen, die das Unternehmen auf eine Fehlfunktion aufmerksam machen, bis es zu spät sein könnte.

    Wenn also Cybersecurity-Führungskräfte und -Anbieter mehr KI-Funktionen in ihre Cybersecurity-Funktionen integrieren, müssen sie die Arten von Vorurteilen verstehen, die versehentlich (oder sogar absichtlich) in Lösungen eingebaut werden können, und daran arbeiten, schädliche Neigungen zu verhindern oder zu korrigieren.

    Die wichtigsten Treiber für AI-Voreingenommenheit

    Voreingenommenheit kann an verschiedenen Stellen eines KI-Implementierungszyklus in den Prozess eindringen. Zu den wichtigsten Faktoren für potenzielle KI-Voreingenommenheit gehören:

    Die Daten. Daten sind der logischste Ausgangspunkt, wenn es um Verzerrungen in der künstlichen Intelligenz geht.[4] Wenn es den Quelldaten beispielsweise an Vielfalt oder Vollständigkeit mangelt, kann ein Algorithmus für maschinelles Lernen immer noch funktionieren. Seine Entscheidungsfindung wird jedoch verzerrt sein. Ein voreingenommenes Tool zur Spam-Erkennung kann beispielsweise falsch-positive Ergebnisse liefern und Nicht-Spam-E-Mails blockieren. Einige Experten raten, dass Trainingsdaten für Cybersicherheitsanwendungen weitgehend unangetastet und unkategorisiert sein sollten, und weisen darauf hin, dass Unternehmen bei der Verwendung von Daten Dritter, die für ihre spezifischen Cybersicherheitsanforderungen möglicherweise nicht relevant sind, vorsichtig sein sollten. Es gibt Open-Source-Toolkits wie Aequitas, das Verzerrungen in hochgeladenen Datensätzen messen kann, und Themis-ml, das Datenverzerrungen mithilfe von Algorithmen zur Verringerung von Verzerrungen reduzieren kann.[5]

    Der Algorithmus. Wir haben alle schon viel über algorithmische Voreingenommenheit gehört: wenn Datenwissenschaftler KI-Modelle erstellen, die von ihren eigenen unbewussten Ideen oder Erfahrungen beeinflusst sind. Es ist von entscheidender Bedeutung, dass Sicherheitsexperten Hand in Hand mit Datenwissenschaftlern arbeiten, um Algorithmen im Kontext der Geschäftsanforderungen zu entwerfen. [6] Es gibt Prozesse, die Unternehmen einführen können, um die Entwicklung verzerrter Modelle zu verhindern, wie z. B. die Sicherstellung, dass das Team über fundierte Kenntnisse und Erfahrungen im Bereich der Domänen- und Cybersicherheit verfügt, und die Durchführung einer Codeprüfung durch Dritte. Auch hier gibt es Tools, die helfen können, wie das von IBM entwickelte AI Fairness 360, das eine Reihe von Algorithmen zur Verringerung von Verzerrungen kombiniert, um Probleme in maschinellen Lernmodellen zu erkennen.[7]

    Das Cyber-KI-Team. Das Team, das die Modelle und Tools entwickelt, sollte über umfassende Sicherheitserfahrungen, ein aktuelles Verständnis der Bedrohungslandschaft und Geschäftskenntnisse verfügen - aber auch über unterschiedliche Hintergründe und Denkweisen. Kognitive Vielfalt und eine Vielzahl von Hintergründen und Erfahrungen sind entscheidend für die Schaffung besser abgerundeter KI-Cybersicherheitssysteme, die in der Lage sind, ein breites Spektrum von Verhaltensmustern und Bedrohungen zu verstehen.

    Die Quintessenz

    In einer Zeit wachsender Cyberrisiken wird KI für die Cybersicherheitsabwehr und die Aufklärung von Bedrohungen von unschätzbarem Wert. Das Verständnis der Risiken von KI-Voreingenommenheit und die Wachsamkeit bei der Verhinderung der Einführung von Voreingenommenheit in KI-gestützte Sicherheitslösungen werden entscheidend sein, um sicherzustellen, dass diese Tools nicht nur funktional, sondern auch unparteiisch und effektiv sind.

    [1] "AI bias is an ongoing problem, but there's hope for a minimally biased future," TechRepublic

    [2] "What Is Biased AI, and How Does It Apply To Cybersecurity?," Technology.org

    [3] "KI verändert die Cybersicherheit - aber wenn sie voreingenommen ist, ist sie gefährlich," Fast Company

    [4] "Engineering Bias Out of AI," IEEE-Spectrum

    [5] Ebd.

    [6] "KI verändert die Cybersicherheit - aber wenn sie voreingenommen ist, ist sie gefährlich," Fast Company

    [7] "Engineering Bias Out of AI," IEEE-Spectrum

    Abonnieren Sie Cyber Resilience Insights für weitere Artikel wie diesen

    Erhalten Sie die neuesten Nachrichten und Analysen aus der Cybersicherheitsbranche direkt in Ihren Posteingang

    Anmeldung erfolgreich

    Vielen Dank, dass Sie sich für den Erhalt von Updates aus unserem Blog angemeldet haben

    Wir bleiben in Kontakt!

    Zurück zum Anfang