Bösartige KI-Modelle untergraben die Sicherheit der Software Supply-Chain

Unsere neuesten Forschungsergebnisse zu den Herausforderungen im Zusammenhang mit bösartigen KI-Modellen wurden in der Zeitschrift Communications of the ACM unter dem Titel „Malicious AI Models Undermine Software Supply-Chain Security“ veröffentlicht.Diese Forschung wurde in Zusammenarbeit mit Dr. Sherali Zedally, Professorin an der Universität von Kentucky, durchgeführt.

Die zunehmende Integration von Modellen der Künstlichen Intelligenz (KI) in die Softwareentwicklung und -bereitstellung stellt eine neue und starke Bedrohung für die Sicherheit der Software-Lieferkette dar. Im Gegensatz zu herkömmlicher Malware, die in Code eingebettet ist, können bösartige KI-Modelle auf subtile Weise das Verhalten verändern, Entscheidungen beeinflussen oder Daten aus Systemen exfiltrieren, in denen sie eigentlich legitime Funktionen ausführen sollten. Diese einzigartige Fähigkeit ermöglicht es Angreifern, Software auf einer tieferen, heimtückischeren Ebene zu kompromittieren und die dem Modell innewohnende Komplexität und Vorhersagekraft für schändliche Zwecke zu nutzen, oft ohne konventionelle Sicherheitsalarme auszulösen.

Die wichtigsten Vektoren für die Einschleusung dieser kompromittierten KI-Modelle sind verdorbene Entwicklungstools, böswillig modifizierte Bibliotheken oder vortrainierte Modelle, die aus nicht vertrauenswürdigen Repositories stammen. Sobald diese Modelle integriert sind, können sie als trojanische Pferde fungieren, die nicht autorisierten Code ausführen, sensible Daten ausspähen, die Datenintegrität manipulieren oder einen nicht autorisierten Zugriff auf

kritische Systeme. Der Artikel zeigt ein Modell des Angriffsflusses auf, das aufschlüsselt, wie ausgeklügelte Nutzdaten die Lieferkette durchlaufen können, um ihre böswilligen Ziele zu erreichen, was eine erhebliche Herausforderung für die allgemeine Cybersicherheit eines Unternehmens darstellt.

Die Erkennung und Eindämmung solcher Bedrohungen ist aufgrund der inhärenten Undurchsichtigkeit und Komplexität von KI-Modellen eine besondere Herausforderung. Aufgrund ihrer „Blackbox“-Natur ist es oft schwierig festzustellen, ob sich ein Modell böswillig verhält oder einfach nur wie vorgesehen funktioniert, insbesondere wenn die böswillige Nutzlast subtil ist oder nur unter bestimmten, seltenen Bedingungen aktiviert werden soll. Darüber hinaus sind herkömmliche signaturbasierte Sicherheitsmechanismen nicht in der Lage, diese neuartigen, verhaltensgesteuerten Angriffe zu erkennen, da sie sich nicht auf statische Codesignaturen oder leicht identifizierbare Muster stützen. Diese Einschränkung erfordert einen grundlegenden Wandel in der Art und Weise, wie Unternehmen die Sicherheit der Software-Lieferkette angehen, um diesen intelligenten und anpassungsfähigen Angreifern Rechnung zu tragen.

Um diesen wachsenden Risiken zu begegnen, müssen Unternehmen eine mehrschichtige Verteidigungsstrategie umsetzen. Zu den wichtigsten Empfehlungen gehören die strenge Prüfung und Beschaffung von KI-Modellen aus vertrauenswürdigen Quellen, die kryptografische Validierung zur Sicherstellung der Modellintegrität und die Aufrechterhaltung eines strengen, kontrollierten Zugriffs auf KI-Ressourcen Dritter. Darüber hinaus sind die Verwendung sicherer Modellserialisierungsformate und das Sandboxing von KI-Modellen in isolierten Ausführungsumgebungen entscheidende Schritte zur Eindämmung potenzieller Bedrohungen. Die übergreifende Botschaft unterstreicht die kritische Notwendigkeit ständiger Wachsamkeit, proaktiver Sicherheitsmaßnahmen und eines tiefen Verständnisses der einzigartigen Eigenschaften von KI-gesteuerten Angriffsnutzlasten, um eine effektive Erkennung, Verhinderung und Eindämmung von Bedrohungen in dieser sich entwickelnden Bedrohungslandschaft zu fördern.

Das vollständige Magazin ist hier erhältlich .