Künstliche Intelligenz

KI - ein Einfallstor für Kriminelle

  • Lars Wallerang/cid
  • In TECHNOLOGIE
  • 4. April 2019, 16:15 Uhr

Künstliche Intelligenz (KI) kann viel. Das gilt im Guten wie im Bösen. KI wird künftig die Sicherheit von IT-Systemen verbessern. In den Händen von Cyberkriminellen öffnen sie andererseits auch Einfallstore für neue Bedrohungen der IT-Sicherheit.


Künstliche Intelligenz (KI) kann viel. Das gilt im Guten wie im Bösen. KI wird künftig die Sicherheit von IT-Systemen verbessern. In den Händen von Cyberkriminellen öffnen sie andererseits auch Einfallstore für neue Bedrohungen der IT-Sicherheit. Auch die KI-Systeme selbst benötigen Schutz vor Manipulation.

Die Dynamik zwischen IT-Sicherheit und KI analysiert das Whitepaper "Künstliche Intelligenz und IT-Sicherheit", das die Plattform Lernende Systeme zur Hannover Messe 2019 veröffentlicht. Die Autorinnen und Autoren aus Wirtschaft, Wissenschaft und Behörden fordern, insbesondere kleine und mittlere Unternehmen (KMU) sowie IT-Fachkräfte beim Aufbau von Kompetenzen zu unterstützen.

"Zwischen Angreifern und Verteidigern der IT-Sicherheit entfacht die KI einen neuen Wettlauf", warnt Jörn-Müller Quade, Leiter der Arbeitsgruppe "IT-Sicherheit" der Plattform Lernende Systeme und Inhaber des Lehrstuhls für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT). Unternehmen und Behörden müssten deshalb rasch entsprechende Kompetenzen aufbauen und in neue Technologien investieren. Auch die Ausbildung von IT-Fachkräften müsse angepasst werden, um den Angreifern weiterhin einen Schritt voraus zu bleiben.

KI gibt auch den Angreifern neue Werkzeuge an die Hand, um Schwachstellen in IT-Systemen zu finden, ihre Schadprogramme zu optimieren und Authentifizierungsverfahren zu unterlaufen - indem sie beispielsweise Tippmuster imitieren. Besonders Social Engineering könnte zum Massenphänomen werden, also Angriffe, bei denen Menschen so getäuscht werden, dass sie dem Angreifer freiwillig Passwörter oder Bankdaten verraten. Benötigt man bislang Menschenkenntnis und Hintergrundwissen, um beispielsweise eine Phishing-Mail an den Stil des Absenders anzupassen und so zu tarnen, können KI-Systeme künftig hocheffizient online verfügbare Informationen sammeln, um etwa eine E-Mail auf die Zielperson einer Attacke zuzuschneiden.

Auch KI-Systeme selbst können künftig Ziel von Hackern sein. Sensible Daten, beispielsweise in der Gesundheitsversorgung, gilt es vor Missbrauch zu schützen. Ebenso könnten Daten, die lernende Algorithmen verarbeiten, manipuliert werden. Dies kann zum Beispiel die Vorhersagen von KI-Anwendungen im Wertpapierhandel verfälschen oder autonome Fahrzeuge zu Fehlentscheidungen verleiten. Datenschutzerhaltende Lernalgorithmen und die Resilienz von KI-Systemen gegen Manipulation müssen deshalb noch intensiver erforscht werden.

STARTSEITE