KI-Sprachmodelle & IT-Sicherheit

Mit technischen Innovationen gehen neue Formen von IT-Sicherheitsrisiken einher, insbesondere für Unternehmen, die neue Anwendungen nutzen. Eine Studie des Bundesamts für Sicherheit in der Informationstechnik (BSI) über generative KI-Modelle, insbesondere Large Language Models (LLMs), untersucht deren Aufbau, Chancen und Risiken mit einem besonderen Fokus auf die IT-Sicherheit.

Gewöhnliche menschliche Arbeit, die von einem anthropomorphen Roboter ausgeführt wird

Quelle: © freepik

LLMs sind mächtige neuronale Netze, die eine hohe sprachliche Qualität aufweisen und in Bereichen wie Textverarbeitung, Programmcode-Generierung und Informationsbereitstellung, insbesondere durch Chatbots und persönliche Assistenzsysteme wie Chat GPT, Anwendung finden. Chancen bieten sich unter anderem in der Automatisierung textbasierter Aufgaben und der Verbesserung der IT-Sicherheit. Allerdings bestehen auch Risiken, wie die Möglichkeit der Generierung von Schadcode, bei dem sensible Daten rekonstruiert werden können, sowie die Platzierung von Malware durch das Verwenden schadhafter Code-Bibliotheken. Um die Vorteile großer KI-Sprachmodelle dennoch nutzen zu können, sollten Unternehmen vor der Anwendung eine gründliche Risikoanalyse durchführen. Generative KI-Modelle haben auch das Potenzial, IT-Sicherheitspraktiken zu verbessern, beispielsweise durch automatisierte Detektionsmethoden und die Erstellung sicherheitsbezogener Berichte. Die Studie schließt mit der Erkenntnis, dass LLMs sowohl Chancen als auch Herausforderungen für die IT-Sicherheit darstellen. Weitere Informationen finden Sie im Whitepaper des BSI.