Die Technische Universität München (TUM) und Google treiben die Forschung zum Thema Cybersicherheit und Künstliche Intelligenz (KI) voran. Durch eine Finanzierung von Google werden an der TUM sieben neue Forschungsprojekte gestartet, die zentrale Fragen an der Schnittstelle von Cybersecurity und KI untersuchen sollen.
Wie kann KI genutzt werden, um problematische Inhalte wie Hassrede online zu moderieren? Welche Datenschutzrisiken bestehen bei “General Purpose”-KI-Modellen, wie werden diese in Europa wahrgenommen? Und nach welchen Mustern erfolgen Cyberangriffe auf Large Language Models (LLMs)? Die Arbeit in den sieben Projekten wird von Professor:innen der TUM geleitet und durch deren Teams umgesetzt. Expert:innen von Google stehen jeweils beratend zur Seite. Im Rahmen der Förderung entstehen auch sieben neue Stellen für Doktorand:innen.
Über die sieben Forschungsprojekte
- Sichere Kompilierung leistungsstarker Parallelitätsmodelle (Prof. Pramod Bhatotia): Wie kann gewährleistet werden, dass die für Parallel-Computing-Architekturen angepasste Software sicher ist und keine Schwachstellen aufweist?
- Large Language Models (LLMs) für die Analyse von Programmcode im Hinblick auf Sicherheitsschwachstellen und Datenschutzverletzungen (Prof. Claudia Eckert): Wie können mit neuartigen, LLM-basierten, automatisierten Verfahren Datenschutz- und Sicherheitsschwachstellen in sehr große Codebasen effizienter und präziser ermittelt werden?
- Sondenpositionierung (Prof. Georg Sigl): Hardware kann Informationen preisgeben, die von einer elektromagnetischen Sonde ausgespäht werden können. Die Positionierung der Sonde ist ein offenes Problem. Wie kann KI helfen, Seitenkanalmessungen reproduzierbarer und so die Hardware sicherer zu machen?
- Seitenkanalanalyse der Post-Quantenkryptographie (Prof. Georg Sigl): Wie können automatisch alle Seitenkanallecks der Implementierungen von Quantencomputerresistenter Kryptographie erkannt werden?
- Einstellungen verstehen und Akzeptanz von KI-gestützten Ansätzen zur Inhaltsmoderation fördern (Prof. Jens Großklags): LLMs können zur Automatisierung der Moderation von Inhalten eingesetzt werden, um Hassreden, Sexismus oder Cyber-Mobbing im Internet zu erkennen. Doch wie effektiv sind solche KI-gesteuerten Ansätze und wie werden sie von menschlichen Nutzern wahrgenommen?
- Datenschutzrisiken von allgemeinen KI-Systemen: Stakeholder-Perspektiven in Europa (Prof. Florian Matthes). Welche Datenschutzrisiken bestehen in neuen General-Purpose AI (GPAI)-Systemen wie LLMs? Wie werden diese Risiken im europäischen Raum wahrgenommen?
- Angriffe auf Sprachmodelle verstehen (Prof. Stephan Günnemann): LLMs können angegriffen werden – beispielsweise durch böswillige Aufforderungen, private Benutzerdaten preiszugeben. Wir wollen besser verstehen, wie solche Attacken im Allgemeinen funktionieren, was sie in LLMs auslösen und wie man sie verhindern kann.
KI durchdringt unseren Alltag
Prof. Thomas F. Hofmann, TUM-Präsident: „KI hat begonnen, unseren Alltag zu durchdringen. Deshalb ist die Weiterentwicklung von KI-Technologien entscheidend. Damit dies gesellschaftlich akzeptabel ist, müssen diese Technologien möglichst zuverlässig und sicher sein. Gemeinsam mit Google treiben wir diese Entwicklungen voran.“
Statement Dr. Wieland Holfelder, Vice President Engineering & Site Lead Google München: „Fragen rund um Cybersicherheit und Künstliche Intelligenz verschmelzen mehr und mehr miteinander. Wie kann man KI so sicher wie möglich machen? Und wie kann KI helfen, unsere digitale Infrastruktur besser zu schützen? Das sind zentrale Fragen unserer Zeit, nicht zuletzt auf der bevorstehenden Münchner Sicherheitskonferenz. Wir freuen uns, gemeinsam mit der TUM die Forschung zu diesen Schlüsselthemen weiter voranzubringen.“
Zusammenarbeit TUM mit Google
Durch die neue Auftragsforschung im Bereich Cybersicherheit und KI vertiefen TUM und Google ihre Partnerschaft. 2018 wurde Google als erstes nicht-europäisches Unternehmen Exzellenzpartner der Universität. Darüber hinaus unterstützt Google seit 2022 TUM-Initiativen, die Frauen auf ihrem Karriereweg in den MINT-Fächern Mathematik, Informatik, Naturwissenschaften und Technik fördern. Im Februar 2023 wurde von der TUM unter Verwendung einer nicht zweckgebundenen Spende von Google das TUM Innovation Network zum Thema Cybersecurity ins Leben gerufen. Google hat außerdem sein globales Safety Engineering Center in München angesiedelt.