#22 Sicherheit von Large-Language-Modellen mit Dr. Lea Schönherr –WomenInCybersecurity
Description
Large-Language-Modelle (LLM) wie Chat GPT sind große generative Sprachmodelle, die mittels künstlicher Intelligenz in der Lage sind, Eingaben in natürlicher Sprache zu verstehen und zu verarbeiten. Sie kommen häufig auch mit komplexen Fragen und Anweisungen zurecht und produzieren Texte in bisher nie dagewesener Qualität. Die den Modellen zugrundeliegenden neuronale Netzwerke und Deep-Learning-Algorithmen können aber noch für sehr viel mehr eingesetzt werden als nur zum Chatten. So gibt es codegenerative Modelle, die – wie die Bezeichnung schon verrät – Code und damit ganze Computerprogramme generieren können. Doch egal ob natürlichsprachliches oder codegeneratives Modell ¬– sie alle haben Schwachstellen. Dr. Lea Schönherr erzählt uns in dieser Folge, wie sie Schwächen und Sicherheitslücken in den Modellen aufspürt, wo sie Gefahren bei der Nutzung von LLM sieht und wie wir als Nutzende damit umgehen können. Außerdem erzählt uns Lea, wie es sich als Elektro- und Informationstechnologin unter Informatiker:innen forscht. Spoiler: Ziemlich entspannt. Das Gespräch wurde in deutscher Sprache geführt. Viel Spaß beim Hören.
Für den Erfolg von Wissenstransfer über IT-Sicherheitsthemen sind die richtigen Partner und die passgenaue Ansprache in der Beratung entscheidend. Dies für kleine und mittelständische Unternehmen umzusetzen, ist Auftrag des DAISEC in Hannover, dem Digital Innovation Hub für KI und...
Published 11/04/24
Unsere Sommer-Konferenzreihe 2024 geht mit einem Knall zu Ende, oder eher gesagt mit ein paar mehr – im Hintergrund unserer Aufnahme. Denn das USENIX Security Symposium 2024 in Philadelphia war ziemlich gut besucht und einen geeigneten Ort für die Aufnahme zu finden, nicht ganz so einfach. Aber...
Published 10/08/24