08.10.24, 14:00 Uhr
Unsere [at] Experten Constantin Sanders und Dustin Walker erklären Ihnen anhand praktischer Beispiele, welche neuen Angriffsvektoren existieren, wie diese Angriffe ablaufen und welche Risiken sie bergen. Zudem stellen sie Ihnen modernste Techniken vor, mit denen Sie Ihre (LLM)-Anwendung schützen können. Dabei liegt der Fokus auf den potenziellen Gefahren durch Prompt Injection und den missbräuchlichen Einsatz von LLMs. Des Weiteren zeigen Ihnen unsere Experten, wie Sie Ihre Anwendung wirksam schützen können. Ein besonderes Highlight ist der von [at] erstellte Entscheidungsbaum. Dieser unterstützt Sie dabei, schnell und effektiv zu ermitteln, welche Sicherheitsaspekte für Ihr spezifisches Projekt relevant sind. Mit diesem Tool können Sie gezielte Maßnahmen ergreifen und das Sicherheitsniveau Ihrer GenAI-Anwendungen deutlich erhöhen.
Melden Sie sich jetzt an, um zu erfahren, wie Sie LLM-Sicherheit in Ihrem Projekt erfolgreich umsetzen und so die Grundlage für sichere und leistungsfähige GenAI-Anwendungen schaffen.