08.10.24, 14:00 Uhr

Online • Alexander Thamm GmbH
Die Integration von Large Language Models (LLMs) in Ihre Anwendungen erfordert die Berücksichtigung neuer Sicherheitsaspekte. Wenn Sie Stakeholder in einem Generative AI-Projekt sind oder es bald werden, ist dieses kostenlose Webinar am 08. Oktober um 14 Uhr genau das Richtige für Sie.

Unsere [at] Experten Constantin Sanders und Dustin Walker erklären Ihnen anhand praktischer Beispiele, welche neuen Angriffsvektoren existieren, wie diese Angriffe ablaufen und welche Risiken sie bergen. Zudem stellen sie Ihnen modernste Techniken vor, mit denen Sie Ihre (LLM)-Anwendung schützen können. Dabei liegt der Fokus auf den potenziellen Gefahren durch Prompt Injection und den missbräuchlichen Einsatz von LLMs. Des Weiteren zeigen Ihnen unsere Experten, wie Sie Ihre Anwendung wirksam schützen können. Ein besonderes Highlight ist der von [at] erstellte Entscheidungsbaum. Dieser unterstützt Sie dabei, schnell und effektiv zu ermitteln, welche Sicherheitsaspekte für Ihr spezifisches Projekt relevant sind. Mit diesem Tool können Sie gezielte Maßnahmen ergreifen und das Sicherheitsniveau Ihrer GenAI-Anwendungen deutlich erhöhen.

Melden Sie sich jetzt an, um zu erfahren, wie Sie LLM-Sicherheit in Ihrem Projekt erfolgreich umsetzen und so die Grundlage für sichere und leistungsfähige GenAI-Anwendungen schaffen.

Alle KI-Events