EVENTS

Webinar - Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst


Online Training
Zurück zu Events
Webinar - Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst

Webinar - Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst

08 Mai
Öffentliche Veranstaltung
Öffentliche Veranstaltung
Willst du wissen, warum LLMs manchmal halluzinieren und wie du dies umgehen kannst? Sichere dir deinen Platz im Webinar – für verlässliche KI-Anwendungen ohne große Überraschungen!

KI-Modelle wie ChatGPT eröffnen faszinierende Perspektiven, liefern aber auch hin und wieder überraschend falsche Antworten, die dennoch überzeugend klingen. Diese sogenannten „Halluzinationen“ sind eine der größten Herausforderungen beim Einsatz von Large Language Models (LLMs).

In unserem Webinar “Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst” zeigt dir mein Kollege Marcus Hanhart (Senior Consultant GenAI), warum Halluzinationen entstehen und wie du sie effektiv in den Griff bekommst.

Erfahre, wie LLM-Modelle aufgebaut sind und warum Halluzinationen auftreten.

Informiere dich, was hinter den Halluzinationen steckt und welche Herausforderungen sie mit sich bringen.

Lerne, wie du robuste Prompts erstellt und Guardrails einsetzt – damit deine KI zuverlässig arbeitet.

Erfahre, mit welchen Tricks deine KI-gestützte Prozessautomatisierung robuster wird.

Webinar - Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst

08 Mai
Öffentliche Veranstaltung

Datum und Uhrzeit
Donnerstag, 8. Mai 2025
09:30 10:15 (Europe/Berlin) Zum Kalender hinzufügen

Standort

Online

--Online--
--Online--
Wegbeschreibung

Organisator

codecentric AG

"Ruben Peters" <ruben.peters@codecentric.de>

Finden Sie heraus, was über diese Veranstaltung gesagt wird und beteiligen Sie sich am Gespräch.