Prompt Injection

Angriff, bei dem Inhalte die KI „umprogrammieren“ sollen („ignoriere Regeln…“). Schutz durch Trennung von Daten/Anweisungen und Guardrails. Vimmera AI hat spezielle Schutzmechanismen, die diese Art von Angriffen erkennt und sicher ausschließt.