Fachbegriffe

Viele Fachbegriffe sind für Nicht-Fachleute schwer verständlich – das ist uns natürlich bewusst.
Vimmera AI bemüht sich daher, Fachbegriffe so weit wie möglich zu vermeiden und in klarer, alltagsnaher Sprache zu erklären. Manchmal lässt sich Fachsprache jedoch nicht vollständig umgehen oder nur ungenau ersetzen. Deshalb erläutern wir im Folgenden die wichtigsten Begriffe kurz, damit wir sicherstellen, dass wir stets vom Gleichen sprechen und Missverständnisse vermeiden.
Grundlagen
Halluzination
Plausibel klingende, aber falsche Aussagen. In Unternehmensumgebungen wird das durch Wissensbasis, Retrieval und Regeln reduziert bzw. nahezu ausgeschlossen.
KI
Künstliche Intelligenz oder im Englischen AI (artificial intelligence). Sammelbegriff für Systeme, die Aufgaben lösen, die sonst menschliche Intelligenz erfordern (z. B. Sprache verstehen, klassifizieren, sortieren, empfehlen).
Kontextfenster
Das „Arbeitsgedächtnis“ der KI pro Anfrage/Chat. Was nicht im Kontext ist, kann die KI nicht zuverlässig berücksichtigen.
LLM
Large Language Model (LLM). Großes Sprachmodell, das Texte versteht und generiert.
Prompt
Ihre Eingabe/Anweisung an die KI.
Prozess
Bezeichnet einen Vorgang im Unternehmen der beschreibbar ist und z.B. durch den Einsatz von KI unterstützt (assistiert), optimiert oder automatisiert werden kann. Z.B. ist die Angebotserstellung ein Prozess (welcher wiederum in Unterprozesse unterteilt werden kann): Anfrage vom Kunden z.B. per eMail erhalten → Sichtung und Weiterleitung an Fachabteilung → Auswertung der eMail → Suche nach passenden Artikeln und Informationen → Rücksprache mit Kollegen → Angebotserstellung
Temperatur
Parameter, der die Kreativität/Varianz steuert: höher = kreativer, aber potenziell ungenauer; niedriger = präziser/konstanter.
Wissen & Daten
Chunking
Text-Segmentierung. Aufteilen von Dokumenten und Informationen in sinnvolle Abschnitte, damit die KI gezielt passende Stellen findet.
Embeddings
Mathematische Repräsentationen von Textbedeutung. Damit lassen sich ähnliche Inhalte semantisch finden.
Grounding
Geerdete Antworten. Antworten werden auf konkrete, bereitgestellte Unternehmensinhalte gestützt statt „frei“ zu formulieren. Z.B. genutzt für fest definierte Texte oder Informationssammlungen.
Metadaten
Zusatzinfos zu Inhalten (z. B. Abteilung, Gültigkeit, Version, Sprache), um die Suche und Berechtigungen zu verbessern.
RAG
Retrieval-Augmented Generation (RAG ): Die KI sucht zuerst relevante Inhalte aus der Wissensbasis (Retrieval) und formuliert daraus die Antwort (Generation).
Semantische Analyse
Verfahren, die Inhalte nach Bedeutung, Themen und Zusammenhängen auswerten (z. B. zur Strukturierung von Wissen).
Semantische Suche
Suche nach Bedeutung statt nur nach exakten Schlagwörtern – hilfreich bei unterschiedlichen Formulierungen und der Unterschied zu herkömmlichen Datenbanksuchen.
Vektor-Datenbank
Speichert Embeddings, um semantische Suchen schnell und skalierbar zu machen.
Verifiziertes Wissen
Inhalte, die geprüft/kuratiert sind, bevor sie als Antwortgrundlage dienen (statt unkontrollierter Informationen aus einem LLM).
Wissensbasis
Kuratierte, also u.a. aufbereitete und verifizierte Sammlung von Inhalten (Dokumente, FAQs, Prozesse), auf die die KI zugreift, um firmenspezifisch zu antworten.
Automatisierung & Integration
Agentic Workflow
Mehrstufiges Vorgehen: planen → nachschlagen → prüfen → handeln → dokumentieren. Nützlich, aber braucht klare Rechte und Kontrollen.
Connector
Fertige Anbindung an eine Datenquelle oder ein System (inkl. Authentifizierung und Zugriffslogik).
KI-Agent
KI, die zusätzlich Aktionen auslösen kann (z. B. Berechnungen durchführen oder selbstständige Aufgaben erledigen), oft über definierte Tools/Schnittstellen.
KI-Assistent
Interaktives System, das Fragen beantwortet, zusammenfasst oder Vorschläge macht – meist mit Wissensbasis.
MCP
Model Context Protocol. Standardisierter Ansatz, um Tools/Datenquellen sauber anzubinden und kontrolliert nutzbar zu machen.
Read-only vs. Write-Access
Darf die KI nur lesen (sicherer) oder auch schreiben/auslösen (mächtiger, erfordert strengere Kontrollen)?
Schnittstellen
Anbindungen, damit KI mit Systemen wie CRM, Ticketing oder DMS kontrolliert Daten austauschen kann.
Tool Calling
Tool Calling / Function Calling. Fähigkeit der KI, strukturierte Aufrufe an Tools/Schnittstellen zu erzeugen (z. B. Suche, Datenbankabfrage), statt nur Text zu schreiben.
Workflow
Definierter Prozessablauf, den KI unterstützen oder teilweise bzw. vollständig automatisieren kann.
Steuerung, Prompting & Leitplanken
Guardrails
Leitplanken. Technische/organisatorische Regeln, die unerwünschtes Verhalten verhindern (z. B. Datenabfluss, unzulässige Aktionen).
Human-in-the-Loop
Menschliche Prüfung/Bestätigung bei kritischen Fällen (z. B. rechtliche Inhalte, Freigaben).
In-Context Learning
Die KI lernt „im Moment“ aus Beispielen im Prompt/Chat (ohne dauerhaftes Training). Vimmera AI setzt dieses Verfahren eher nicht ein, da es keine besonders guten Ergebnisse liefert.
Output-Constraints
Format-/Regelvorgaben. Vorgaben wie „antworte als JSON“, „max. 5 Bulletpoints“, „nur aus der Wissensbasis“ – macht Ergebnisse oft robuster (bei Vimmera AI z.B. bereits meist integriert).
Prompt Engineering
Methodisches Formulieren von Prompts (Ziel, Rolle, Kontext, Beispiele, Ausgabeformat) für stabilere Ergebnisse.
System Prompt
Übergeordnete Anweisungen, die Verhalten und Grenzen der KI festlegen (Ton, Regeln, Formate). Diesen Systemprompt entwickelt Vimmera AI anhand Ihrer Wünsche und der vorhandenen Daten bzw. zu erledigenden Aufgabe.
Sicherheit, Rechte, Compliance
Audit
Nachvollziehbarkeit. Fähigkeit, Entscheidungen, Datenquellen, Zugriffe und Änderungen nachvollziehen zu können.
Berechtigungskonzept
RBAC (Role-Based Access Control). Rollenbasierte Steuerung: Nutzer sehen nur Inhalte, die sie auch ohne KI sehen dürften.
Data Leakage
Datenabfluss. Risiko, dass vertrauliche Infos ungewollt nach außen gelangen – wird durch Rechte, Isolation, Schutzsysteme und Regeln begrenzt.
Data Minimization
Datenminimierung. Grundsatz: nur so viele Daten wie nötig an die KI geben. Senkt Risiko und verbessert auch die Qualität der Ausgaben.
Datenklassifizierung
Einteilung nach Sensitivität (öffentlich, intern, vertraulich, streng vertraulich), um Zugriffe sauber zu steuern.
DSGVO
Datenschutzgrundverordnung. Regeln für personenbezogene Daten: Zweckbindung, Minimierung, Transparenz, Löschung etc.
EU AI Act
Risiko-Klassifizierung nach EU-Vorgaben. Anforderungen je nach Risikostufe (z. B. Transparenz, Kontrolle, Dokumentation). Dies sind die Leitplanken der KI-Systeme innerhalb der EU.
Mandantentrennung
Strikte Trennung von Bereichen/Kundendaten, damit sich Daten nicht vermischen.
NDA
Verschwiegenheitsvereinbarung. Vertraglicher Rahmen, wenn mit geschäftskritischem Wissen gearbeitet wird. Absoluter Standard bei Vimmera AI. Ohne NDA keine Zusammenarbeit. Eine NDA bietet Ihnen und uns ein Mindestmaß an Sicherheit und bildet unsere gemeinsame Vertrauensgrundlage.
On-Premises
Betrieb in eigener Infrastruktur (z.B. auf Ihren Servern oder sogar Endgeräten wie Laptops), wenn Daten das Unternehmen nicht verlassen sollen.
Prompt Injection
Angriff, bei dem Inhalte die KI „umprogrammieren“ sollen („ignoriere Regeln…“). Schutz durch Trennung von Daten/Anweisungen und Guardrails. Vimmera AI hat spezielle Schutzmechanismen, die diese Art von Angriffen erkennt und sicher ausschließt.
Red Teaming
Gezieltes Testen auf Schwachstellen (Injection, Datenabfluss, falsche Aktionen), um Risiken vor Go-Live zu finden. Ein Standardvorgehen von Vimmera AI bevor ein System für die Nutzung freigegeben wird.
Verschlüsselung
Schutz bei Übertragung (in Transit) und Speicherung (at Rest).
Qualität, Betrieb, Messbarkeit
Chain-of-Thought
Internes Nachdenken. Zwischenschritte, die das Modell intern nutzt. In der Praxis zeigt man eher kurze Begründungen/Prüfschritte statt vollständiger Denkwege.
Confidence
Unsicherheitssignal. Indikator, wie sicher die KI ist (z. B. hoch/mittel/niedrig), um Rückfragen oder Eskalation auszulösen.
DEX-Analyse
Digital Experience/Execution. Messung von Arbeitsrealität und Reibungsverlusten (z. B. Suchzeiten, Toolwechsel) – Bei Vimmera AI als Vorher-Nachher-Vergleich zur Nutzenbelegung.
Evaluation
Qualitätsmessung. Tests auf Richtigkeit, Vollständigkeit, Konsistenz, Regelkonformität und Berechtigungen. Ein Standardverfahren von Vimmera AI bevor ein System zur Nutzung freigegeben wird.
Feedback Loop
Mechanismus, um Nutzerfeedback in Verbesserungen zu überführen (Wissensbasis erweitern, Regeln anpassen).
Go-Live
Rollout. Übergang in den Echtbetrieb und schrittweise Einführung im Unternehmen.
Logs
Protokollierung. Aufzeichnungen über Nutzung und Systemverhalten für Transparenz, Auditierbarkeit und Fehleranalyse.
Monitoring
Laufende Überwachung im Betrieb: Nutzung, Fehler, Antwortqualität, Performance.
Versionierung
Änderungen an Inhalten, Prompts oder Regeln werden versioniert, damit man Stände vergleichen und zurückrollen kann.
Anbieterabhängigkeit & Absicherung
Datenhoheit
Wissen, Daten und Inhalte bleiben Eigentum des Unternehmens und sollten exportierbar/kontrollierbar sein.
Escrow
Hinterlegung. Absicherung für den Ernstfall (z. B. Zugriff auf relevante Artefakte/Komponenten), damit Betrieb nicht am Anbieter hängt. Hiermit ist gemeint, dass z.B. Quellcodes o.ä. von Kundensystemen bei einem Notar hinterlegt werden können, um im Ernstfall einen Zugriff und die Weiternutzung der Systeme zu gewährleisten.
Fine-Tuning
Nachtraining eines Modells auf spezielle Daten, um Verhalten besser zu treffen (aufwendiger als RAG, aber „tiefer“ verankert). Vimmera AI verwendet dieses Verfahren nur auf speziellen Kundenwunsch, da wir hier mehr Nach- als Vorteile sehen.
Vendor Lock-in
Abhängigkeit durch Technik, Datenformate oder Verträge – reduziert durch Standards, Exportwege und Übergabekonzepte.