Die wichtigsten Begriffe aus unseren Insights – kurz erklärt.
Agent Architect
Die Weiterentwicklung des Prompt Engineers: Jemand, der KI-Agenten-Teams entwirft, orchestriert und evaluiert.
Agent Loop
Die zentrale Schleife autonomer KI-Agenten: Kontext laden, LLM aufrufen, Tool ausführen, Ergebnis anhängen, wiederholen – bis eine finale Antwort steht.
AI-Agent
Ein KI-System, das eigenständig Aufgaben ausführt, Entscheidungen trifft und Tools nutzt – im Gegensatz zu einem passiven Chatbot.
Autonome Agenten
KI-Agenten, die ohne permanente menschliche Steuerung Aufgaben abarbeiten und Entscheidungen treffen.
Chain of Thought
Eine Prompting-Technik, bei der das LLM seinen Denkprozess Schritt für Schritt offenlegt, um bessere Ergebnisse zu erzielen.
Composable Architecture
Modulare Softwarearchitektur, bei der Systeme aus austauschbaren, spezialisierten Bausteinen zusammengesetzt werden.
Context Window
Die maximale Menge an Text (gemessen in Tokens), die ein LLM bei einer Anfrage gleichzeitig verarbeiten kann.
Cursor
Eine KI-native IDE (Entwicklungsumgebung), die LLMs direkt in den Coding-Workflow integriert.
Defense-in-Depth
Sicherheitsstrategie mit mehreren gestaffelten Schutzschichten, sodass kein einzelner Fehler das gesamte System kompromittiert.
Feedback-Loop
Ein zyklischer Prozess, bei dem Ergebnisse einer KI-Aktion als Input für die nächste Iteration dienen.
Guardrails
Sicherheitsmechanismen, die verhindern, dass KI-Systeme unerwünschte oder gefährliche Aktionen ausführen.
Halluzination
Wenn ein LLM selbstbewusst falsche Informationen generiert, die nicht in den Trainingsdaten oder im Kontext vorhanden sind.
Headless CMS
Ein Content-Management-System ohne eigenes Frontend, das Inhalte ausschließlich über APIs bereitstellt.
Human-in-the-Loop
Ein Architekturprinzip, bei dem ein Mensch als Kontrollinstanz in automatisierte KI-Prozesse eingebunden bleibt.
KRITIS
Kritische Infrastrukturen (z.B. Energie, Wasser, Gesundheit), die besonderen gesetzlichen IT-Sicherheitsanforderungen unterliegen.
LLM (Large Language Model)
Ein großes Sprachmodell (z.B. GPT, Claude, Gemini), das auf Milliarden von Textdaten trainiert wurde.
Low Code
Entwicklungsansatz, bei dem Software überwiegend visuell statt durch manuellen Code erstellt wird.
MACH-Prinzipien
Microservices, API-first, Cloud-native, Headless – Architekturprinzipien für moderne, modulare Systeme.
Manus AI
Autonomer KI-Agent, der Aufgaben Ende-zu-Ende ausführt. 2025 von Meta für ca. 2 Mrd. $ übernommen. Nutzt ein Drei-Agenten-System (Planner, Executor, Verifier).
Master Prompt
Ein verdichteter, strukturierter Prompt, der Zielbild, Constraints und Qualitätskriterien für eine KI-Aufgabe bündelt.
Multi-Agent-System
Eine Architektur, in der mehrere spezialisierte KI-Agenten zusammenarbeiten und Aufgaben untereinander aufteilen.
MVP (Minimum Viable Product)
Die minimal funktionsfähige Version eines Produkts, um schnell Feedback zu sammeln.
n8n
Eine Open-Source Low-Code-Plattform für Workflow-Automatisierung, die sich selbst hosten lässt.
OpenClaw
Ein Multi-Agent-Framework, das KI-Agenten als orchestriertes Assistenzsystem organisiert.
Prompt Engineering
Die Kunst, Eingaben für LLMs so zu formulieren, dass optimale Ergebnisse erzielt werden.
Prompt Injection
Ein Angriffsvektor, bei dem manipulierte Eingaben ein LLM dazu bringen, seine Sicherheitsregeln zu umgehen.
RAG (Retrieval Augmented Generation)
Ein Verfahren, bei dem ein LLM vor der Antwortgenerierung relevante Dokumente aus einer Datenbank abruft.
SaaS (Software as a Service)
Software, die als Abonnement über das Internet bereitgestellt wird, statt lokal installiert zu werden.
Shadow-AI
Unkontrollierte KI-Nutzung durch Mitarbeiter ohne Wissen oder Governance der IT-Abteilung.
Swiss-Cheese-Prinzip
Sicherheitsmodell, bei dem mehrere fehlerhafte Schutzschichten sich gegenseitig ergänzen – die Löcher überlagern sich nicht.
System Prompt
Die versteckte Grundanweisung, die das Verhalten eines LLMs in einer Anwendung definiert.
Technical Debt
Aufgeschobene Architektur- und Code-Verbesserungen, die langfristig die Weiterentwicklung verlangsamen.
Token
Die kleinste Verarbeitungseinheit eines LLMs. Ein Wort entspricht ca. 1–3 Tokens. Tokens bestimmen Kosten und Kontextlimits.
Tool-Calling
Die Fähigkeit eines LLMs, externe Werkzeuge (APIs, Datenbanken, Code) eigenständig aufzurufen und deren Ergebnisse zu verarbeiten.
Vendor Lock-in
Die Abhängigkeit von einem einzigen Softwareanbieter, die einen Wechsel unverhältnismäßig teuer macht.
Vibe Coding
Ein iterativer, KI-getriebener Entwicklungsansatz, bei dem Ergebnisse im Dialog mit LLMs gestaltet werden statt Code manuell zu schreiben.
Workflow Automation
Die systematische Automatisierung wiederkehrender Geschäftsprozesse durch vernetzte digitale Abläufe.
Keine Einträge gefunden.