News

AI Agent Praktikum Insights

KI, LLMs, n8n und AI Agents: Kiyan berichtet, was er im Praktikum über Prompting, Automatisierung, Datenschutz und produktive Agentensysteme gelernt hat.

IMG_9147IMG_9147

Sechs Wochen KI, LLMs und AI Agents: Was Kiyan im Praktikum wirklich gelernt hat

Ein Praktikum kann vieles sein. Reinschnuppern. Zuschauen. Mal ein bisschen mitlaufen.
Oder es kann genau das Gegenteil sein: tief eintauchen, mitdenken, verstehen, ausprobieren und aus Theorie echte Praxis machen.

Für Kiyan waren die vergangenen sechs Wochen genau so eine Zeit. Kein oberflächlicher Überblick, kein netter Ausflug in ein Trendthema, sondern eine intensive Auseinandersetzung mit Künstlicher Intelligenz, Large Language Models, AI Agents und der Frage, wie aus technischer Möglichkeit ein produktives System wird.

Besonders wertvoll war dabei die enge Zusammenarbeit mit Frederik Horn, TÜV-geprüfter AI Consultant und AI Agent Builder. Im Mittelpunkt stand nicht nur das reine Verstehen von KI-Grundlagen, sondern vor allem das systematische Arbeiten mit den Bausteinen, die in der Praxis wirklich zählen: Prompting, APIs, strukturierte Daten, Authentifizierung, Fehlerbehandlung, Datenschutz, Automatisierung und die konkrete Entwicklung von AI-Agent-Systemen.

Denn genau da trennt sich inzwischen vieles. Zwischen „wir haben auch mal ChatGPT ausprobiert“ und „wir bauen robuste KI-Workflows, die Unternehmen wirklich entlasten“ liegt eine Menge Handwerk. Und dieses Handwerk lernt man nicht, indem man nur über KI redet. Man lernt es, indem man Systeme versteht, sauber denkt und konkrete Use Cases umsetzt.

IMG_9101

Das Fundament: AI Basics, Prompting und LLM-Verständnis

Bevor man AI Agents baut, muss man das Fundament beherrschen. Sonst entsteht schnell ein Kartenhaus aus Hoffnung, Tool-Hype und halbgaren Ergebnissen.

Künstliche Intelligenz verstehen, bevor man sie einsetzt

Der Einstieg begann deshalb bei den AI Basics. Also bei den Dingen, die heute oft übersprungen werden, obwohl sie entscheidend sind. Was ist ein Modell? Wie unterscheiden sich klassische Automatisierungen von KI-gestützten Prozessen? Warum erzeugen Large Language Models nicht einfach „Wissen“, sondern wahrscheinlichkeitsbasierte Sprache? Und weshalb ist Kontext in der Arbeit mit LLMs so entscheidend?

Wer das versteht, bewertet Ergebnisse anders. Dann wirkt ein KI-Output nicht mehr magisch, sondern nachvollziehbar. Genau das ist wichtig, wenn man später Systeme bauen will, die belastbar sein sollen.

Prompting ist kein Trick, sondern Systemarbeit

Ein weiterer Schwerpunkt war das Prompting. Auch hier gilt: Wer Prompting auf ein paar nette Formulierungen reduziert, macht es sich zu leicht.

Gutes Prompting bedeutet, Anforderungen klar zu formulieren, Rollen sauber zu definieren, Kontext sinnvoll mitzugeben und Ausgabeformate so festzulegen, dass das Ergebnis weiterverarbeitet werden kann. Das ist nicht nur eine kreative Aufgabe, sondern eine strukturelle.

Gerade bei produktiven AI-Agent-Systemen ist das entscheidend. Ein Prompt muss nicht nur gut klingen. Er muss verlässlich funktionieren. Er muss auf unterschiedliche Eingaben reagieren können. Er muss Fehlverhalten abfangen. Und er muss in einen größeren Prozess passen.

Kiyan konnte in diesem Bereich lernen, dass Prompting immer auch Schnittstellendenken ist. Zwischen Mensch und Modell. Zwischen Aufgabe und Ausgabe. Zwischen Idee und Automatisierung.

LLMs in der Praxis bewerten

Ebenso wichtig war das Verständnis für verschiedene LLMs und ihre Stärken in unterschiedlichen Use Cases. Nicht jedes Modell ist automatisch die beste Wahl. Manche Modelle sind schnell, andere besonders stark in Struktur, Analyse oder Textqualität. Manche eignen sich besser für Routing-Entscheidungen, andere eher für Recherche, Zusammenfassung oder komplexere Reasoning-Aufgaben.

Die passende Modellauswahl ist deshalb kein Detail, sondern Teil der Architektur. Wer hier sauber entscheidet, spart später Zeit, Kosten und Nerven.

Von der Theorie in die Umsetzung: APIs, strukturierte Daten und robuste Prozesse

Spätestens wenn KI in echte Abläufe eingebunden wird, hört das reine Ausprobieren auf. Dann zählen technische Sauberkeit und Prozessdisziplin.

APIs: Die Verbindung zwischen Modell und System

Ein großer Teil moderner KI-Anwendungen läuft über APIs. Sie verbinden Modelle mit Tools, Datenquellen, Kommunikationskanälen und Geschäftsprozessen. Genau deshalb war das Arbeiten mit APIs ein zentraler Baustein im Praktikum.

Denn AI Agents leben nicht davon, dass ein Modell „schlau klingt“. Sie entfalten ihren Wert erst dann, wenn sie in Systeme eingebunden sind, Aufgaben weiterreichen, Daten verarbeiten und Ergebnisse an der richtigen Stelle verfügbar machen.

Wer APIs versteht, denkt automatisch systemischer. Dann ist KI nicht mehr nur ein Chatfenster, sondern Teil eines digitalen Ablaufs.

Strukturierte Daten statt schöner Worte

Einer der wichtigsten Lerneffekte in der praktischen Arbeit mit LLMs ist die Bedeutung strukturierter Daten. Freitext kann beeindrucken. Struktur bringt Nutzen.

Wenn ein Modell Informationen extrahieren, klassifizieren, priorisieren oder in nachgelagerte Systeme übergeben soll, dann braucht es klare Formate. JSON, definierte Felder, saubere Labels, feste Entscheidungslogiken: Genau hier beginnt die produktive Arbeit.

Das ist ein Punkt, den viele unterschätzen. Ein Agent ist nur dann brauchbar, wenn seine Ausgabe maschinenlesbar und weiterverwertbar ist. Nicht „klingt gut“, sondern „funktioniert im Prozess“ ist der Maßstab.

Authentifizierung und Fehlerbehandlung gehören von Anfang an dazu

Sobald Systeme miteinander sprechen, wird es ernst. Dann geht es nicht mehr nur um einen gelungenen Prompt, sondern auch um Zugriffe, Berechtigungen, Fehlermeldungen, Timeouts, Fallbacks und sauberes Exception Handling.

Auch diese Themen waren Teil des Praktikums. Und genau das ist in der Praxis Gold wert. Denn produktive AI-Systeme scheitern selten an der ersten Demo. Sie scheitern an den Rändern: wenn ein Dienst nicht erreichbar ist, wenn Datenformate unerwartet sind, wenn Tokens fehlen, wenn ein Modell nicht antwortet oder wenn Eingaben unvollständig sind.

Wer Fehlerbehandlung früh mitdenkt, baut robuster. Und wer robust baut, liefert Systeme, die im Alltag bestehen.

Datenschutz ist kein Nachtrag

Besonders wichtig: Datenschutz war kein Randthema, sondern fester Bestandteil der Auseinandersetzung mit KI-gestützten Prozessen.

Das ist richtig so. Gerade beim Einsatz von AI Agents im Unternehmenskontext müssen Datenflüsse verstanden, Risiken bewertet und sensible Informationen geschützt werden. Wer Datenschutz erst am Ende „noch kurz mit erledigen“ will, baut an der Realität vorbei.

Im Praktikum wurde klar: Gute KI-Systeme sind nicht nur leistungsfähig, sondern auch verantwortungsvoll gedacht.

IMG_9163IMG_9163
Screenshot 2026-03-14 at 11.03.20

Schwerpunkt AI Agents: Wenn aus einem Modell ein System wird

Der vielleicht spannendste Teil des Praktikums lag im Building von AI Agents. Denn hier wird KI konkret.

AI Automations und AI Agents: ein Unterschied mit Folgen

Ein zentrales Thema war die Unterscheidung zwischen AI Automations und AI Agents. Das klingt erstmal ähnlich, ist in der Praxis aber etwas völlig anderes.

Eine AI Automation folgt meist einem festen Ablauf. Trigger rein, definierter Prozess, Ergebnis raus. Das ist oft effizient und für viele Aufgaben genau richtig.

Ein AI Agent hingegen arbeitet flexibler. Er bewertet Kontext, trifft Entscheidungen innerhalb eines definierten Rahmens, greift auf Werkzeuge zu, verarbeitet Zwischenschritte und kann je nach Aufgabe unterschiedliche Wege gehen.

Der Unterschied ist wichtig, weil nicht jeder Use Case einen Agenten braucht. Manchmal reicht eine schlanke Automatisierung. Manchmal ist aber genau die agentische Struktur notwendig, weil Entscheidungen, Priorisierung oder mehrstufige Verarbeitung gefragt sind.

Diese Unterscheidung sauber zu treffen, ist bereits ein Qualitätsmerkmal in der Planung.

Agent Prompting: klar, präzise, belastbar

Ein Agent braucht einen guten Prompt. Aber eben nicht irgendeinen. Agent Prompting bedeutet, Verhalten zu definieren. Ziele, Regeln, Grenzen, Werkzeuge, Eskalationslogiken und Ausgabeformate müssen so beschrieben sein, dass der Agent nicht nur „irgendwie antwortet“, sondern verlässlich handelt.

Das ist anspruchsvoller als klassisches Prompting. Denn ein Agent arbeitet nicht isoliert, sondern eingebettet in einen Ablauf. Er muss Prioritäten einhalten, auf Fehler reagieren, gegebenenfalls Rückfragen auslösen und sauber dokumentieren, was er tut.

Gerade an dieser Stelle zeigt sich, wie wichtig sauberes Denken ist. Gute Agenten entstehen nicht durch Zufall. Sie sind das Ergebnis klarer Systemlogik.

Single-Agent oder Multi-Agent?

Ein weiterer Schwerpunkt war die Unterscheidung zwischen Single-Agent- und Multi-Agent-Architekturen.

Ein Single-Agent-System kann sehr stark sein, wenn Aufgaben überschaubar sind und eine zentrale Instanz genügt. Es ist meist einfacher zu entwickeln, leichter zu warten und für viele Anwendungsfälle völlig ausreichend.

Sobald Aufgaben komplexer werden, kann ein Multi-Agent-Ansatz sinnvoll sein. Dann übernimmt nicht ein Agent alles, sondern mehrere spezialisierte Agenten arbeiten zusammen. Einer analysiert, einer recherchiert, einer bewertet, einer formuliert, einer kontrolliert. Das kann leistungsfähiger sein, erhöht aber auch die Komplexität deutlich.

Im Praktikum ging es genau um diese Abwägung. Nicht „mehr Agenten ist besser“, sondern „welche Architektur ist für den jeweiligen Use Case sinnvoll?“ Das ist die richtige Frage.

Multi-Agent-Orchestrierung: Zusammenarbeit braucht Struktur

Mehrere Agenten einzusetzen klingt schnell beeindruckend. In der Praxis braucht es dafür vor allem eines: Orchestrierung.

Wer übergibt wann an wen? Welche Informationen werden mitgegeben? Wer validiert Ergebnisse? Wann wird gestoppt? Wann eskaliert? Welche Rolle übernimmt der Mensch im Prozess?

Genau das macht Multi-Agent-Systeme spannend, aber auch anspruchsvoll. Denn sobald mehrere Instanzen zusammenarbeiten, steigen Anforderungen an Steuerung, Transparenz und Fehlerkontrolle.

Kiyan konnte sich mit diesen Konzepten praktisch auseinandersetzen und dabei erleben, dass gute Orchestrierung oft wichtiger ist als spektakuläre Einzelprompts.

Human in the Loop bleibt in vielen Fällen Pflicht

Ein besonders relevanter Punkt war das Thema Human in the Loop. Auch das ist in der Praxis entscheidend.

Nicht jede Entscheidung sollte vollautomatisch getroffen werden. Gerade bei sensiblen Vorgängen, bei extern wirkender Kommunikation oder bei risikobehafteten Prozessen braucht es bewusst gesetzte Prüfpunkte. Der Mensch bleibt dann Teil des Systems, nicht als Bremsklotz, sondern als Qualitätssicherung.

Das ist keine Schwäche von KI. Das ist professionelles Systemdesign.

Wer Human-in-the-Loop-Konzepte klug integriert, schafft Vertrauen, erhöht die Ergebnisqualität und reduziert Risiken. Gerade im Mittelstand ist das oft der sinnvollste Weg zwischen Effizienz und Kontrolle.

AI Agents sind dann stark, wenn sie sauber gebaut sind

Das Praktikum von Kiyan zeigt sehr deutlich, worauf es bei moderner KI-Arbeit ankommt. Auf solides Verständnis. Auf praktische Umsetzung. Auf technische Sauberkeit. Und auf die Fähigkeit, zwischen Hype und belastbarem System zu unterscheiden.

Die Arbeit mit Künstlicher Intelligenz, LLMs, n8n und AI Agents ist spannend, keine Frage. Aber wirklich wertvoll wird sie erst dann, wenn aus Möglichkeiten produktive Lösungen werden.

Genau darin lag der besondere Wert dieser sechs Wochen: ein tiefer, praxisnaher Einblick in ein Feld, das gerade erst anfängt, sein Potenzial im Unternehmensalltag wirklich zu entfalten.


Häufig gestellte Fragen

Man lernt im Idealfall nicht nur, wie man mit einem Modell chattet, sondern wie komplette KI-gestützte Prozesse aufgebaut werden. Dazu gehören Grundlagen in LLMs, Prompting, APIs, strukturierte Daten, Datenschutz, Fehlerbehandlung und Automatisierung.

Eine AI Automation folgt meist einem festen Ablauf. Ein AI Agent kann innerhalb definierter Regeln flexibler entscheiden, Werkzeuge nutzen, Zwischenschritte ausführen und kontextbezogen handeln. Nicht jeder Use Case braucht einen Agenten.

Weil sie Modelle mit anderen Systemen verbinden. Erst durch APIs wird aus einem Modell ein Bestandteil eines echten Workflows, zum Beispiel für E-Mail-Verarbeitung, CRM-Anbindung oder Ticket-Routing.

Weil reale Systeme nie unter perfekten Bedingungen laufen. Dienste fallen aus, Eingaben sind unvollständig, Datenformate ändern sich. Wer Fehlerbehandlung einplant, baut deutlich robustere Lösungen.

Das bedeutet, dass an bestimmten Stellen im Prozess bewusst ein Mensch eingebunden bleibt. Zum Beispiel zur Freigabe, Kontrolle oder Eskalation. Das erhöht Qualität und Sicherheit.

Das ist die strukturierte Steuerung mehrerer Agenten innerhalb eines Systems. Dabei wird festgelegt, wer wann welche Aufgabe übernimmt, wie Informationen übergeben werden und wann gestoppt oder eskaliert wird.

n8n eignet sich sehr gut, um Workflows, Schnittstellen, Trigger, Logiken und Integrationen sichtbar und praktisch umzusetzen. Besonders bei Automatisierungen und KI-gestützten Prozessen ist das hilfreich.

Oft sind E-Mail-Automatisierungen, Support-Routing, interne Recherche, Wissensaufbereitung, Zusammenfassungen oder vorbereitende Assistenzaufgaben gute Einstiege.

Weil viele KI-Anwendungen mit sensiblen oder personenbezogenen Daten arbeiten. Datenschutz muss deshalb früh mitgedacht werden, nicht erst kurz vor dem Livegang.


Datenschutz Fortbildung Rund um uns Wir helfen
Frederik Horn

Autor:
Frederik Horn
Chief Executive Officer (CEO)
Datenschutzbeauftragter DSB TÜV, AI Consultant TÜV

Fred ist Visionär und Gründer von netinsiders. Seine Leidenschaft: Jedes Unternehmen oder Projekt unserer Kunden durch einfache und effiziente digitale Software und Tools auf Online Erfolg zu polen.

Erstellt: 15.03.2026
Letzte Aktualisierung: 15.03.2026