So geht's: mein persönlicher Chatbot auf meinem Blog

Ich habe meinen AI-Persona-Bot an einem Nachmittag gebaut. Die eigentliche Arbeit war die Grundlagen zu schaffen für, was er wissen soll, wie er sich verhalten soll, und wie man sicherstellt, dass er das auch wirklich tut.

So geht's: mein persönlicher Chatbot auf meinem Blog
Das Bild mit mir ist natürlich KI-generiert.

Was ist das für ein Bot auf meinem Blog?

Der Bot war ein Mini-Projekt für den Eigenbau eines möglichst einfach gehaltenen Persona-Bots. Das Vorhaben verfolgte zwei Ziele:

  1. wer mehr über mein berufliches Schaffen wissen will, kann einfach eine Frage stellen.
  2. den Chatbot ohne Frameworks und ohne Drittsoftware zu realisieren. Ausgenommen vom Infrastruktur- und dem AI-Provider natürlich.

Wie funktioniert so ein Bot überhaupt?

Im Hintergrund läuft ein GenAI-Sprachmodell (LLM) – in diesem Fall Claude von Anthropic. Dieses wird mit einer Beschreibung zu meiner Person, meiner Arbeit und den Verhaltens-Instruktionen gefüttert. Auf dieser Basis ist das Modell in der Lage zu antworten.

Im Grundsatz funktioniert jeder Chatbot so. Sei es ein Chatbot zu einem Unternehmen, Produkten, ... Was sich ändert sind die technischen Aspekte, je nach Datenumfang und Sicherheitsaspekten.

Kann der Bot Dinge erfinden oder falsche Informationen verbreiten?

Das ist immer eine der grössten Sorgen - wie sicher und genau ist der Bot. Kann man ihn kontrollieren, beginnt er zu halluzinieren und wie genau folgt er meinen Instruktionen? Deshalb habe ich den Bot explizit darauf beschränkt, ausschliesslich auf Basis meiner Informationen zu antworten. Was dort nicht steht, soll er nicht beantworten und auch nicht im Internet recherchieren. Ob das immer funktioniert... lass es uns rausfinden 😄

Wozu mein Persona-Bot

Der Bot hat einen klaren, bewusst engen Zweck: Er kommuniziert berufliche Informationen über mich – meinen Werdegang, meine Erfahrungen, meine Projekte und Branchenkenntnisse. Er ist keine Suchmaschine über meine Posts, kein Support-Bot, und kein Lead-Formular. Einfach eine lebendige Visitenkarte.

Wer auf meinem Blog landet und wissen will wer hier schreibt und über welche Expertise ich verfüge um einen solchen Blog zu schreiben, soll in meinem Persona-Blog Antworten dazu finden.

Der technische Aufbau

Zur Realisierung habe ich Claude Code eingesetzt. Das ist der einfache Teil und hat bestätigt, dass man so einen einfachen Bot ohne Drittsoftware realisieren. Die Architektur ist schlank gehalten. Die Lösung baut auf den folgenden drei Komponenten auf.

Frontend: das Chat-Fenster

Ein Vanilla-JS-Widget. Eine einzelne JavaScript-Datei mit eingebettetem CSS, die per Script-Tag in Ghost eingebunden wird. Kein React, kein Framework. Das Widget hält den Gesprächsverlauf im Browser-Speicher und sendet bei jeder Nachricht die komplette History an den Worker. Der Gesprächsverlauf wird bewusst nicht gespeichert und geht beim Neuladen der Seite verloren. Was wichtig ist: nicht vergessen für Smartphones zu optimieren.

Backend: Worker nicht Server

Ein Cloudflare Worker als Backend. Der Worker nimmt die Chat-Nachrichten aus dem Frontend entgegen, leitet sie an die Anthropic API weiter und streamt die Antwort zurück. Cloudflare Workers sind serverlose Funktionen, die weltweit auf Cloudflare's Edge-Netzwerk laufen – ohne Server, ohne Deployment-Overhead, ohne Kaltstart-Probleme. Der kostenlose Plan reicht für 100'000 Requests pro Tag. Ich wünschte, ich hätte so viele Blog-Besucher die diesen Traffic generieren.

GenAI: Anthropic Message API

Die Anthropic Messages API. Ein einzelner POST-Request mit dem Gesprächsverlauf und einem System-Prompt – das ist alles. Die API unterstützt Streaming nativ, was bedeutet, dass Token für Token beim User ankommen statt dass er auf die komplette Antwort wartet. Für ein Chat-Widget ist das entscheidend für das Gefühl der schnellen Interaktion.

Dauer & Kosten

Der gesamte Aufbau war an einem Vormittag realisiert. Deploy per CLI direkt aus Claude Code, keine Infrastruktur die gewartet werden muss, keine monatlichen Fixkosten von Software-Lösungen oder Abos.

Das einzige was Kosten verursacht ist die Nutzung des LLM über die API.

Das AI-Engineering

1. Die Daten

Die einfache Aufgabe eines Chatbots verdeutlicht wie wichtig die Daten sind und wieso ohne Daten keine guten AI-Use Cases möglich sind. Die Daten sind auch für dieses Vorhaben von essenzieller Bedeutung.

Bevor ich überhaupt einen einzigen Prompt schreiben konnte, musste ich mir eine grundlegende Frage stellen: Was soll der Bot eigentlich wissen – und in welcher Form?

Mein erster Versuch war ein LinkedIn-Export. Das Ergebnis war ein AI-Assistent, der klang wie ein schlecht formatiertes PDF. Vollständig, aber flach. Keine Persönlichkeit, keine Prioritäten, kein Kontext.

Die eigentliche Arbeit war, aus meinem beruflichen Werdegang eine strukturierte Wissensbasis zu machen: Was ist relevant für wen? Welche Projekte illustrieren meine Expertise am besten? Wie beschreibe ich meine Positionierung so, dass ein Modell daraus authentische Antworten ableiten kann?

Das ist keine technische Aufgabe. Das ist Selbstreflexion.

2. Der System Prompt

Ein System Prompt ist die Instruktion, die dem Modell sagt, wie es sich verhalten soll. Das ist mit Abstand der komplexeste Task in diesem Vorhaben und von zentraler Bedeutung.

Rolle klar definieren: Spricht der Bot als Adriano in der ersten Person, oder ist er ein Assistent der über Adriano berichtet? Beide haben ihre Berechtigung – aber das Modell muss es wissen, sonst wechselt es munter zwischen beiden.

Tonalität konkretisieren: "Freundlich und professionell" ist zu vage. "Direkt, maximal 4 Sätze, kein Marketingsprech, Du-Form" gibt dem Modell etwas zum Festhalten.

Beispielantworten einbauen: Das war der grösste Hebel. Konkrete Frage-Antwort-Paare zeigen dem Modell wie eine gute Antwort aussieht – wie es auf Preisfragen reagiert, auf Off-Topic-Anfragen, auf persönliche Fragen. Das Modell orientiert sich stark an diesen Mustern.

Grenzen explizit machen: Was der Bot nicht tun soll, ist mindestens so wichtig wie was er tun soll.

Prompt Engineering ist Key und es gibt genügend Best-Practices und Vorlagen/Canvas. Aber zusammen mit den Daten und dem Modell ist es immer auch Trial-and-Error bis die Antworten sich richtig anfühlen – und "richtig" ist subjektiv.

3. Guardrails und Kostenkontrolle

Einen Bot öffentlich zugänglich zu machen bedeutet: Jeder kann ihn aufrufen. Das hat Konsequenzen für Kosten und Verhalten.

Rate Limiting war der erste Schritt – maximal 20 Requests pro Minute pro IP-Adresse. Cloudflare Workers hat dafür eine native Option, die ohne externe Datenbank funktioniert.

Context Window Management: Der Gesprächsverlauf wird bei jedem Request mitgeschickt. Ohne Begrenzung wächst er unbegrenzt – bis er entweder zu teuer oder zu gross wird. Die Lösung: maximal 20 Nachrichten History, maximal 2000 Zeichen pro Nachricht.

Modellwahl: Für einen Persona-Bot braucht es nicht ein Top-Modell. Claude Sonnet liefert vergleichbare Qualität bei einem Bruchteil der Kosten.

Spend Limits: Zusätzlich zu allem technischen Schutz habe ich im Anthropic Console ein monatliches Hard Limit gesetzt. Das ist die letzte Verteidigungslinie – unabhängig davon was im Code passiert.

Ist dieses Setup absolut sicher - sicher nicht. Reicht aber für meinen Persona-Bot.

Fazit

Meine beiden Ziele konnte ich erreichen. Wer eine beruflich relevante Frage zu meiner Person hat findet Antworten und die Lösung ist ohne Drittsoftware oder Abo realisierbar.

Wer heute einen AI-Chatbot bauen will, hat die Werkzeuge dafür. Die Einstiegshürde ist technisch so niedrig wie nie. Ein funktionierender Bot ist in einem Nachmittag deploybar.

Die eigentliche Investition liegt woanders: in der Frage, was der Bot wissen soll, wie er sich verhalten soll, und wie man sicherstellt, dass er das auch wirklich konsistent tut.

Überzeug dich selbst – der Bot ist unten links zu finden.

Weiterlesen

Featured Blog Post Bild, bei welchem ein AI Agent mit Stablecoin bezahlt

Die nächste tektonische Verschiebung im digitalen Handel hat begonnen - M2M Commerce: AI Agents zahlen mittels Crypto

Google öffnet den Weg für AI Agents um Zahlungen tätigen zu können Google hat gestern mit AP2 einen neue Spezifikation vorgestellt, welche weit mehr ist als nur ein technisches Feature ist: Mit dem AP2-Protokoll können KI-Agenten nicht nur Informationen austauschen, sondern auch selbstständig Zahlungen abwickeln – über klassische Kreditkarten-Netzwerke und über

lock-1 Adriano Zappacosta