Wir haben uns gemeinsam auf ein Abenteuer begeben und einen Tag lang erkundet, wie KI uns im Job unterstützen kann – ganz ohne Ziel und ganz ohne Druck.
Lernen mal anders: experimentell, selbstbestimmt, als Team
Was spielerisches Experimentieren mit Weiterbildung, Mitarbeiterentwicklung und Skill-Training zu tun hat, erzählen wir euch in diesem Beitrag über eine weitere Ausgabe unserer Initiative „Gemeinsam Lernen“. Wir haben mitten in der Woche eine Auszeit vom beruflichen Alltag genommen, um gemeinsam Neues zu entdecken. Einfach mal ausprobieren, ohne Ergebnisdruck – einen Tag lang ging es bei uns nicht um Perfektion oder Performance, sondern um Neugier!
Raus aus dem Alltag, rein ins Experimentieren – oder: ein Mittwoch der anderen Art
Eigentlich war es ein ganz normaler Mittwochmorgen – und dann doch wieder nicht. Unser Team kam im Meetingraum zusammen, ein Kick-off für einen etwas anderen Arbeitstag. Dieses Mal geht es nicht um Tickets, Deadlines oder Kundentermine, sondern um Neugier, Entdeckung und spielerisches Ausprobieren. Die Freiheit, sich acht Stunden lang intensiv mit einem neuen Thema zu beschäftigen – ohne ein bestimmtes Ziel. Im Mittelpunkt stand das spielerische Erlernen neuer Fähigkeiten, das Ausprobieren, der Perspektivenwechsel und das Erweitern des Horizonts.
„AI als Unterstützer im Beruf“ – das Thema ist allgegenwärtig und doch für viele noch eine Unbekannte. Klar, wir setzen KI schon täglich ein, aber da gibt es noch so viel mehr zu entdecken. Nach einer kurzen gemeinsamen Einstimmung ins Thema konnte jede:r selbstständig mit einem Aspekt arbeiten – ob Tools, Workflows, ethische Fragen oder eigene Experimente. Beliebige Anwendungsszenarien oder Fragestellungen, Development, Ethik, Kreativität oder Produktivität – es gab kein enges Korsett. Nach dem Intro stellte jede:r kurz vor, woran er oder sie heute arbeiten möchte.
Wie bei Guid.New generell üblich, gab es auch hier maximale Flexibilität: Wenn man beim Tun merkte, dass ein anderer Aspekt spannender ist – einfach loslegen. Wer wollte, konnte sich mit Kolleg:innen zusammentun oder sich allein vertiefen. Denn vor allem ging es auch um den Austausch untereinander. Gut, es gab dann doch ein Ziel: Am Ende des Tages stellten wir uns gegenseitig vor, was wir entdeckt oder ausprobiert hatten.
Hands-on, bitte!
Theorie ist fein – but we love to get our hands dirty. Also ging es nach dem kurzen Kick-off direkt los in die praktische Erkundungsreise. Schon bei der Vorstellung der Ideen war zu sehen, wie breit das Themenspektrum sein würde: von Vibe Coding mit Windsurf, KI im Recruitingprozess, lokalen KI-Modellen, ethischen Fragestellungen und der Zukunft unserer Branche bis hin zur automatisierten Testgenerierung mit KI für .NET Web APIs war alles dabei.
Dann wurde auch direkt losgelegt: Es wurde gebastelt, Tools ausprobiert, getestet, experimentiert, verworfen, Neues entdeckt, Themen getauscht, weitergesponnen – und ganz nebenbei hat man sich Wissen angeeignet. Über neue Wege, alltägliche Herausforderungen im Workflow zu lösen, Tools, die überraschend gut oder gar nicht zu einem passen, und Erkenntnisse wie: „Ah, so könnte das gehen – oder nein, eben auch nicht.“
Von Hundebildern bis GitHub-Hacks – unser vielfältiges KI-Abenteuer
Stellvertretend für die vielen kreativen Projekte, die unser Team an diesem Tag so ganz nebenbei beim Ausprobieren erarbeitet hat, wollen wir euch vier näher vorstellen.
Automatisierte Unit-Tests mit JetBrains AI Assistant
David hat sich dem Thema gewidmet, wie gut der AI Assistant von JetBrains aktuell in der Lage ist, automatisch Unit-Tests mit dem Testframework xUnit zu erstellen. Dafür nutzte er JetBrains Rider als Entwicklungsumgebung, den integrierten JetBrains AI Assistant, xUnit.NET als Testframework und ein kleines, selbst erstelltes C#/.NET-Projekt mit mehreren Klassen und Business-Logik. Den AI Assistant bat er, automatisch passende Unit-Tests für ausgewählte Methoden zu generieren. Das Ergebnis wurde analysiert: Die Tests waren zum Großteil funktionsfähig und korrekt, jedoch nicht alle fehlerfrei – es gab z. B. falsche Berechnungen oder Konstruktor-Aufrufe. Die Abdeckung war insgesamt gut, Randfälle wurden aber kaum erkannt. Besonders spannend: Der Assistant versteht die Codebasis und erkennt Zusammenhänge sehr gut – wenn auch nicht immer vollständig korrekt. Das spart Zeit beim initialen Schreiben von Tests, ersetzt aber keinesfalls eine manuelle Kontrolle. Sein Fazit: Ein hilfreiches Werkzeug, das für den produktiven Einsatz aber Nachbearbeitung braucht.
Vibe Coding mit Gemini und Angular
Michael hat Vibe-Coding mit Hilfe des Google Gemini Assistant ausprobiert und damit eine Angular-Applikation gebaut, die über eine öffentliche API zufällige Bilder von Hunden einer gewählten Hunderasse anzeigt. Für diese Anwendung ließ er sich von der KI Unit-Tests für Komponenten generieren und überprüfte, ob diese funktionieren, sinnvoll sind und die verwendeten Services korrekt gemockt wurden. Dabei experimentierte er mit unterschiedlichen LLMs, verglich ihre Ansätze und lernte, wie unterschiedlich KIs bei derselben Aufgabenstellung agieren können.
Webanwendung mit Sprache steuern – mit Windsurf & GPT-4.1
Patrick hat sich ebenfalls dem Thema Vibe Coding gewidmet. Mit dem Code Editor Windsurf und GPT-4.1 ließ er sich eine Webanwendung mit Angular und Firebase erstellen – und das rein über natürliche Sprache (Prompts). Ziel war es, möglichst wenig selbst zu programmieren. In 95 % der Fälle funktionierte das sehr gut, bei einigen Punkten musste er dann doch noch selbst Hand anlegen, etwa wenn Anweisungen ignoriert wurden. Seine Learnings: Man kann heute schon unglaublich viel und schnell erstellen lassen, auch ohne tiefes technisches Wissen – ganz ohne geht es dann aber doch nicht. Der generierte Code funktionierte, war aber oft nicht besonders „schön geschrieben“ und wich teils stark von Best Practices und Coding Guidelines ab. Sein Fazit: Für schnelle Proof of Concepts ist diese Herangehensweise ein durchaus gangbarer Weg.
GitHub-Issues automatisch schreiben mit KI-Tool Calls
Vladimir hat sich ein Tool gebaut, das für ihn GitHub-Issues automatisiert schreibt – basierend auf einer Beschreibung und Kontext-Erweiterungen durch sogenannte Tool Calls. Wenn die LLM erkennt, dass ihr Informationen fehlen, holt sie sich automatisch zusätzliche Inhalte aus verwandten Issues. Schließlich erstellt sie selbstständig das neue Issue – inklusive Beschreibung und Formatierung. Die Integration realisierte Vladimir mit Semantic Kernel (Microsoft Library), als Modell kam Grok-3 von xAI zum Einsatz. Sein Fazit: Wenn man Entwickler ist, kann man erstaunlich leicht eine gewisse Deterministik in LLM Agents einbauen – und so ermöglichen, dass sie verlässlich mit der Welt außerhalb der Chatbox interagieren.
Unser Fazit: Wir werden weiter auf Entdeckungsreise gehen!
Wie ihr euch anhand der vier Beispiele sicher vorstellen könnt, gab es am Ende des Tages eine bunte Mischung an Präsentationen – von Live-Demos bis zu Konzept-Slides. Ein Tag voller freier Exploration, kreativer Projekte und neuem Wissen. Der kurze Deep Dive in ein neues Thema hat das Team im Gesamten und auch jede:n individuell darin unterstützt, die eigenen Skills zu erweitern. Was neben dem so nebenbei erlangten Wissen bleibt, ist die Lust auf mehr: Wir werden es wieder tun – und uns einmal im Quartal einen Tag „rausnehmen, um ganz tief einzutauchen“. Also lasst euch überraschen, welchen Themen wir uns in Zukunft widmen.