theNet von CLOUDFLARE

Die KI-Talentfalle

Warum der Geschäftskontext bei der Modernisierung von Anwendungen wichtiger ist als das Programmieren

Die oberste Führungsebene steht vor einem ständigen Paradoxon: Wie kann man den notwendigen Innovationsdruck bewältigen und zugleich die zuverlässige Funktionsweise einer global stark genutzten Infrastruktur sicherstellen? Seit mehr als zehn Jahren stelle ich mich genau dieser Aufgabe. Die Spannung nimmt mit KI-gestützten Anwendungen nur noch zu – eine Entwicklung, die ich bei Caliente.mx über verschiedene Produkte und Plattformen hinweg hautnah miterlebt habe. Dadurch habe ich einen unverfälschten Blick darauf gewonnen, was in großem Maßstab funktioniert – und was zu katastrophalen Ausfällen führt.

Als ich im Cloudflare-Bericht für Anwendungsinnovation 2026 las, dass 87 % der Organisationen ihre internen Kapazitäten für ausreichend halten, um KI-Entwicklung zu unterstützen, fiel mir das sofort auf. Dieses Maß an Zuversicht kann trügen. Meiner Erfahrung nach hängt der Erfolg bei der Einführung von KI davon ab, wie Teams zusammenarbeiten, welches institutionelle Wissen sie mitbringen und ob die Infrastruktur schnelle und sichere Experimente zulässt. Genau darüber habe ich mit Trey Guinn, dem Field CTO von Cloudflare, in der Folge Beyond the App Stack gesprochen – nämlich, dass KI-Kompetenz nicht allein von der Mitarbeiterzahl abhängt.

In den letzten Jahren habe ich bei Unternehmen, die KI einführen wollen, immer wieder dasselbe Muster beobachtet: Die Technologie begeistert, das Talent sieht auf dem Papier überzeugend aus – doch die Resultate bleiben aus. Der wahre Hinderungsgrund für eine erfolgreiche KI-Implementierung liegt nicht in der Technik, sondern in der Strategie. Zu viele Organisationen betrachten KI als binären Zustandentweder man „nutzt KI“, oder man hinkt hinterher. Dieser Druck führt meist zu zwei Reaktionen: Man stellt KI-Experten ein, die das Geschäft nicht kennen, oder entwickelt interne Tools ohne klaren Zweck oder Einführungsstrategie. Beide Wege sind auf Dauer nicht tragfähig.

Die meisten Unternehmen verfolgen bei KI einen von zwei Ansätzen: Entweder sie integrieren sie grundlegend in ihre Produkte oder sie nutzen sie als Werkzeug zur Optimierung interner Abläufe wie HR oder Finanzen. Man könnte annehmen, dass der produktorientierte Ansatz komplexer ist – doch ich sehe größere Risiken bei der internen Einführung. Dort werden Tools oft ohne Schulung verordnet, Erwartungen stimmen nicht überein, und Widerstand in den Teams wächst. Genau dann gerät die Einführung ins Stocken.


Der grundlegende Zwiespalt: Wissen vs. neue Fähigkeiten

Wenn KI dauerhaft Bestand haben soll, muss die Führungsebene überdenken, wie sie eingeführt wird – und vor allem, wer tatsächlich befähigt ist, diesen Wandel zu führen.

Wenn man – wie ich bei Caliente – ein Team von Grund auf aufgebaut hat, erkennt man den Wert institutionellen Wissens unmittelbar. Es ist nicht dokumentiertes lebt in den Abwägungen, die Menschen treffen, in den Systemen, die sie mitgestaltet haben, und in den Instinkten, die aus Erfahrung gewachsen sind.

Beim Einsatz von KI ist genau dieser Hintergrund essenziell. Externe Fachkräfte mögen Expertise mitbringen, aber ohne Kenntnis der Produkthistorie und Systemarchitektur gerät die Entwicklung ins Stocken.

Das bestehende Team weiterzubilden ist oft der schnellere Weg. Diese Menschen kennen die Entwicklung der App, wissen, worauf Nutzer angewiesen sind, und wo die Architektur Spielraum bietet. Wenn das System modulare, risikoarme Experimente zulässt, wird dieses Kontextwissen zum Wettbewerbsvorteil – und Weiterbildung zur naheliegenden Entscheidung.


Den Widerstand gegen KI meistern

Immer wenn neue Tools eingeführt werden – besonders so stark gehypte wie KI – fragen sich viele unweigerlich: „Werde ich dadurch ersetzt?“ Diese Sorge verstärkt sich, wenn KI als eigenständige Initiative behandelt oder an externe Kräfte übergeben wird, die nicht im Alltag verankert sind. Der beste Weg, dieser Angst zu begegnen, ist, das Gespräch an realen Problemen auszurichten. Bei Caliente beginnen wir mit dem Schmerzpunkt – etwas, das uns ausbremst oder Reibung erzeugt – und stellen erst dann die Frage: Kann KI uns dabei helfen?

Wenn die Antwort ja lautet, geht es um Ergänzung, nicht um Ersatz. Wir sagen nicht „automatisiertes QA“, sondern „KI-gestütztes Testen“. Neue Initiativen bezeichnen wir nicht als „Entwicklung von KI-Anwendungen“, sondern als Erweiterung bestehender Applikationen – schneller, intelligenter, hilfreicher, ohne funktionierende Systeme zu gefährden. Wir verbessern den Code-Review-Prozess, geben den Entwicklerinnen und Entwicklern ein zweites Paar Augen, damit sie sich auf wichtigere Aufgaben konzentrieren können.



Der Imperativ der Innovation: Der Preis der Inflexibilität

Wenn Sie mit dem bestehenden Team frei entwickeln wollen, muss Ihre Infrastruktur diese Entscheidung tragen. Irgendwann in jeder KI-Diskussion gerät in Vergessenheit, dass KI nicht von Ehrgeiz lebt, sondern von Infrastruktur.

Wenn man noch mit starren, lokalen Systemen arbeitet, geraten selbst die besten Ideen ins Stocken – durch Verzögerungen, Kompatibilitätsprobleme oder endlose Beschaffungsprozesse. Ich habe das selbst erlebtder Versuch, alte Legacy-Systeme für GPU-intensive Workloads fit zu machen, ist nicht nur mühsam, sondern auch kostspielig. Man jagt Hardwarelösungen, Treiber-Updates und Betriebssystem-Patches hinterher, bevor überhaupt mit dem eigentlichen Experimentieren begonnen werden kann.

Was oft übersehen wird, ist, dass die Modernisierung von Anwendungen eine Voraussetzung für KI ist. Je schneller sich Umgebungen bereitstellen lassen, desto schneller erkennt man, was funktioniert – und was nicht. Besonders serverlose Architekturen ermöglichen es, verschiedene Konfigurationen ohne Vorabkosten zu testen – einfach ausprobieren, analysieren und weiterentwickeln.

Und diese Agilität zahlt sich auch später aus. Hardware und Software in diesem Bereich entwickeln sich schnell weiter. Wenn Sie alles vor Ort verwalten, befinden Sie sich in einem ständigen Upgrade-Zyklus. Mit serverlosen oder Cloud-nativen Plattformen können wir mit dieser Entwicklung Schritt halten, ohne Zeit oder Budget zu vergeuden, nur um auf dem neuesten Stand zu bleiben.

Für uns hat sich ein strukturierter Sandbox-Ansatz bei KI-Bewertungen bewährt. Das bedeutet: klare Trennung von Experiment und Produktivbetrieb, kurze Testzeiträume für Hypothesen und eine vorher definierte Schwelle, ab wann etwas „gut genug“ ist, um skaliert zu werden.

An einige Grundsätze halte ich mich:

  • Experimente müssen strikt vom Hauptsystem getrennt bleiben, um Risiken für das Produkt zu minimieren.

  • Testzyklen zeitlich begrenzen, damit sie nicht ausufern

  • KI-Leads mit Produktverantwortlichen zusammenbringen, um sicherzustellen, dass jede Idee einen echten Einfluss auf die App hat.

KI ist kein isoliertes Element – sie muss in die bestehenden Systeme eingebettet sein. Richtig umgesetzt, beschleunigen KI-Experimente die Produktinnovation, statt sie auszubremsen: intelligentere Funktionen, bessere Automatisierung, reaktionsschnellere Anwendungen – ohne die Stabilität zu gefährden.


Drei unverzichtbare Elemente der KI-Infrastruktur

Bevor KI bei der Anwendungsentwicklung über die Pilotphase hinausgehen kann, sind meiner Meinung nach drei Dinge unabdingbar:

  1. Klare Data Governance. Eindeutig definierte Zugriffsregeln sind unerlässlich. Welche Daten darf KI verwenden? Unter welchen Bedingungen? Ohne diese Klarheit öffnet man Compliance-Risiken Tür und Tor.

  2. Skalierbare Rechenleistung. Piloten lassen sich auf leistungsschwachen Maschinen ausführen – Produktionslasten nicht. Eine Infrastruktur, die mitwächst, ist entscheidend, insbesondere bei GPU-basierten Workloads.

  3. Zuverlässiges Monitoring. Sobald die KI live ist, ist volle Transparenz und Kontrolle erforderlich. Dazu gehören die Verfolgung von Abweichungen, das Erkennen von Anomalien und das Erkennen unbeabsichtigter Folgen, bevor diese eskalieren.

Wenn diese Grundlagen stimmen, wird Experimentieren nachhaltig. KI ist eine Fähigkeit, kein Produkt. In meiner Rolle habe ich erlebt, wie sehr der Erfolg von strukturierter Experimentation, gezielter Aufklärung und einer Kultur abhängt, die Transparenz über Hype stellt.

Aber Infrastruktur allein treibt keinen Fortschritt. Auch das Team muss bereit sein.

Drei Zeichen dafür, dass ein Unternehmen wirklich bereit für KI ist

Wenn ich beurteilen soll, ob ein Entwicklerteam bereit ist, KI im Produktkontext größer zu denken, suche ich nach drei wesentlichen Faktoren:

  1. Offene Gespräche: Wenn das Team kein Problem damit hat, über Erfolge und Misserfolge zu sprechen und ehrlich darüber zu diskutieren, was funktioniert und was nicht, ist das ein gutes Zeichen.

  2. Grundlegendes Verständnis: Sie müssen keine Experten sein, aber sie sollten zumindest die Grundlagen verstehen, wie LLMs funktionieren, Begriffe wie die Anzahl der Parameter und Token, und warum KI-Halluzinationen auftreten. Es zeigt Neugier und den Wunsch, mehr zu verstehen.

  3. Bewusstsein für Grenzen: Sie wissen, welche Art von Daten sicher weitergegeben werden können, welche Inhalte wiederverwendet werden können und wo die rechtlichen oder ethischen Grenzen liegen.

Das sind nicht nur „Nice-to-haves“, sondern Zeichen dafür, dass Ihr Team die Voraussetzungen für nachhaltige, KI-basierte App-Entwicklung erfüllt.



Vom Bedarf zur Technologie – nicht umgekehrt

Einer der häufigsten Denkfehler, den ich in Teams beobachte, ist die „Solution-first“-Mentalität: Das Leadership-Team begeistert sich für ein bestimmtes KI-Tool – und plötzlich soll das Team einen Anwendungsfall rückwirkend konstruieren, um die Entscheidung zu rechtfertigen. Doch wer mit dem Werkzeug startet, löst oft fiktive Probleme – oder solche, die fürs Business keine Relevanz haben. Echter Fortschritt beginnt bei einem realen, geschäftskritischen Problem. Nur wenn klar ist, was wirklich im Weg steht, lässt sich beurteilen, ob KI Teil der Lösung sein sollte – oder eben nicht. So entsteht Fokus: Man testet gezielt, lernt konkret und korrigiert mit Klarheit, weil man auf ein echtes Ziel hinarbeitet.

Von da an geht es darum, schnell zu iterieren, insbesondere wenn Sie KI in Live-Anwendungen einbringen. Definieren Sie einen engen Anwendungsfall, testen Sie ihn außerhalb der Produktion, messen Sie die Auswirkungen, holen Sie Feedback ein und passen Sie ihn an. Wenn es funktioniert, skalieren Sie. Wenn dies nicht der Fall ist, haben Sie immer noch etwas Wertvolles gelernt ohne zu viele Ressourcen zu beanspruchen oder Technologien zu entwickeln, die niemand braucht.


Verhaltensleitplanken, keine technischen Blockaden

Die Sperrung öffentlich zugänglicher KI-Tools verringert zwar das kurzfristige Risiko, behindert aber das Lernen. Ein besserer Ansatz ist es, die Verhaltensstandards zu verstärken, die die Teams bereits befolgen. So redigieren Entwickler beispielsweise bereits Geheimnisse im Code; dasselbe gilt für KI-Bewertungen. Doch Richtlinien allein schaffen noch keinen Fortschritt. Wirkliche Dynamik entsteht durch Systeme – technisch wie kulturell –, die sicheres Experimentieren ermöglichen, ohne die Auslieferung zu verlangsamen.

Das beginnt bei der App-Innovation. Die richtige Architektur schafft den Raum, um zu testen, echte Probleme zu lösen und schnell voranzukommen. Der Cloudflare-Bericht zu Anwendungsinnovation 2026 bringt es auf den Punkt – genau so erlebe ich es in der Praxis: Wenn die Systeme bereit sind, ist die klügste KI-Investition das Team, das bereits da ist.



Modernisierung mit Cloudflare beschleunigen

Da die Modernisierung von Anwendungen zu einer kontinuierlichen Strategie – und nicht zu einer einmaligen Initiative – wird, benötigen Führungskräfte in der Tech-Branche eine Plattform, mit der ihre Teams schneller arbeiten können, ohne Kompromisse bei Kontrolle oder Sicherheit einzugehen. Die Connectivity Cloud von Cloudflare unterstützt jede Phase Ihrer Anwendung – vom Rehosting von Altsystemen über die Umstellung auf Agilität bis hin zur Entwicklung völlig neuer Anwendungen und KI-Dienste. Mit integrierten Tools für die Anwendungsbereitstellung, die Sicherheit, die Beobachtbarkeit und die Entwicklung auf einer einheitlichen, programmierbaren Plattform hilft Cloudflare Ihren Teams, die Komplexität zu reduzieren, schneller bereitzustellen und Innovationen voranzutreiben – ohne die Kosten in die Höhe zu treiben.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.



Vertiefung des Themas:

Erfahren Sie im Cloudflare-Bericht zu Anwendungsinnovationen 2026 mehr darüber, wie moderne Infrastruktur den erfolgreichen Einsatz von KI ermöglicht.


Autor

Lior Gross
CTO, Caliente Interactive



Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Auswahl bestehender Teams vs. neuer Mitarbeitender für KI-Anwendungen

  • Nutzen Sie KI-Experimente, um die Anwendungsinnovation voranzutreiben

  • Welche Rolle Fachwissen für den Erfolg von KI-Anwendungen spielt


Verwandte Ressourcen


Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!