Vultr und Platform Engineering präsentieren zentrale Trends und Herausforderungen im neuen Bericht „State of AI in Platform Engineering“

Umfrage zeigt: Platform Engineers werden zu zentralen Treibern der KI-Integration – doch L?cken bei Zusammenarbeit und Infrastruktur gef?hrden den unternehmensweiten Erfolg

West Palm Beach, FL – 25. September 2025 – Vultr, das weltweit gr??te privat gef?hrte Cloud-Infrastrukturunternehmen, hat die Ergebnisse einer neuen Umfrage vorgestellt, die aufzeigt, wie K?nstliche Intelligenz (KI) das Feld des Platform Engineerings ver?ndert.

Der j?hrliche Bericht The State of AI in Platform Engineering der Platform Engineering Community zeigt, dass die Einf?hrung von KI unter Platform Engineers inzwischen zum Mainstream geh?rt: 75 % der Teams hosten oder planen KI-Workloads, und 89 % nutzen KI t?glich f?r Aufgaben wie Codegenerierung und Dokumentation. Gleichzeitig warnt der Bericht vor einem „KI-Implementierungsplateau“, bei dem die anf?ngliche Dynamik den tats?chlichen Unternehmensnutzen ?berholt.

Obwohl die Einf?hrung stark ist, offenbart die Umfrage auch L?cken, die den Erfolg auf Unternehmensebene einschr?nken. Um diese Herausforderungen genauer zu beleuchten, hat Vultr eine erg?nzende Studie zu The State of AI in Platform Engineering gesponsert, die mehr als 120 Fachleute befragte, die aktiv KI-native Systeme entwickeln. Die Ergebnisse zeigen sowohl deutliche Fortschritte als auch bestehende Hindernisse, die ?berwunden werden m?ssen, um nachhaltigen Erfolg zu erzielen.

Zentrale Ergebnisse:

– Zersplitterte Verantwortlichkeiten f?r KI: Fast 40 % der Unternehmen ?bertragen die Verantwortung f?r KI-Plattformen an Platform-Engineering-Teams, w?hrend ein Viertel (25 %) von geteilter Verantwortung ?ber mehrere Gruppen berichtet und 13 % gar keine klare Zust?ndigkeit haben.

– Uneinheitliche Workload-Orchestrierung: ?ber 40 % nutzen Kubernetes, erweitert um GPU- und KI-Workloads, w?hrend 35 % ihre KI-Workloads ?berhaupt nicht orchestrieren – ein deutliches Zeichen f?r einen Mangel an Infrastrukturreife.

– Wachsende Integration, aber R?ckstand bei Pipelines: Mehr als die H?lfte (58 %) integriert KI in Cloud-native Anwendungen, doch 41 % haben ihre CI/CD- oder DevSecOps-Pipelines noch nicht f?r KI angepasst. Von denjenigen, die dies getan haben, erweitern 28 % ihre Pipelines f?r den Umgang mit Modellen, und 24 % f?gen Schritte f?r Inferenzdienste hinzu.

– Hybrid- und On-Prem-Modelle bleiben relevant: W?hrend Cloud-native Ans?tze dominieren, verfolgen 16 % der Unternehmen einen hybriden Ansatz, und 9 % betreiben GPU-Workloads weiterhin lokal – ein Hinweis auf den Bedarf an flexiblen Bereitstellungsoptionen.

– Dringender Bedarf an Standardisierung: ?ber 50 % der Befragten betrachten Vorlagen und Blueprints f?r KI-Infrastrukturen als kritisch oder sehr wichtig, um eine sichere und skalierbare Einf?hrung zu gew?hrleisten.

– Fortbestehende Kollaborationsl?cken: Fast ein Drittel (31 %) berichtet von nur begrenzter Zusammenarbeit mit Data-Science-Teams, und 16 % von gar keiner – ein Zeichen f?r weiterhin bestehende kulturelle und organisatorische Barrieren.

„Wir haben seit den 1990er-Jahren keine derart hohen Einf?hrungsraten f?r eine neue Technologie gesehen – das ist wirklich bemerkenswert. Doch in der Realit?t ist die Nutzung von KI in Unternehmen heute oft noch eher experimentell als strategisch,“ sagte Luca Galante, Kernmitglied der Platform Engineering Community.

„Diese Umfrage best?tigt, was wir t?glich sehen: Platform Engineers werden rasch zum zentralen Bindeglied der KI-Einf?hrung in Unternehmen,“ sagte Kevin Cochrane, Chief Marketing Officer von Vultr. „Aber reine Dynamik reicht nicht aus. Teams ben?tigen klare „Golden Paths“ und KI-zentrierte Infrastrukturen, die Workloads sicher, reproduzierbar und skalierbar machen. Genau das bietet Vultr – und erm?glicht es Platform-Teams, ?ber die Experimentierphase hinauszugehen und global messbaren Mehrwert zu schaffen.“

W?hrend Platform Engineers zunehmend die Aufgabe ?bernehmen, KI im gesamten Unternehmen zu erm?glichen, stellt Vultr die daf?r notwendige AI-First-Infrastruktur bereit. Mit GPU-bereiten Instanzen, die sich in wenigen Minuten bereitstellen lassen, globaler Orchestrierung „out of the box“ und komponierbaren Architekturen f?r fortgeschrittenes MLOps unterst?tzt Vultr Teams dabei, das „KI-Implementierungsplateau“ zu ?berwinden und echten Unternehmenswert im gro?en Ma?stab zu schaffen.

Den vollst?ndigen Bericht State of AI in Platform Engineering k?nnen Sie hier herunterladen.

Keywords:Platform Engineering, K?nstliche Intelligenz (KI), Infrastrukturreife, KI-Implementierungsplateau, Kollaboration & Verantwortlichkeiten, Standardisierung von KI-Plattformen

adresse

Powered by WPeMatico

Anzeigen