AI TRIBE NEWS

OPENAI DEV DAY 2025 – DAS NEUE ZEITALTER DES BAUENS

Geschrieben von Jörg Janßen | Oct 6, 2025 7:12:11 PM

San Francisco, Fort Mason – es war wieder soweit. Zwei Jahre nach dem ersten Dev Day hat OpenAI gestern gezeigt, wie schnell sich die Welt des Bauens verändert hat. Wo früher ein kleines Team Monate brauchte, um ein digitales Produkt zu entwickeln, reichen heute Minuten – und eine gute Idee.

OpenAI-CEO Sam Altman eröffnete das Event mit beeindruckenden Zahlen:

“In 2023, we had 2 million developers and 100 million weekly ChatGPT users. Today, 4 million developers have built with OpenAI – and more than 800 million people now use ChatGPT every week.”

Das Tempo, in dem sich die Nutzung von KI verändert, ist atemberaubend. Altman betonte, dass KI längst kein Spielzeug mehr ist – sie ist ein zentrales Werkzeug der Produktivität geworden:

“AI has gone from something people play with to something people build with every day.”

ChatGPT wird zur Plattform: Apps im Chat

Der erste große Block drehte sich um die neue Apps SDK – eine Entwicklerplattform, mit der man interaktive Anwendungen direkt innerhalb von ChatGPT erstellen kann.
Was das bedeutet: ChatGPT wird selbst zu einem Ökosystem, in dem Apps wie Canva, Coursera oder Zillow nahtlos funktionieren – ohne, dass Nutzer ChatGPT verlassen müssen.

Software Engineer Alexi, die das Feature live demonstrierte, zeigte, wie ChatGPT plötzlich mehr wird als ein Interface für Sprache. Es wird eine Art „Super-Desktop“:
– Coursera-Kurse lassen sich abspielen und direkt kommentieren.
– Canva kann Grafiken oder Pitch-Decks erstellen – alles innerhalb des Chats.
– Zillow zeigt interaktive Immobilienkarten – inklusive Filter und Reaktionen in Echtzeit.

“Apps in ChatGPT are displayed inline with the conversation and can support anything you can render on the web,” erklärte Alexi.

Für Entwickler öffnet das neue Möglichkeiten: Apps können im ChatGPT-Verzeichnis gefunden werden, über Sprache aktiviert werden („Figma, turn this sketch into a workable diagram“) – und künftig auch monetarisiert werden.

AgentKit – KI-Agenten aus der Box

Dann kam das zweite Highlight: AgentKit.
OpenAI nennt es „a complete set of building blocks“ für alle, die eigene KI-Agenten entwickeln wollen. Statt monatelang zu experimentieren, können Teams jetzt Agenten visuell zusammenstellen, testen und veröffentlichen – direkt in der OpenAI-Plattform.

Christina, Product Manager bei OpenAI, demonstrierte live, wie sie innerhalb von acht Minuten einen Agenten namens Froge baute – inklusive Guardrails, visuellen Widgets und Sicherheitsfiltern gegen PII-Leaks.

“In just a few minutes, we’ve designed an agent workflow visually, added tools and widgets, previewed it, deployed it — and now you all can use it.”

Unternehmen wie Albertsons oder HubSpot nutzen AgentKit bereits, um KI-gestützte Entscheidungsprozesse in Marketing und Betrieb zu integrieren.
Die Idee ist einfach: Agenten sollen nicht nur Fragen beantworten, sondern handeln können – auf Daten zugreifen, Tools steuern, Empfehlungen geben.

Altman fasste das so zusammen:

“AI has moved from systems you ask, to systems that can do things for you.”

Codex wird erwachsen

Einen großen Applaus bekam auch die Ankündigung, dass Codex – OpenAIs Software-Engineering-Agent – nun offiziell General Availability erreicht hat.
Codex ist jetzt in allen gängigen Entwicklungsumgebungen (IDE, GitHub, Terminal) integriert und basiert auf dem neuen Modell GPT-5-Codex – einem speziell für Programmieraufgaben trainierten Modell.

OpenAI berichtete, dass intern inzwischen 70 % mehr Pull Requests pro Woche abgeschlossen werden, wenn Entwickler mit Codex arbeiten.

“Almost all new code written at OpenAI today is from Codex users,” sagte Altman.

Und auch Großunternehmen ziehen nach:
Cisco hat Codex unternehmensweit eingeführt – mit 50 % schnelleren Code-Reviews und kürzeren Entwicklungszyklen.

Romain, einer der leitenden Ingenieure, demonstrierte live, wie Codex komplexe Hardware – etwa eine Sony-Kamera – in Echtzeit über Voice und Xbox-Controller steuert.

“All that, without having to write any code by hand. Give Codex your most ambitious ideas and see what happens.”

Es war ein fast schon symbolischer Moment: Der Entwickler tippt kaum noch. Er spricht – und Codex schreibt.

GPT-5 Pro, Realtime Mini & Sora 2

Neben den Tools für Developer gab es auch neue Modelle:

  • GPT-5 Pro – das bislang leistungsfähigste Modell, mit besonderem Fokus auf Tiefenlogik, Genauigkeit und Multi-Domain-Einsatz (z. B. Recht, Medizin, Finanzen).

  • Realtime Mini – eine kompakte Sprach-KI mit fast identischer Qualität, aber 70 % geringeren Kosten.

  • Sora 2 – das Video- und Audio-Modell, das OpenAI bereits vor wenigen Tagen vorgestellt hatte, kommt nun in die API.

Sora 2 kann physikalisch korrekte Szenen erzeugen – von springenden Eiskunstläufern bis zu realistischer Wasserphysik.

“You can now generate high-quality videos directly inside your products, complete with synchronized, realistic sound,” kündigte Altman an.

Unternehmen wie Mattel nutzen Sora bereits, um aus Skizzen lebendige Produktkonzepte zu entwickeln – in Minuten statt Wochen.

Fazit: Das neue Paradigma des Bauens

Was der Dev Day 2025 zeigte, war mehr als eine Sammlung von Produktupdates.
Es war der Moment, in dem Bauen selbst neu definiert wurde.

Altman brachte es am Ende auf den Punkt:

“Software used to take months or years to build. You saw today — it takes minutes now.”

Das ist kein Marketing – es ist eine Zäsur.
Wer heute Ideen hat, braucht kein großes Team, kein Startkapital, keine monatelangen Sprints.
Er oder sie braucht nur eine klare Vision – und die richtigen KI-Werkzeuge.

Wir stehen an einem Wendepunkt:
Die Grenze zwischen Entwickler und Nutzer, zwischen Idee und Umsetzung, zwischen Kreativität und Code – sie verschwimmt.
Was bleibt, ist die Frage, die jeden Builder antreibt:
Was wirst du heute erschaffen?

🧠 AI TRIBE Fazit

Der OpenAI Dev Day 2025 markiert den Übergang von KI als Tool zu KI als Plattform.
Wer jetzt nicht anfängt zu bauen, wird später in einer Welt aufwachen, in der andere es längst getan haben.

Hier kannst du dir die Keynote ansehen: