
Sign up to save your podcasts
Or


Zwei Wochen sind seit unserer letzten AI-News-Folge vergangen und in der AI-Welt hat sich schon wieder einiges verändert. OpenAI hat einen nächsten Durchbruch mit ihrem „Text-to-Video“-Model Sora erreicht, Stable Diffusion 3 ist angekündigt, Gemini for Workspace wurde vorgestellt und Google hat ihr erstes Open-Source-Model auf Basis von Gemini veröffentlicht und es Gemma getauft.
Bytedance hat ebenfalls mal wieder im AI-Markt mitgemischt und ein destilliertes Model auf Basis von Stable Diffusion XL kreiert, welches in der 1-Step-Variante nur 120 ms Inference-Zeit benötigt und somit nahezu in Realtime Bilder erzeugt.
Mistral hat ihr neues Modell Mistral Large als Closed-Source-Model in ihrem API Store released, was in der Szene für großes Aufsehen gesorgt hat.
Eine völlig neue AI-Hardware wurde von Groq released, die ebenfalls die Inference-Zeiten drastisch reduzieren soll. Ob das allerdings eine marktfähige Lösung ist, diskutieren wir in dieser Folge.
Weitere Links, von denen wir in dieser Folge sprechen:
Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)
Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback:
By programmier.barZwei Wochen sind seit unserer letzten AI-News-Folge vergangen und in der AI-Welt hat sich schon wieder einiges verändert. OpenAI hat einen nächsten Durchbruch mit ihrem „Text-to-Video“-Model Sora erreicht, Stable Diffusion 3 ist angekündigt, Gemini for Workspace wurde vorgestellt und Google hat ihr erstes Open-Source-Model auf Basis von Gemini veröffentlicht und es Gemma getauft.
Bytedance hat ebenfalls mal wieder im AI-Markt mitgemischt und ein destilliertes Model auf Basis von Stable Diffusion XL kreiert, welches in der 1-Step-Variante nur 120 ms Inference-Zeit benötigt und somit nahezu in Realtime Bilder erzeugt.
Mistral hat ihr neues Modell Mistral Large als Closed-Source-Model in ihrem API Store released, was in der Szene für großes Aufsehen gesorgt hat.
Eine völlig neue AI-Hardware wurde von Groq released, die ebenfalls die Inference-Zeiten drastisch reduzieren soll. Ob das allerdings eine marktfähige Lösung ist, diskutieren wir in dieser Folge.
Weitere Links, von denen wir in dieser Folge sprechen:
Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)
Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback:

25 Listeners

9 Listeners

8 Listeners

6 Listeners

2 Listeners

5 Listeners

10 Listeners

1 Listeners

0 Listeners

0 Listeners

8 Listeners

10 Listeners

2 Listeners

3 Listeners

0 Listeners