
Sign up to save your podcasts
Or
Erstens KI, insbesondere GenAI ist unglaublich wichtig, zweitens sie frisst Ressourcen wie verrückt und drittens ist sie für die Anwenderunternehmen immer ziemlich teuer. Jan Windeboer würden Sie das so unterschreiben oder gibt es Einwendungen? So macht Autorin Ariane Rüdiger das Spannungsfeld rund um die KI-Nutzung hierzulande auf.
Das gilt insbesondere für die großen Sprachmodelle, wie „ChatGPT“. Doch wollen wir mehr oder weniger ein Orakel schaffen, also ein Large-Language-Modell, das auf jede Frage eine vernünftige Antwort liefern kann. Macht das Sinn? Oder sollten wir uns da nicht eher darauf konzentrieren dass wir Methoden haben, um sozusagen Fachexperten heranzuzüchten, die virtuell arbeiten und nicht unbedingt Universalgenies. So gibt es beispielsweise LLMs für die Netzwerküberwachung, die darauf trainiert sind, zu erkennen, wann gewisse Angriffsmuster auftreten und wie darauf zu reagieren ist.
Im Moment dreht sich die Diskussion um die Umsetzung von KI hauptsächlich um einen einzigen Hersteller: Nvidia. Muss ich mir als Unternehmen die GPUs des Branchenführers kaufen, oder bin ich mehr oder weniger außen vor? Kann eine Optimierung der Modelle und des Bedarfs an Daten, diese Technik gar kompensieren?
Was ist eigentlich mit dem klassischen Machine Learning? Und an welchen Stellen beziehungsweise Einsatzgebieten reicht die Form der KI nicht?
Artikel zum Thema:
Unternehmen und Sprecher: @Red Hat @Jan Wildeboer
#GenAI #KI #LLM #Open Source
Folgen Sie uns auf Social Media:
Bestellen Sie unseren kostenfreien Newsletter:
Unsere Website:
Weitere spannende Podcasts aus dem Hause Vogel IT-Medien GmbH:
Erstens KI, insbesondere GenAI ist unglaublich wichtig, zweitens sie frisst Ressourcen wie verrückt und drittens ist sie für die Anwenderunternehmen immer ziemlich teuer. Jan Windeboer würden Sie das so unterschreiben oder gibt es Einwendungen? So macht Autorin Ariane Rüdiger das Spannungsfeld rund um die KI-Nutzung hierzulande auf.
Das gilt insbesondere für die großen Sprachmodelle, wie „ChatGPT“. Doch wollen wir mehr oder weniger ein Orakel schaffen, also ein Large-Language-Modell, das auf jede Frage eine vernünftige Antwort liefern kann. Macht das Sinn? Oder sollten wir uns da nicht eher darauf konzentrieren dass wir Methoden haben, um sozusagen Fachexperten heranzuzüchten, die virtuell arbeiten und nicht unbedingt Universalgenies. So gibt es beispielsweise LLMs für die Netzwerküberwachung, die darauf trainiert sind, zu erkennen, wann gewisse Angriffsmuster auftreten und wie darauf zu reagieren ist.
Im Moment dreht sich die Diskussion um die Umsetzung von KI hauptsächlich um einen einzigen Hersteller: Nvidia. Muss ich mir als Unternehmen die GPUs des Branchenführers kaufen, oder bin ich mehr oder weniger außen vor? Kann eine Optimierung der Modelle und des Bedarfs an Daten, diese Technik gar kompensieren?
Was ist eigentlich mit dem klassischen Machine Learning? Und an welchen Stellen beziehungsweise Einsatzgebieten reicht die Form der KI nicht?
Artikel zum Thema:
Unternehmen und Sprecher: @Red Hat @Jan Wildeboer
#GenAI #KI #LLM #Open Source
Folgen Sie uns auf Social Media:
Bestellen Sie unseren kostenfreien Newsletter:
Unsere Website:
Weitere spannende Podcasts aus dem Hause Vogel IT-Medien GmbH: