Share Datendurst
Share to email
Share to Facebook
Share to X
By Tim Ebner
The podcast currently has 22 episodes available.
Lieferkettenmonitoring, Lieferkettensorgfaltspflichtengesetz, Sanktionslisten – was ist das, warum ist das notwendig, wie macht man das und was ist der Nutzen für Unternehmen?
Darum geht es in der neuen Folge von Datendurst.
Host Tim Ebner hat dafür Marco Feiten im Interview. Der ist Geschäftsführer von CURE Intelligence und von scrioo, einem Unternehmen, das Lieferkettenmonitoring mit Social Media und Online-Daten anbietet. Entstanden ist die Idee, weil dieser eine Lösung für einen Kunden aufgrund der neuen Gesetzgebung entwickeln wollte. Das Ziel war eine Medienanalyse und Medienbeobachtung der Lieferanten.
Doch was ist Lieferkettenmonitoring eigentlich?
Hierbei gibt es zwei Facetten, einmal den Transport für Materialien, die man braucht und dann die Lieferanten selbst.
Sobald Lieferketten gestört sind, werden wir alle schlechter versorgt.
Das Ziel als Unternehmen ist es, Risiken und potentielle Schäden frühzeitig zu erkennen, um dann darauf reagieren zu können – denn das kann Unternehmen sonst auch in den Ruin treiben.
Als Beispiel nennt Marco hierfür den Streik der Häfen in den USA. Hierfür gab es Frühwarnsignale, wer diese erkannt hat, konnte sich frühzeitig darauf vorbereiten und im besten Fall sogar vermeiden, dass es das eigene Unternehmen trifft.
Früher wurde diese Lieferantenbeziehung über Fragebögen analysiert. Doch hier entsteht eine riesige Menge Arbeit. Beispielsweise hat Dr. Oetker 30.000 Lieferanten, denen dann einzeln die Fragebögen gesendet und die dann händisch wieder kontrolliert werden müssen.
Hier muss es Automationen geben, die Marco mit seinem Unternehmen anbietet.
Dazu kommen die Policies, die alle größeren Unternehmen haben und denen die Lieferanten einzeln zustimmen müssen.
Doch wieso braucht man überhaupt ein Lieferkettenmonitoring?
Das neue Lieferkettensorgfaltspflichtengesetz ist ein Grund dafür. Nach diesem müssen Unternehmen ab einer gewissen Größe nun Lieferanten auf erster Ebene prüfen, u.a. aufgrund von Menschenrechten, Umweltschutz und Nachhaltigkeit.
Diese Regelungen werden in ganz Europa ausgerollt.
Zudem haben Unternehmen auch von sich aus ein Interesse daran, zu wissen, mit wem sie Geschäfte machen: Ist der Partner zuverlässig? Woher bekommt er seine Materialien? Wie steht er wirtschaftlich da?
Doch auch kleinere Unternehmen werden durch Kaskaden-Effekte von den Regelungen betroffen, wofür die Politik zurzeit nach Lösungen suchen muss.
Marco’s Lösung funktioniert auf Basis von Machine Learning und NLP – das sind keine neuen Dinge, trotzdem funktionieren sie sehr gut. Mit diesen werden im ganzen Web nach Schlüsselbegriffen gesucht, beispielsweise einem Unternehmensnamen + dem Begriff „Kinderarbeit“. Durch eine KI wird die Relevanz der Suchbegriffe dann nochmal überprüft.
Zum Schluss geht es noch um das Thema Sanktionslisten und dass auch diese dabei unterstützen können, Lieferanten zu bewerten.
Zum LinkedIn-Profil von Marco: https://www.linkedin.com/in/marcofeiten/
Zur Website von scrioo: https://www.scrioo.com/
Zur LinkedIn-Seite von scrioo: https://www.linkedin.com/company/scrioo/
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Unterstütze Tim mit einer Spende: http://paypal.me/datendurst
Datendurst auf LinkedIn: https://www.linkedin.com/company/datendurst/
Data-Inhalte in einem ganz innovativen Format? Kann man Data mit Musik verbinden? Was hat Musik mit Inklusion zu tun?
Darum geht es in der neuen Folge von Datendurst, in der Host Tim Ebner diesmal mit Tiankai Feng spricht. Wenn man in der Data-Branche unterwegs ist, dann kennt man ihn – denn er macht Musik über Data!
Tiankai ist begeisterter Musiker und früher sogar Barpianist. Mittlerweile arbeitet er als Data Strategy und Data Governance Lead bei Thought Works und hat gerade sein erstes Buch rausgebracht: Humanizing Data Strategy. Privat ist er Familienvater von zwei Jungs.
Auch Tim ist über die Songs auf Tiankai aufmerksam geworden und hat sich gefragt: Warum verbindet man Data mit Musik?
Der erste Song von Tiankai ist aus der Frustration entstanden, dass Data in Tiankai’s Augen missverstanden wurde. Daraufhin schrieb er den Digital Analytics Anthem, den er erst in das Intranet seines damaligen Unternehmens hochgeladen hat und schließlich auch auf LinkedIn geteilt hat.
Sowohl im Unternehmen als auch bei LinkedIn ist dadurch ein starker Awareness-Faktor entstanden, sodass dieser fast als Icebreaker für einen kulturellen Wandel gesehen werden kann.
Danach schrieb Tiankai weitere Songs, auch über das Home Office und das Arbeiten in Data.
Sogar auf der TEDx hat er einen Song gespielt – der von ChatGPT geschrieben wurde!
Der erfolgreichste Song ist „Governance of Data“, den Menschen immer wieder nutzen, um zu beweisen, wie cool der eigene Job ist.
Tiankai ist sich sicher: Jeder Mensch kann kreativ sein. Das ist wie ein Muskel, den man trainieren kann (auch die Data-Nerds!). Man hat in jeder Disziplin analytische und kreative Seiten, sowohl bei der Musik als auch bei Data. Hierfür bringt er einige Beispiele.
Diese Kombination von Dingen, die eigentlich nicht so viel miteinander zu tun haben, gibt es auch im Innovationsmanagement, beispielsweise bei der Blue Ocean Strategy.
Für Tiankai ist eine Motivation für die Songs auch die Inklusion. Denn er selbst wurde in Deutschland immer als Ausländer gesehen, wenn er seine Familie in China besuchte allerdings auch. Für ihn ist es wichtig, inklusiv in seinem Verhalten zu sein, damit Menschen nicht das erleben müssen, was er erlebt hat.
Musik bleibt dabei ein Vehikel, um Emotionen und nicht nur Inhalte rüberzubringen. Die beiden kommen im Gespräch auf Hans Zimmer, der selbst von sich sagt, dass er die Sprache der Musik besser beherrscht als das gesprochene Wort.
Tiankai gibt am Ende noch den Tipp: Entdecke deine einzigartige Seite und verbinde damit deine Passion mit der Arbeit, statt beides getrennt voneinander zu sehen.
Zum LinkedIn-Profil von Tiankai: https://www.linkedin.com/in/tiankaifeng/
Zum Buch von Tiankai: https://technicspub.com/humanizing-data-strategy/
Zum YouTube-Channel von Tiankai: https://www.youtube.com/kaifeng
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Was heißt eigentlich Skalierung? Was hat Standardisierung damit zu tun? Welche Vorteile haben Unternehmen von skalierenden Dashboards?
Darüber diskutiert Host Tim Ebner in der neuen Folge von Datendurst mit Oliver Ulbrich, auch ein Nordlicht, genau wie Tim.
Tims Ziel: Ihn zur Weißglut zu bringen! Oliver regt sich nämlich gerne auf...
Eigentlich kommt Oliver aus der Sport- und Modebranche, ist dann als Quereinsteiger zu Data gekommen und nun als Dashboard und Business Development Lead bei den Datenpionieren.
Der Übergang von privat zu beruflich ist fließend – die beiden diskutieren nämlich erstmal über Dashboards bei Katzenfutter!
Aber kommen wir wieder zur Skalierung: Was bedeutet überhaupt Skalierung im Kontext von Dashboards?
Für Oliver ist es, möglichst viele Menschen in die Lage zu versetzen, Zahlen zu sehen und diese dann weiterverarbeiten zu können. Dazu gehört auch, schnell, einfach und effizient Dashboards aufbereiten zu können, die dann möglichst viele Fragestellungen im Unternehmen beantworten.
Die Vorteile davon liegen auf der Hand, es spart vor allem Zeit!
Oliver erzählt davon, dass man während des Monatsabschlusses selten einen Termin mit dem Controlling erhält, weil die viel zu viel beschäftigt sind. Mit Dashboards haben diese Menschen plötzlich Zeit für andere Dinge!
Bevor man jedoch skalieren kann, muss erst ein Standard kreiert werden. Von vorne herein sollte klar sein, wie Dashboards aufgebaut werden.
Oliver zieht dabei einen Vergleich zu einem Führerschein: Wenn man den machen möchte, hat man vor allem ein Ziel: Auto fahren! Die Verkehrsregeln dafür sind der Standard. Den haben wir Alle gelernt, ob er uns gefallen hat oder nicht.
Genauso sollten auch Standards für Dashboards in Unternehmen erstellt werden.
Hierbei stellt Oliver die Fragen:
Welche Werkzeuge nutzen wir?
Welche Diagramme nutzen wir?
Welche Farben nutzen wir?
Oliver geht auf die einzelnen Elemente ein und erklärt sie. Dazu gehört natürlich auch das Storytelling.
Der Dashboard-Experte beginnt dabei gerne auf „echtem“ Papier und fokussiert sich auf das Shneiderman Mantra, das ähnlich wie Bestellautomaten beim Fast Food aufgebaut ist: Zunächst der Overview, dann tiefergehende Antworten (Filter) und dann Details on demand.
Zum Schluss geht es noch darum, ob die KI bei diesen Themen unterstützen kann. Für Oliver ist klar: Menschen können schon an andere Menschen ihre Fragen nicht präzise formulieren. Wie sollte KI dann bessere Antworten liefern können?
Außerdem gibt er noch den Rat, Dashboards als Teil eines Transformationsprozesses zu sehen.
Zum LinkedIn-Profil von Oliver: https://www.linkedin.com/in/oliverulbrich/
Zur Website von Oliver: www.oliverulbrich.de
Zum Podcast von Oliver und Christian: https://open.spotify.com/show/6Mp8t0sGOYvLPCGUUu1XZL
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Disney-Animationen, die mehrfach genutzt wurden: https://youtu.be/y3hK8ATlbw0?si=xyv9h1RAnhkw03_m
Was müssen Unternehmen in Zukunft beachten beim EU AI Act? Ein Thema, das vielen Unternehmen gerade unter den Nägeln brennt und deswegen verdient es auch eine ganze Podcastfolge von Datendurst. Host Tim Ebner hat diesmal Sirke Reimann von VIER zu Gast, einer Kundenservice Software aus Deutschland, die Lösung mit Künstlicher Intelligenz verbindet. Anwendungsbeispiele sind die Zählerstandablesung bei Energieunternehmen, wobei dr Prozess dann vollautomatisch am Telefon durchgeführt wird oder auch das Briefing von Service-Agenten durch die Künstliche Intelligenz.
Sirke ist Chief Information Security Officer und damit bei VIER zuständig für Informationssicherheit, Datenschutz und Compliance.
Wer mehr über das Thema KI und EU AI Act erfahren möchte, kann jeden Freitag bei VIER TV reinschauen.
Die beiden Experten tauchen gleich tief ins Thema ein:
Schon 2019 hat die EU damit begonnen, eine KI-Verordnung zu erstellen, das Ergebnis ist der EU AI Act, der im März 2024 verabschiedet wurde und bis 2026 von allen Unternehmen umgesetzt sein soll.
Das Ziel des EU AI Acts ist es, die Bevölkerung vor unethischen Entscheidungen der KI zu schützen, beispielsweise vor Schaden oder der Verletzung der Menschenwürde.
So gut das klingt – es bringt jede Menge Bürokratie mit sich!
Den EU AI Act erfüllen müssen einige Parteien: Anbieter, die KI-Systeme unter ihrem Namen auf den Markt bringen (dabei ist noch unklar, ob es Dienstleister oder Kunden sind), Importeure von KI-Systemen, Händler und teilweise auch die User der Systeme.
Dabei gibt es 4 Risikogruppen, denen verschiedene Anforderungen gestellt werden:
- Keine oder minimale Risiken
Das sind Systeme, die keinen Einfluss auf das Leben haben, beispielsweise KI in Spamfiltern oder Spielen. Hier gibt es freiwillige, aber nicht verpflichtende Anforderungen.
- Begrenzte Risiken
Hierzu gehören LLMs und generierende Systeme, das Ziel ist hierbei, eine Transparenz herzustellen, sodass User erkennen, welche Elemente mit KI generiert wurden.
- Hohe Risiken
Diese Systeme haben das Potential, Menschen einen Schaden zuzufügen, beispielsweise im Personalwesen, in Bildungseinrichtungen, bei finanziellen Leistungen und auch im Strafvollzug. Hier gehen die Anforderungen über Risikomanagement und Qualitätsmanagement hinaus, eine Rückverfolgbarkeit der Entscheidungen muss möglich sein sowie eine Resistenz gegen Manipulation.
- Inakzeptable Risiken
Hierzu gehören KI-Systeme, die gegen die Menschenwürde verstoßen, beispielsweise durch Social Scoring oder Identifizierungssysteme.
Der Wert des EU AI Acts liegt darin, dass niemand durch KI-Systeme nachteilig behandelt werden soll und somit auch das Vertrauen in KI steigen kann. Als Bevölkerung werden wir geschützt. Gleichzeitig gibt es zurzeit noch viele Unsicherheiten in der Formulierung, der Definition von KI-Systemen und es werden sich Geschäftsfelder aus der EU wegentwickeln müssen. Dafür müssen Prozesse und Strukturen geschaffen werden, der Aufwand ist noch nicht abschätzbar.
Zum Schluss geht es in der Folge noch darum, wie der EU AI Act den Technologiemarkt verändern wird.
Zur Website von VIER: https://www.vier.ai
Zum Blog über den EU AI Act von VIER:
https://www.vier.ai/unternehmen/blog/eu-ai-act-teil1/
https://www.vier.ai/unternehmen/blog/eu-ai-act-teil2/
VIER TV zum EU AI Act:
https://www.youtube.com/watch?v%3D02l2COim6AQ&sa=D&source=docs&ust=1717750334115927&usg=AOvVaw1681TTkot4RRJxmDJZVwIY
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Diese Folge wurde mit freundlicher Unterstützung von vier.ai produziert.
Ist Datenschutz ein Qualitätsmerkmal? Kann ich haftbar gemacht werden, wenn ich eine Datenpanne in einem Unternehmen verursache? Haben Daten wirklich so viel mit Macht zu tun?
Darum geht es in der neuen Folge von Datendurst. Host Tim Ebner interviewt Mona Wrobel, Anwältin im Bereich Datenschutz und IT-Recht und zusätzlich Legal Counsel bei TeamViewer. Übrigens ist auch sie Podcasterin beim eigenen Podcast „Data Date“.
Doch wie kann man so fasziniert von Datenschutz sein? Mona findet das Thema nicht so komplett festgefahren wie andere Rechtsgebiete. Es ist sehr vielfältig und besonders die aktuelle KI-Entwicklung sorgt für spannende Neuerungen.
In der Folge liegt der Fokus darauf, warum Datenschutz ein Qualitätsmerkmal ist. Eigentlich schon, denn das Ziel von Unternehmen ist es, dass User uns auch morgen noch Daten geben, die wir analysieren können. Hierfür muss Vertrauen aufgebaut und gehalten werden.
In Europa wird dies von Verbrauchern erwartet und ist gleichzeitig ein Wettbewerbsvorteil. Doch wie sieht das Ganze eigentlich international aus?
In Europa gibt es seit 6 Jahren die DSGVO, aber schon seit 30 Jahren werden in Europa flächendeckende Entscheidungen zum Datenschutz getroffen.
Nach der Einführung der DSGVO haben auch andere Länder „nachgezogen“ und orientieren sich an den europäischen Regeln. Allerdings ist die Erwartungshaltung und das Verständnis der Bevölkerung in anderen Ländern oft viel freier.
Die DSGVO sieht übrigens auch vor, dass Unternehmen Zertifikate für ihren Datenschutz bekommen können, allerdings ist dies auf dem Markt noch nicht umgesetzt.
Datenschutz ist ganz klar kein Sprint, sondern ein Marathon, der Zeit, Geld und auch menschliche Ressourcen benötigt. Zum Start kann man sich auf den Seiten der Datenschutzbehörden umschauen und findet dort viele Vorlagen und Beispiele, die eine gute Guidance geben. Sobald die Datenverarbeitungsprozesse über den Standard hinaus gehen, benötigt man allerdings weitere Unterstützung.
Und was passiert, wenn man die Datenschutzanforderungen nicht erfüllt? Wie sieht es mit der privaten Haftung einzelner Mitarbeitenden aus? Wie kann das Unternehmen seine Mitarbeiter davor schützen?
Es hilft, wenn man sich organisatorisch so aufstellt, dass die Mitarbeitenden wissen, wie sie sich zu verhalten haben. Wenn dann doch ein Datenschutzvorfall geschieht, muss klargestellt werden können, dass alles bis ins Detail geregelt wurde und ein menschlicher Fehler passiert ist. Das kann das Unternehmen zunächst von der Haftung befreien. Mitarbeitende werden eigentlich nur belangt, wenn sie mit bösen Absichten gehandelt haben. Hier reichen die Strafen vom Verlust des Arbeitsplatzes bis hin zu strafrechtlichen Konsequenzen.
Für Unternehmen ist eine Prüfung sehr langwierig und anstrengend. Zunächst wird ein Prüfungs-Verfahren eingeleitet, dann werden Auflagen erteilt und dann gegebenenfalls Bußgelder verhängt. Die schlechte Presse folgt zuletzt. Ziel solch eines Verfahrens ist es jedoch immer, eine Lösung zu finden, damit Datenpannen nicht mehr vorkommen.
Mona und Tim geben zum Schluss noch folgende Tipps mit:
- So früh wie möglich versuchen, ein gemeinsames Verständnis über die Datenverarbeitungen zu schaffen
- Datenschützer früh mit einzubeziehen
- Geduld haben: Guten Datenschutz erreicht man nicht über Nacht!
- Berührungsängste auf beiden Seiten abbauen: Sowohl im Datenschutz als auch im Business
Zum LinkedIn-Profil von Mona: https://www.linkedin.com/in/mona-wrobel-8a5587177/
Mona als Anwältin: https://eastkap.de/
Mona’s Podcast Data Date: https://datadate.podigee.io/
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Warum ist Datenqualität so wichtig? In welchen Abteilungen ist sie gut und wo ist sie schlecht? Was bedeutet Datenqualität überhaupt?
Darum geht es in der neuen Folge von Datendurst. Host Tim Ebner hat diesmal Christian Krug vom Podcast Unf*ck Your Data zu Gast. Auch wenn man mit dem Namen oft im Spam-Filter hängenbleibt, ist es Christian wichtig, Dinge zu „unf*cken“.
Neben seinem Podcast arbeitet er bei Frauscher Sensortechnik als Global Data Architect und baut dort eine zentrale Datenplattform und damit einhergehend auch ein Data Team auf. Dazu gehört auch, digitale Produkte aufzubauen und dabei interne und externe Daten zusammenzubringen. Frauscher stellt Radsensoren her, die - ganz einfach erklärt – dafür sorgen, dass Züge nicht ineinander fahren.
Christian‘s Credo: Unternehmen müssen sich mehr mit Datenqualität beschäftigen!
Denn Datenqualität ist wichtig, wenn Du Entscheidungen auf Basis von Daten treffen möchtest. Dafür macht Christian auch eine einfache Analogie zum Kauf eines Autos. Möchte man verschiedene Autos vergleichen, braucht man Daten, zum Beispiel Kaufpreise. Aber auch beim Hype-Thema KI ist Datenqualität wichtig, denn wenn die KI mit schlechten oder fehlerhaften Daten gefüttert wird, dann sind die Ergebnisse davon schlecht.
Christian und Tim sind sich einig: Manchmal sind schlechte Daten aber auch besser als gar keine Daten. Denn wenn Du nicht mit schlechten Daten anfängst, wirst Du nie gute Daten haben.
Doch was ist eigentlich Datenqualität?
In Christian’s Augen bedeutet es, dass Daten, die für eine Entscheidung benötigt werden, in der richtigen Aktualität auswertbar vorliegen. Mängel können dabei Unvollständigkeit, das Format, falsche Daten, nicht integrierte oder veraltete Daten sein.
Dabei ist die Datenqualität oft dann gut, wenn viel Aufmerksamkeit auf dem zugrundeliegenden Thema liegt und Druck von außen da ist. Beispiele dafür sind Finance- und bald auch ESG (Environmental, social, governance), also Nachhaltigkeit. Auch in bestimmten Branchen, wie z.B. dem Pharma- oder dem Versicherungs- und Banken-Bereich, in denen viele Kontrollen stattfinden, sind die Daten oft auch sehr gut.
Schlecht wird die Datenqualität dann, wenn eben nicht darauf geguckt wird, es keine Reportings gibt und nicht kontrolliert wird. Christian erklärt, dass das vor allem im HR oft ein Problem ist. Dabei können wir es uns eigentlich nicht mehr erlauben, in der HR-Abteilung mit schlechten Daten zu arbeiten.
Die Qualität in den Abteilungen kann man durch Incentives und die Untersützung vom Top-Management verbessern. Hier hilft es, einfach mal einen Tag „mitzugehen“ und dabei herauszufinden, welche Daten und Reportings nötig sind, um den Mitarbeitenden das Leben zu vereinfachen.
Christian’s Tipp: Der erste Schritt für die Erhöhung der Datenqualität ist, herauszufinden, wo es klemmt.
Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/
Zum Podcast von Christian: https://linktr.ee/christian_krug
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Was ist eigentlich ein GPT? Was unterscheidet eine KI von einem GPT? Wie baut man ein GPT auf und welche Technologien gibt es dafür? Was hat das Ganze mit Datenqualität zu tun? Und was kann man mit einem UnternehmensGPT machen?
Darüber spricht Host Tim Ebner in der neuen Folge von Datendurst mit Sarah Stemmler. Die kennen wir schon aus der letzten Folge Datendurst, in der es um’s Gründen ging. Denn Sarah hat sich gemeinsam mit ihrem Partner Sebastian selbstständig gemacht und das KI-Start up Synsugar gegründet, mit dem sie Unternehmen helfen, betriebliche Abläufe mit KI zu optimieren und die Produktivität zu steigern. Und dazu gehört mittlerweile auch, UnternehmensGPTs zu entwickeln.
Doch was ist ein GPT überhaupt? Seit der Veröffentlichung von ChatGPT wurde der KI-Hype losgetreten. Dabei gibt es das Thema schon seit den 50ern und viele Unternehmen setzen es schon jahrelang ein.
GPT steht dabei für eine spezielle Technologie, die das Unternehmen OpenAI (die Gründer von ChatGPT) entwickelt hat. Die Abkürzung steht für Generative Pretrained Transformers.
Ein GPT ist somit eine spezielle Art von KI, wozu ja auch Predictive Maintenance und ähnliche Dinge gehören. Der Klassiker ist: Text-Input und Text-Output. Die gleiche Architektur funktioniert auch bei Bildern: Text-Input und Bild-Output. Außerdem kann ein GPT auch Code generieren und mittlerweile gibt es Forschungen zum Einsatz in Wettermodellen.
Doch was unterscheidet nun ein GPT von einem UnternehmensGPT?
Im Grunde heißt das, dass Unternehmen für ihre eigenen Anwendungsfälle ein GPT entwickeln. Dieses ist dann verknüpft mit den eigenen Daten bzw. der internen Wissensdatenbank. Sarah erzählt zum Beispiel von dm, wo dies mit der Tochter dm Tech umgesetzt wurde.
Doch warum nicht einfach ChatGPT mit den eigenen Daten füttern?
Hier kommen der Datenschutz und IT-Security dazwischen. Denn hochsensible Daten möchte man nicht mit ChatGPT in Verbindung bringen, zudem kann man bei dieser Lösung Daten nur sehr gezielt hochladen.
Eine eigene GPT-Variante löst diese Probleme. Dabei bedient man sich an den Sprachmodellen vom Markt und verbindet sie mit eigenen Daten.
Das ist zudem auch eine viel kostengünstigere Lösung, denn das Training eines komplett neu entwickelten Systems kostet mehrere 100 Millionen.
Sarah gibt noch ein paar Tipps zum Start mit einem eigenen GPT. Wichtig ist hierbei, sich zuerst Gedanken über die eigenen Use Cases zu machen. Dazu gehört auch die Datenvorbereitung, denn viele Unternehmen haben keine Single Source of Truth, die man hierfür benötigt.
Außerdem wichtig: Informiert Euch über den EU AI-Act, wenn Ihr ein eigenes GPT umsetzen wollt!
Zum LinkedIn-Profil von Sarah: https://www.linkedin.com/in/sarah-stemmler/
Zur Website von Synsugar: https://synsugar.com
Über das BayernGPT: https://synsugar.com/blog/freistaat-bayern-plant-bayerngpt
Über das Unternehmens-GPT von dm: https://open.spotify.com/episode/2fSn7aAwykXafucpwRAlNR?si=f46a586d1c1d45ce
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
[Anzeige] Datendurst-Stellenmarkt
Offene Stelle: Team Lead Social Media Analytics
Unternehmen: We Are Era
Aufgaben: Leitung und Entwicklung eines Teams, das Social Media Daten überwacht, analysiert und interpretiert; Markt- und Wettbewerbsanalysen, Trackinganalysen und Dashboards erstellen, Influencer Markt im Auge behalten, Analysetools einführen und nutzen
Über das Unternehmen: Studio- und Talent-Agency mit Standorten in Amsterdam, Berin, Köln, Kopenhagen, Paris, Madrid, Mailand und Stockholm
Arbeitsort: Hybrid
[Anzeige] Link zur Stellenanzeige: https://jobsearch.createyourowncareer.com/weareera/job/Berlin-Team-Lead-Social-Media-Analytics-BE-10777/1104577901/?utm_medium=podcast&utm_source=datendurst
Wie verändert sich der Alltag durch die Selbstständigkeit? Welche Sorgen macht man sich (begründet oder unbegründet) vorher? Welche Vorteile hat die Selbstständigkeit und wie kommt man mit den Gedanken dazu klar, dass man damit vielleicht nicht den Kühlschrank füllen kann? Wieso ist Positionierung eine never-ending Story?
Darüber spricht Host Tim Ebner in der neuen Folge von Datendurst mit Sarah Stemmler.
Sarah hat 4 Jahre im Angestellten-Verhältnis gearbeitet und sich dann selbstständig gemacht – nun auch 4 Jahre. Doch wie ist sie überhaupt zu der Selbstständigkeit gekommen?
Sarah kommt aus einer Gründerfamilie und fand Unternehmertum immer schon spannend. Auch ihr Lebenspartner Sebastian ist selbstständig und langsam aber sicher kam Sarah auf den Geschmack. Ihre Gründung kam allerdings zu einem schlechten Zeitpunkt: Kurz vor Covid und dem Lockdown. Das war für Sarah ein holpriger Start, sie fühlte sich gefangen und zunächst mit Selbstmitleid erfüllt, nahm dann aber die Möglichkeit wahr, sich intensiver mit der Selbstständigkeit zu beschäftigen.
Dazu gehörte auch das digitale Vertriebsmarketing, was sie vorher nicht viel genutzt hatte. Doch Personal Branding ist viel wert und die Wirkung davon nicht zu unterschätzen.
Innerlich setzte sie sich die Grenze von einem Jahr und merkte dann: Das hat funktioniert! Sie wollte weitermachen, nicht wieder zurück in die Festanstellung. Und sie merkte, dass sie durch die Selbstständigkeit auch viel spannendere Themen und Projekte um sich herum hatte.
Nach 2 Jahren gründete sie dann gemeinsam mit ihrem Lebenspartner – eine Sache, die viele Menschen nicht unbedingt tun würden! Doch viele Gespräche und auch der Wunsch danach, nicht mehr als Einzelkämpfer unterwegs zu sein, sorgten dann für ein positives Bild.
Nun hat Sarah einen Sparringspartner und teilt sowohl die Freiheit als auch die Verantwortung gemeinsam mit Sebastian im Unternehmen synsugar, mit dem sie Unternehmen hilft, betriebliche Abläufe mit KI zu optimieren und die Produktivität im Unternehmen zu steigern.
Doch wie positioniert man sich als Freelancer oder auch Unternehmen?
Für Sarah ist es wichtig, zunächst einmal herauszufinden, was man selbst möchte. Denn wenn es keine klare Positionierung gibt, dann erhält man immer wieder Anfragen, die extrem divers sind und damit auch viel Zeit fressen.
Ihr Tipp ist es, optimistisch zu sein, denn wer sollte schon von einem Pessimisten kaufen wollen?
Zum LinkedIn-Profil von Sarah: https://www.linkedin.com/in/sarah-stemmler/
Zur Website von Synsugar: https://synsugar.com
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Was sind die Grundpfeiler für GA4-Tracking? Und was ist eigentlich so besonders an Google Analytics 4, das Universal Analytics abgelöst hat?
Darum geht es in der neuen Folge von Datendurst! Tim Ebner, der Host der Show, spricht mit Vikash Sharma, einem strukturierten Digital Analyst mit dem Fokus auf GA4. Vikash hat früh Erfahrung in Großkonzernen, u.a. OTTO und T-Online gemacht. Jetzt ist er selbstständig mit dem Konzept Collect, Understand, Visualize.
Vikash wollte immer schon mit Zahlen, Daten und Fakten verstehen, was für Entscheidungen Menschen treffen. Aus dem Grund hat er Psychologie studiert, dann mehrere Stationen in Konzernen gemacht, wollte dann aber agiler werden und hat sich gleichzeitig mit seiner Auswanderung nach Asien selbstständig gemacht. Spannenderweise hat Vikash eine estländische Firma, was für ihn einige Vorteile bietet.
Durch die Betreuung großer Accounts in den Konzernen konnte er wertvolle Erfahrungswerte sammeln. Und deswegen erzählt er auch, wofür sein Konzept steht:
Collect bedeutet, erstmal Daten zu erheben, zu sammeln und datenschutzkonform zu machen. Hierzu gehört auch, herauszufinden, an welche Tools Daten in welcher Form gesendet werden. Auf der Basis kann man dann die Implementierung und damit das Tracking aufbauen.
Understand bedeutet, Daten in einen Kontext zu setzen und zu verstehen. Die Aussage „wir haben am Montag 10.000 Produkte verkauft“ ist nämlich wertlos, wenn man nicht den Kontext dazu hat, wie viele Produkte normalerweise an einem Montag verkauft werden und wie viele User einen Checkout gestartet, aber abgebrochen haben.
Visualize bezieht sich dann auf die Datenvisualisierung – aber zielgruppengerecht! Bei der Vorstellung von Daten neigt man oft dazu, ins absolute Detail zu gehen, doch vielleicht möchte die Zielgruppe genau diese Informationen gar nicht haben. Deswegen muss man sich immer fragen, wer der aktuelle Stakeholder ist, welche Informationen dieser benötigt und welches Informationsbedürfnis sie oder er hat.
Als Visualisierungstool empfiehlt er Python zum Austausch mit anderen Analysten, ansonsten aber auch Tableau, PowerBI oder Looker Studio.
Außerdem geht es um die Besonderheit von GA4 im Vergleich zu UA und wie die Migration stattfinden kann. Vikash empfiehlt immer, ein ordentliches Tracking-Konzept zu erstellen, bevor die Umsetzung mit Events erfolgt. Schließlich soll alles wartbar bleiben und die Fragen der Stakeholder sollen in vernünftige KPIs übersetzt werden.
Der Fokus sollte immer auf der gesamten Data-Wertschöpfungskette liegen!
Zum LinkedIn-Profil von Vikash: www.linkedin.com/in/vikash-analytics
Zur Website von Vikash: https://www.vikash-analytics.com/
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
Wie macht man interessante Dashboards, die auch wirklich genutzt werden? Und was wollen Dashboard-User wirklich sehen?
Darüber diskutiert Host Tim Ebner in der neuen Folge von Datendurst. Zu Gast ist Evelyn Münster, die auf Data Visualisation und Storytelling spezialisiert ist.
Es geht um ein Thema, das eigentlich so einfach scheint und trotzdem so viele Probleme hervorruft: Gute Dashboards. Diese müssen nach Evelyn vor allem drei Dinge erfüllen: Klarheit, Interpretierbarkeit und Relevanz.
Für Evelyn war es immer schon ein Anliegen, Dinge zu visualisieren, die sie nicht sehen kann und dadurch zu erkennen, was Dinge für Auswirkungen haben. Das bezieht sie nicht nur auf ihren Körper, sondern auch auf Websites. Als sie anfing mit der Data Visualisation wurde das noch kaum gemacht. Sie startete also mit Dashboards im Onlinemarketing, erstellte ein Produkt – doch die Menschen nutzten dieses nicht. Denn Ästhetik reicht für ein gutes Dashboard nicht aus, ansonsten finden User die Dashboards zwar interessant – aber interessant ist die kleine Schwester von scheiße und bedeutet vor allem nicht relevant.
Wichtig ist zu erkennen, was hinter den Daten steht und wie der Kontext dazu aussieht – eigentlich wie Indizien in einem Kriminalroman.
Evelyn ist es wichtig, die persönlichen Präferenzen der User zu befriedigen. Deswegen mag sie es auch nicht, wenn generelle Aussagen getroffen werden, wie z.B. dass Pie Charts grundsätzlich schlecht sind. Sie bringt Beispiele, an welchen Stellen genau diese Charts eine gute Visualisierung sein können.
Der Kern eines guten Dashboards ist es, gute Datenfragen zu stellen. Evelyn bezeichnet das als Dark Art of Data Analytics. Die Kernaufgabe von Analytics Leaders ist es nicht, Dashboards zu bauen, sondern mit den Business Usern dazusitzen und herauszufinden, was ihre Fragen und Probleme sind. Dazu gibt sie den Vergleich zu Henry Ford, wenn dieser seine Kunden gefragt hätte, was sie gerne hätten, dann hätten sie sich schnellere Pferde gewünscht – das eigentliche Problem war aber, dass die Fortbewegung nicht schnell genug war.
Bei Data Visualisation geht es also darum, herauszufinden, wo die Probleme wirklich liegen – mit dem Ziel, Business Impact zu generieren. Evelyn gibt dazu auch ein paar Beispiele für gute Datenfragen.
Erst danach sollten Dashboards designed werden. Der Game Changer liegt also im guten alten Gespräch.
Zum Schluss hat Evelyn noch ein Geschenk für die Hörenden, und zwar einen kostenlosen Crashkurs vom Chartdoktor.
Zum LinkedIn-Profil von Evelyn: https://www.linkedin.com/in/evelynmuenster/
Zum Chartdoktor-Crashkurs: https://www.chartdoktor.com/chart-doktor-test
Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/
The podcast currently has 22 episodes available.
8 Listeners
0 Listeners