Du möchtest deine Werbung in diesem und vielen anderen Podcasts schalten? Kein Problem!
Für deinen Zugang zu zielgerichteter Podcast-Werbung, klicke hier.

Audiomarktplatz.de - Geschichten, die bleiben - überall und jederzeit!

Diese AI ersetzt 800 Werkstudenten - mit Kaba B., Statista Plus (3/3)

Shownotes

Wie funktioniert datengetriebene Marktforschung, wenn es keinen fertigen Datensatz gibt? In dieser Folge spricht Jonas Rashedi mit Kaba Barsch – Head of Data-Driven Solutions bei Statista Plus – über die Rolle von Data Science, AI-Integration, scrapingbasierte Recherche und kontextsensitives Prompt Engineering.

Kaba erklärt anhand realer Projekte, wie ihr Team aus Text-Chaos qualitativ hochwertige Datensätze erstellt, wie LLMs systematisch verifiziert und angereichert werden – und wie durch die "Statista SynthiePop“ (synthetische Bevölkerung) ganze Marktprognosen modellierbar werden. Dabei wird klar: AI ist kein Selbstläufer – ohne menschliches Marktverständnis und Kontextmodellierung läuft nichts.

Eine Folge über operative Exzellenz, AI-Learnings aus der Praxis und den Unterschied zwischen Technikhype und echter Innovation.

MY DATA IS BETTER THAN YOURS ist ein Projekt von BETTER THAN YOURS, der Marke für richtig gute Podcasts.

Du möchtest gezielt Werbung im Podcast MY DATA IS BETTER THAN YOURS schalten? Zum Kontaktformular: https://2frg6t.share-eu1.hsforms.com/2ugV0DR-wTX-mVZrX6BWtxg

Zum Linkedin Profil von Kaba: https://www.linkedin.com/in/kaba-barsch-2181631a7/

Zur Homepage von Statista: https://de.statista.com/

Zu allen Links rund um Jonas: https://linktr.ee/jonas.rashedi

Du möchtest deine Werbung in diesem und vielen anderen Podcasts schalten? Kein Problem!
Für deinen Zugang zu zielgerichteter Podcast-Werbung, klicke hier.

Audiomarktplatz.de - Geschichten, die bleiben - überall und jederzeit!

Transkript anzeigen

00:00:00: Wo beim Thema Data Engineering und Data Science steht Statista Plus?

00:00:04: Wo wird wirklich AI eingesetzt, wie kann man wirklich so eine synthetische Population nutzen um Mehrwerte zu generieren.

00:00:13: Und wie muss ich mir eigentlich so ein Prozess vorstellen von der Anforderung eines Kunden über eine bestimmte Marktabfrage bis hin zum Ergebnis?

00:00:23: Das sind alles Fragen die Ich mit der lieben Kawa in der heutigen Folge besprechen.

00:00:31: Neue Folgen jeden Freitag.

00:00:33: In dieser digitalen Welt

00:00:34: gibt es

00:00:35: einen speziellen Faktor, der über Erfolg und Misserfolg entscheidet

00:00:38: – Daten!

00:00:40: Doch nur die wenigsten wissen sie für sich zu nutzen.

00:00:43: Wer seine Kunden verstehen will um ihnen das bieten zu können was sie brauchen

00:00:47: kommt um

00:00:48: ein professionelles Datenmanagement nicht herum.

00:00:50: Jonas Rascheli interviewt andere Experten aus den Data Bereichen und zeigt Schritt für Schritt wie genau

00:00:56: das funktioniert.

00:01:03: Herzlich Willkommen zu MyDatasBetter Than Yours, der Data Podcast.

00:01:06: Schön das ihr eingeschalten habt!

00:01:07: Mir gegenüber sitzt die liebe Kaba.

00:01:09: Das ist die dritte Folge mit Statista.

00:01:12: Diesmal geht es wirklich ins operative rein.

00:01:15: Kaba verantwortet nämlich alles rund ums Thema Data Science und Data Engineers bei Statista Plus.

00:01:24: Hallo.

00:01:25: Schön dass du da bist.

00:01:26: Ja schön, dass ich da sein kann.

00:01:27: Sehr sehr gerne.

00:01:32: Wir können ja mit so einem persönlichen Thema anfangen.

00:01:34: Das hatte ich dich gerade gefragt, vielleicht kriegen wir das nochmal ins Thema rein und zwar hatte ich dir ja grade gefragt warum du sozusagen wo man Kava sagt?

00:01:42: Und ich hatte ja auf LinkedIn vorher geguckt gehabt und dachte dann wo kommt denn der Name Kava her?

00:01:47: und dann hast du mich aufgeklärt!

00:01:49: Ja es ist ganz einfache Origin Story.

00:01:51: als ich in die dritte Klasse gekommen bin habe ich die Schule gewechselt und in der Klasse weil ich einen Millionär... bin.

00:01:57: Da gibt es einfach eine Million Katharinas und in der Klasse gab's schon, ich glaube vier Katharinas damals und die hatten halt Katakati und alles schon besetzt und dann hat man einfach auf meinen Vor- und Nachnamen geguckt und das hat sich dann auch sehr gehalten.

00:02:09: Es gibt also neunundzehnt Prozent der Menschen, die mich kennen wissen wahrscheinlich mein richtigen Namen gar nicht.

00:02:15: ja und so ist es geblieben.

00:02:18: Genau, sozusagen durch Katharina und nachnahmes ein Barsch.

00:02:21: Ja,

00:02:22: kommt zu sagen dass es zustande.

00:02:24: Ich habe war ich ohne den letzten nicht momentan zu machen, unendlich viele Kakaopackungen zur Geburtstag bekommen von der Karpamarke.

00:02:30: Wo dann irgendwie Geld drin steckt oder ähnlich ist... Das hielt immer alle für besonders witzig!

00:02:34: Ja

00:02:35: und du irgendwann nicht mehr?

00:02:36: Es läuft sich relativ schnell auf!

00:02:44: Ich hatte ja gerade schon gesagt gehabt dass ich zwei Folgen mit Statista schon aufgenommen habe.

00:02:48: Einmal so eine allgemeine Strategie über Statister im gesamten Unternehmen.

00:02:51: und dann haben wir über Statista Plus gesprochen.

00:02:55: bezeichnen so ein bisschen die Beratungs-Unit von Statista.

00:02:58: Und in beiden Folgen war das Thema AI immer natürlich als Buzzword genannt.

00:03:05: und jetzt sitzt du mir hier gegenüber, die die ganzen Themen für Statista Plus verantwortet.

00:03:12: Nimm uns doch nochmal kurz mit auf deiner Historie wo du herkommst also Lebenslauf so ein bißchen und was dann deine Aufgaben bei Statista plus sind.

00:03:22: Ich habe ursprünglich mal Politikwissenschaft studiert.

00:03:25: Ganz klarer Karriereweg, der sich dann abgezeichnet hat.

00:03:29: Habe dann als wissenschaftliche Mitarbeiterin auch eine Zeit lang gearbeitet und habe dann erfolgreiche Promotion abgebrochen.

00:03:37: Danach hatte ich ein Statista für mich so ein bisschen ergeben.

00:03:39: Hab da als Analystin angefangen und bin dann in einen Tech-Bereich reingefallen weil wir magentafarbenen Telekommunikationskonzern als Kundinnen haben hatten Und ich da viele Projekte in den Bereich gemacht habe und dann so ein Detekusfilm bis noch eingeflogen bin.

00:03:54: Wirklich auch von harte Infrastruktur, also wie funktioniert das Internet?

00:03:59: Bis hin zu Servicesdienstleistung, digitalen Dienstleistungen.

00:04:03: Dann kam irgendwie KI und dann hatte ich sehr viele Mitarbeitende im meinen Team, die das sehr interessiert hatten und mich persönlich jetzt auch sehr interessieren.

00:04:12: Und dann sind wir da so ein bisschen rein geflogen.

00:04:15: Wir hatten da auch schon einen Data Science-Team.

00:04:18: Ja, da war viele der Datenbeschaffungen drin waren.

00:04:21: Also wirklich Scraping und ja noch mal... Ich glaube Eicard hat auch viel, also mein Chef der letzte Woche oder letztmal bei dir war von alternativen Daten gesprochen die halt diese Alternativen Daten auch beschafft haben und immer noch beschaffen.

00:04:33: aber mit diesem Team weil wir halt auch ausgebildete Data Scientists weil wieder Data Engineers drin haben hatten wir dann auch die Möglichkeit wirklich auf diesen KI Zug aufzuspringen um da Lösungen zu entwickeln da einzusteigen bin ich halt so mitgeschwommen und hab mich dann irgendwie im Berufsleben immer weiter in diese Richtung auch entwickelt und gebildet.

00:04:53: Und ich habe irgendwann zwischendurch mal im Studium codieren gelernt, also ich kann irgendwie auch hier aber oder konnte das mal.

00:04:59: Das hab' ich jetzt schon zehn Jahre nicht mehr gemacht, aber ich kann halt irgendwie... Also deswegen kann ich Code lesen!

00:05:03: Ich kann das alles verstehen, ich weiß wie das funktioniert.

00:05:05: Das ist alles da genau und so.

00:05:07: So bin ich dahin gekommen wo ich jetzt bin.

00:05:09: Wie groß ist das Team?

00:05:10: Oder die Teams, die du fürst?

00:05:13: Wir sind zu zweieinhalb Teams von Data Scientist und Data Engineers.

00:05:18: Und ich habe insgesamt, lass mich lügen, es sind eigentlich vierzehn Plus-Leute die sich halt wirklich für diesen Bereich plus damit beschäftigen.

00:05:28: Kannst du den Plusbereich wenn die Leute vielleicht die andere Folge noch nicht gehört haben nochmal ein bisschen erklären?

00:05:34: Ja klar also Statista kennt man eigentlich von unserer Plattform oder wenn man irgendwas googelt dann schlägt im ersten Fall immer irgendwie eine Statista Statistik auf.

00:05:43: Das ist genau das Blau mit dem weißen Streifen nach oben und im Grunde genommen ist plus der Teil, wo die Kund in den Hinkommen wenn sie auf der Plattform nichts mehr finden und wir können dann wirklich custom ...Boutique, Beratungsprojekte oder Datenprojekten für die machen.

00:06:00: Und das sind halt dann oft sehr nischige Märkte wo es einfach keine Daten zu gibt... ...wo wir dann Daten erheben und auch qualitative Forschung machen werden.

00:06:06: Wir haben einen sehr großen Bereich mit Primärmarktdaten-Forschung,... ...wohin wir sekundär Marktdaten aufbereiten im nächsten Schritt die einzelnen Bereiche zusammenführen.

00:06:15: Da ist ein Kommunikationsbereich dabei die dann auch das in Grafiken aufarbeiten können beispielsweise.

00:06:20: aber das ist im Grunde genommen mehr.

00:06:21: wenn du im Internet nichts mehr findest und auch bei unserer Plattform nicht Dann kannst du zu uns kommen und wir machen dir das dann für dich persönlich, für dein Unternehmen so wie du es brauchst.

00:06:33: Ja!

00:06:33: Und da wollen wir ja einsteigen weil dieses individuelle Für jedes Unternehmen... Da kommt ihr ja dann im Spiel deine Teams.

00:06:40: Genau Jetzt hast Du ja Data Engineers und Data Scientisten.

00:06:46: Das ist ja nicht zwangsweise nur AI Themen die er macht.

00:06:52: Lass uns mal gemeinsam da irgendwie eintauchen was so die tägliche Arbeit sind ist mit was ihr euch da so beschäftigt.

00:07:02: Lass uns wirklich an Anwendungsfällen machen, vielleicht mal was waren so anderen Fälle wo du die Teams gestartet hast also wo du angefangen hast bis zu jetzt damit man auch ein bisschen so einen zeitlichen Verlauf mit dabei hat?

00:07:15: Ja ich würde es vielleicht sogar mal wirklich in einem ganz konkreten Beispiel machen.

00:07:17: das ist das ja hier Projekt, das wir gerade erst gemacht haben.

00:07:21: Aber wo wir die Skills noch aus unseren Anfängen an die KI-Skills angebunden haben, die jetzt kommen?

00:07:27: Wir haben für einen... Linsen wie für Kameras.

00:07:33: Kameralinsenhersteller, die aber auch im Bereich Medizintechnik unterwegs sind.

00:07:39: Einen Projekt gehabt und die wollten einfach wissen so wie viele Augenkliniken gibt es in Indien.

00:07:46: Das klingt erstmal gar nicht so komplex.

00:07:50: Den ersten Schritt, den wir machen, bescrapen einfach mal irgendwie Google.

00:07:53: Das ist jetzt kein Rocket Science, das würden alle machen.

00:07:56: Da ist die Datenqualität aber insofern wie Indien unterirdisch weil da registrieren sich irgendwie fünf Ärzte für die gleiche Klinik.

00:08:02: oder du hast dann auch immer so lokale Feinheiten, die wir dann oft erst einmal verstehen müssen.

00:08:07: gerade in Indien sind die Ärzten oft nicht an Krankenhäuser angebunden.

00:08:10: Die haben ein sehr gutes öffentliches Gesundheitssystem was die Infrastruktur der Krankenhäusern angeht und die Ärze springt dahin und her.

00:08:17: Dann hast du halt ein Datensatz, der ist aufgebläht.

00:08:18: Da ist ganz viel falsch drin und da funktioniert erst mal nichts.

00:08:23: Das war so der Punkt wo wir immer schon eingestiegen sind wirklich solche Daten zu beschaffen.

00:08:28: Und was wir jetzt in diesem Projekt im nächsten Schritt beispielsweise machen konnten durch KI-Großflächig ist uns jede einzelne Datenreihe anzugucken und die von der KI verifizieren zu lassen.

00:08:38: also dann über...

00:08:40: Was war das eine Datenreiher?

00:08:41: Also hast dann irgendwie Arzt XY in Hospital oder in Augenklinik so und so.

00:08:47: Und unsere Kunden hatten dann noch Zusatzansprüche, Zusatzinformationen die sie haben wollten.

00:08:51: also ist das zum Beispiel privately owned?

00:08:53: Ist das öffentlich?

00:08:54: wie ist die Investitionsstruktur dahinter?

00:08:56: Das sind halt eine Datenreihe die du hast und wir können nicht nur verifizieren sondern auch noch erweitern aber im ersten Schritt verifiziert werden.

00:09:05: das was halt irgendwie früher achthundert Werkstudenten gemacht haben, die das nachgegoogelt und geguckt haben macht jetzt halt die Perplexity API für uns.

00:09:12: So wo wir jede Datenreihe durchlaufen lassen können in Badges und sagen jetzt guck mal bitte stimmt das?

00:09:16: Und sag uns auch warum das stimmt?

00:09:17: Wir lassen dann immer eine Begründung mit rausgehen und wir können aber auch anreichern indem wir ja auch da nicht im Werke bauchen der Google ist das jetzt Private Equity oder ist es Public Hospital?

00:09:30: sondern Da können wir auch das großflässig dann über KI APIs ausspeisen.

00:09:36: Dann kommt halt die Quality Control, da muss dann ab und zu mal ein Werk nochmal durchlegen weil wissen wir auch KI ist jetzt nicht perfekt.

00:09:44: und dann haben wir einen Schritt weit automatisierte Quality Control.

00:09:47: Wir Sachen mehrfach laufen lassen oder unterschiedliche Fragen stellen also zum Beispiel komplexe Prompts benutzen wo wir verschiedene Datenpunkte direkt in Kategorien einsortieren lassen.

00:09:58: D.h.,

00:09:58: wir geben dann der KI sagen, okay das sind unsere zehn Kategorie, bitte ordne mal dieses in diesem Fall Krankenhaus und eine diese Kategorianrhein.

00:10:06: da ist natürlich ein relativ hohe Fehler an Fähigkeit aber du brauchst es halt um den Kontext einmal zu gestalten.

00:10:10: im nächsten Schritt kannst du halt die KI auch Null Eins Fragen beantworten lassen also für jede einzelne kategorie und so können wir halt wie ganz viele Schritte mittlerweile machen und dass auch hart skalieren für dann irgendwie was ganz viel für das jetzt in Indien haben ich glaube ich fünfzig tausend oder so

00:10:26: Augenerste sozusagen mit jeweiliger, wo sie arbeiten.

00:10:28: Anfängliche Daten rein!

00:10:30: Also genau anfängliche Daten rein das sind dann am Ende sind es nur noch dreißig tausend.

00:10:34: aber daran merkst du halt auch wie viel Müll da ist mehr rumspümmt und wie gut wir das jetzt aber durch dann auch die durch die Nutzung von AI die wieder in verschiedenen Schritten einbauen wirklich hochwertige Qualität liefern können effizient erarbeiten können und unseren Kunden da irgendwie nochmal ganz andere ja ganz ganz andere Qualität ganz andere Skalierbarkeit ganz andere Größen auch mitgeben können.

00:11:00: Und es war für dich so ein Ah-Effekt, wo man viel manuelle Arbeit reduzieren konnte?

00:11:07: Oder was war sozusagen der Mehrwert, worum ihr... Ihr könnt's halt dann auch günstiger dem Kunden anbieten?

00:11:13: Genau also das ist das eine.

00:11:14: Das eine ist einfach Skalrierbarkeit und das andere ist aber wirklich auch Qualität.

00:11:17: Also weil wenn wir Also in diesem Projekt haben wir mehrere Märkte durchgang Indien, weil einer China und anderer immer diesen kompliziert.

00:11:26: Weil du brauchst halt auch eigentlich das Marktverständnis dafür.

00:11:29: Sondern ich kann da irgendwie auch dreißig Werkstudenten hinsetzen.

00:11:31: aber wenn die den Kontext des indischen Marktes nicht verstehen und nicht die Feinheiten verstehen warum ist denn diese Datenreihe schlecht?

00:11:38: Das ist ja ein ganz wichtiger Punkt!

00:11:39: Ich muss ja verstehen was sind die Bugs?

00:11:41: und sie sind systematisch und von Land zu Land unterschiedlich.

00:11:44: also dann guckst du halt in die USA Guckst du halt, was sind da öffentliche Hospitals?

00:11:49: Und das sind irgendwie nur die VA, die veteranen Hospitals zum Beispiel.

00:11:53: Muss man halt vorher mal wissen, und das kann ich jetzt jeden

00:11:56: einzelnen Studenten schulen.

00:11:58: Genau für den Industrie Kontext und so können wir uns einmal den Industrikontext angucken.

00:12:02: Wir können dann auch für unsere Lösung Context Engineering betreiben.

00:12:06: Das heißt geben es ja nicht einfach nur mit in die Prompt rein.

00:12:09: Hey guck mal ist das so oder so.

00:12:10: Sondern wir gucken uns vorher dem Markt an, wir betreiben Context engineering Und können das dann aber halt in jede Prompt mit einspielen und der KI sagen Guck mal dass ist der Kontext indem wir uns bewegen.

00:12:19: das haben wir vorher schon rausgefunden und danach kannst du jetzt die Qualität machen.

00:12:23: übrigens auch wichtiges Learning, das wird im Context Engineering haben wir auch schon vorher nicht gemacht und haben gemerkt dann ist halt auf die KI-Müll.

00:12:30: Also es braucht da Feuer.

00:12:31: der Human, der sagt okay ich gucke mir jetzt den Markt an Ich verstehe die ganzen Einzelheiten auch und ich verstehe dir auch die kulturellen Hintergründe, die da mitspielen.

00:12:39: Und warum gehen auch Leute in welches Krankenhaus?

00:12:41: Dann kann ich sowas halt machen.

00:12:43: Du musst den Rahmen setzen.

00:12:44: Genau

00:12:46: Das heißt vom Prozess.

00:12:47: wie muss ich mir das vorstellen?

00:12:48: Der Kunde kommt und sagt ich möchte gerne wissen Wie groß ist der Markt für indische Augenärzte oder Augenärzt in Indien, so rum besser.

00:12:57: Und dann würde ich ihr euch hinsetzen und sagen okay wie kann ich überhaupt einen Augenarzt identifizieren?

00:13:02: Auf was kommt es eigentlich an?

00:13:03: Dadurch baust du eigentlich schon ein Art Paper auf kannst sagen verifiziere und würdest mit diesem Paper dann mit einem Large Language Model herum spielen um rauszufinden kommen da eigentlich gute Ergebnisse heraus?

00:13:14: die würde man validieren und würde.

00:13:17: sie würde dann sozusagen ist auf die große Datenmenge los schicken.

00:13:20: Genau, und halt ein anderer Schritt den wir vorher machen müssen ist gucken wo kriegen wir die baseline Daten her?

00:13:24: also geos scraping so wie es jetzt für dieses Projekt gemacht haben.

00:13:26: das eine Möglichkeit.

00:13:27: Eine andere Möglichkeit is irgendwelche Unternehmensdatenbanken mit denen man vielleicht mal anfangen kann oder wo wir einfach Unternehemslisten auch zusammenstellen und die teilweise wirklich aus dem Internet zusammensaugen gerade wenn's um Nische gemerkt gibt.

00:13:39: aber dann hat mal hier meine Liste aufgestellt für Quality Ranking und da hat mal irgendein Blogger was gemacht und das können wir halt irgendwie zusammesaugen und machen daraus doch ne konsistente Liste.

00:13:49: Oder wir scrapen sonst auch einfach mal irgendwie die ersten tausende Ergebnisse von Google und gucken, was dabei rauskommt.

00:13:56: Welche Unternehmen da aufschlagen und machen daraus halt dann eine Liste?

00:13:59: Das ist dann eine andere Form vom Baselinedata, die wir dann aber in den ähnlichen Prozess spielen können – von Quality Control und Ähnlichem.

00:14:05: Und das ist tatsächlich eher so ein Standardprojekt, was wir machen also wo Leute viel zu uns kommen, wo sie dieses Datengeschäft brauchen.

00:14:13: Und dann im nächsten Schritt können wir natürlich auch komplexere Analysen obendrauf setzten.

00:14:18: also da können wir halt dann irgendwie so innovation laufen lassen.

00:14:21: Modellierung laufen lassen das genau, dass ist dann für die nicht nur in Anführungszeichen wissen wollen wie viel oder wie groß sondern dann irgendwie noch komplexere analysen.

00:14:32: nehmen uns mal mit was sind komplexer analysen?

00:14:34: komplexe analysen gibt es verschiedene momente.

00:14:38: ich würde mir zwei beispiele nennen.

00:14:40: eines anschließend an das was mein chef schon vorgestellt hat die sind die pop Das ist diese politische Population, die wir beispielsweise aufbauen.

00:14:50: Wir haben jetzt zum Beispiel ein Problem bei, wenn wir Primärmarktforschung machen, dass wir in Nischen nicht reinkommen... Also du kannst

00:14:58: für die Gehörerinnen und Gehören nochmal Primärmarkt forschen?

00:15:01: Ich frage Leute was sie denken!

00:15:03: Das ist die Mehrmarktforschung.

00:15:05: Wir haben einhundert Leute gefragt, ich weiß nicht ob das die Leute aus der Spiegel schauen.

00:15:09: Ich kenne es auf jeden Fall.

00:15:10: Genau!

00:15:11: Und wir haben einfach Leute gefragt was sie denken, was sie meinen?

00:15:15: Was sie tun?

00:15:16: Das ist Primärmarktfassung und je nischiger das wird, je kleiner die Zielgruppe will wie du ansprechen willst.

00:15:22: also sagen wir mal du möchtest jetzt zum Beispiel herausfinden wer könnte denn jetzt bei mir im Bäckerhandwerk, eine Ausbildung machen.

00:15:31: Dann reden wir eh nur von Leuten die im Backwerk interessiert sind oder zumindest im Handwerk interessierend sind.

00:15:37: Die müssen irgendwo zwischen sechzehn und neunzehnt sein so die Richtung wo sie die Schule verlassen.

00:15:43: Das ist schon nicht mehr so groß der Teil der Bevölkerung in Deutschland.

00:15:45: das heißt du kannst jetzt nicht einfach alle deutschen fragen und hast dann eine repräsentative Studie sondern dann kannst du halt statistisch da nicht mehr viel rausmachen weil die Zielgruppe einfach sehr klein ist.

00:15:53: Und was wir jetzt machen können das nennt sich dann Synthetic Boost.

00:15:58: Auf der Basis dieser synthetischen Population ist zu sagen, wir machen immer noch eine Primärmarktforschung.

00:16:02: Weil es super wichtig ist, reale Daten zu haben.

00:16:06: Das nennt sich dann Grounding also indem man die KI-Schritte, in denen man die synthetische Schritte aufbaut und die man auch nutzen kann um das zu kalibrieren und auch Backtesting zu betreiben.

00:16:18: Also nochmal zu gucken unsere synthetischem Datum, unsere syntheticen Vorgänge passen die zur Realität.

00:16:24: Das kann man dann gegeneinander kalibrierend.

00:16:26: Und dadurch können wir aber jetzt auf der Basis der synthetischen Population, wo wir alle Deutschen oder in Deutschland erstmal alle drin haben als künstliche Individuen.

00:16:36: Können wir quasi diese Primärmarktdatenforschung reinspielen?

00:16:40: Die Ergebnisse da rein spielen und dann die Zielgruppe größer machen.

00:16:43: Aber wie muss man wirklich mit?

00:16:45: Also du ... Wir würden jetzt hundert Leute befragen zum Thema Handwerk.

00:16:49: Ja!

00:16:50: So... Und ob sie Interesse haben In der Ausbildung als Bäcker.

00:16:58: Dann hast du von hundert Leuten das Ergebnis, manche sind wahrscheinlich gar nicht am Handwerk interessiert und sagen wir mal zehn sind am Handwerker interessiert.

00:17:06: Und von zehn wollen drei Bäcker werden.

00:17:08: Genau!

00:17:09: Dann habe ich die Daten, hab' die vielleicht über eine Online-Befragung gemacht.

00:17:14: So was mal jetzt?

00:17:15: Genau, und jetzt kommst du als Kunde zu mir und sagst Boah drei ist gar nicht so viel.

00:17:19: Da kann ich jetzt irgendwie nicht auf die Allgemeinheit mitschließen.

00:17:21: Und dann sag' ich so Stimmt!

00:17:23: Ist erst mal so würde meine Statistik-Professoren im Sechseck springen wenn ich das machen würde.

00:17:29: Wir werden auch reden noch nicht von Drei.

00:17:31: also der Synthesische Gruppelposition kommt sogar bei drei auch nicht viel weiter.

00:17:34: aber wir würden dann irgendwie keine Ahnung.

00:17:37: ein paar hundert Leute befragen und da ist dann halt diese Zielgruppe mit drin und wir können dann... Die synthetischen Populationen haben Die Individuen haben schon ganz viele Eigenschaften.

00:17:46: Woher?

00:17:48: Das haben wir erhoben, das kommt zum Beispiel aus dem Zensus.

00:17:51: Wir haben die ganzen Zensus-Daten in die synthetische Population reingepackt.

00:17:54: D.h.,

00:17:54: sie ist wirklich repräsentativ für das was in Deutschland passiert.

00:17:58: Ja.

00:17:58: Das ist jetzt nicht der echte Manuel, der in Potsdam wohnt aber es wohnt irgendeinen Manuel im Potsdamm und der ist auch eine synthetischen Population.

00:18:06: Und die haben schon Eigenschaften und wir laden da immer mehr Eigenschaft rein, wirklich von nicht nur wo wohnen die aber auch was verdienen die.

00:18:13: Was haben sie eigentlich für Jobs?

00:18:15: Welche Schulabschlüsse haben die bis hin was weiter hinläuft?

00:18:19: Was haben die Präferenzen?

00:18:20: wie stehen die zur Nachhaltigkeit?

00:18:22: sind die vegan wie pendeln die zur Arbeit?

00:18:25: also wirklich... bauen da immer mehr Informationen drauf.

00:18:29: Und wenn wir jetzt eine Primärmarktforschung machen, also Leute befragen hey was willst du eigentlich beruflich machen?

00:18:34: und wir haben aber nur diesen kleinen Anteil dann können wir auch diese Daten in die synthetische Population rein speisen.

00:18:40: Wie verlängte sie?

00:18:43: Über Algorithmen.

00:18:44: Also das ist am Ende des Tages ein Datensatz einer Datenbank.

00:18:49: ja und ich glaube im einfachsten Sinne kannst du sagen wir fügen Spalten hinzu.

00:18:54: Also das ist eine komplexe Datenbank, die da über verschiedene Ebenen dann läuft und verschiedene Verbindungen du hast.

00:19:02: Aber im Grunde genommen... also ich glaube es sich ums greifbar zu machen, du fügst ne Spalte hinzu.

00:19:10: Du sagst jetzt irgendwie wir wissen aus der Primärmarktforschung junge Männer, die einen drei Komma fünf Abitur haben sind in der Tendenz eher dazu geneigt eine Ausbildung als Handwerker zu machen.

00:19:23: so und wenn die jetzt auch noch essen mögen oder irgendeinem kein an Food Influencer folgen, dann ist Bäckerhandwerk auch noch wahrscheinlicher.

00:19:30: Und dann gucke ich wie viel habe ich jetzt in der synthetischen Datenbank die so sind?

00:19:35: Genau!

00:19:36: Und dann kann ich dir halt sagen okay das ist die Zielgruppe... noch mal das größere Volum, ich kann ja halt eine andere Aussage über das Volumen machen.

00:19:45: Wir können es quasi dann auf ganz Deutschland brechen

00:19:50: oder verifizieren.

00:19:51: also wenn man jetzt tausend befragt hat und rausbekommt ist wären nur drei Prozent könnte das gleiche spielen nochmal gegen die große Datenbank machen und simulieren ob wirklich auch diese drei prozent rauskommen würden oder es mehr geben würde oder weniger.

00:20:05: Genau, das wäre noch mal ein anderer Schritt.

00:20:06: Aber ich glaube jetzt... Also vielleicht muss es wirklich ganz praktisch zu machen.

00:20:09: Wenn du jetzt irgendwie Bäckermeister bist in Wuppertal und du möchtest wissen wie viele Sechzehnjährige in meiner Umgebung gibt es die daran interessiert sind?

00:20:18: Dann hilft dir das nicht wenn ich einen Azubi möglichen Azubis in meiner Primärmarktforschung drin hatte.

00:20:25: aber wenn ich das dann auf die Sintipop umlegen kann, dann weiß ich okay in deiner Region mit diesen ganzen Kategorien Wohnsohne so viel Sechszehnäreig dafür in Frage kommen würden.

00:20:34: Vielleicht musst du mal noch in einer anderen Stadt suchen, weil im Nachbardorf sind's irgendwie mehr und da kannst du irgendwie deinen Recruiting Efforts nochmal ganz anders gestalten.

00:20:42: Das sind so die Aspekte, die du damit aufnehmen kannst oder konkrete Fragen, die dich damit antworten kannst.

00:20:47: Cool!

00:20:48: Und darauf kommen schon die ersten Newscases?

00:20:50: Ich glaube Eiger hatte schon einen zum Thema Pendeln...

00:20:54: Eberwahrscheinlich genau.

00:20:55: Also das Eisenbahnbundesamt, die wollten wissen wer pendelt eigentlich wie und wohin und mit was.

00:21:01: Du kamst jetzt aber, ich glaube es war eher so ein anfassbares Beispiel zum Bäcker.

00:21:04: Ich weiß nicht ob's das gab.

00:21:06: Aber was sind dafür UseCase die sonst noch so kommen?

00:21:10: Weil damit baut ihr ja... Ist es etwas einzigartiges, was ihr in Deutschland aufbaut?

00:21:13: Gibt's das irgendwo schon auf dem Markt?

00:21:16: Es gibt es so nicht auf dem Markt!

00:21:19: Ich weiß dass auch andere Unternehmen daran arbeiten.

00:21:21: Ich bin aber jetzt ehrlicherweise auch nicht die Sintipop-Expertin, das ist Eike der da vor Front ist.

00:21:28: Aber natürlich arbeiten da Leute dran.

00:21:30: also es sind irgendwie KI, aber genau use cases sind.

00:21:35: wenn du eine Frage beantworten musst um ... die dir auch eine regionale Relevanz hat Irgendwann wird man die sind, die auch im digitalen Raum anbinden.

00:21:47: Das ist ein Schritt dem wir jetzt auch gerade planen.

00:21:49: also zu gucken welchen Influencern folgen die und dann kannst du da halt eine Modulierung drauf bauen wo irgendwie Netzwerkeffekte nachweisen kannst.

00:21:57: Also das ist in der Schule haben alle den Influencer gefolgt und deswegen verbreitet sich das jetzt durch der Netzwerk oder so auf tatsächlich physischer Ebene.

00:22:07: aber das sind dann die Fragen du beantworten kannst.

00:22:11: fürs Targeting, wenn du

00:22:13: z.B.,

00:22:13: wir gehören ja zu unserer Mutterkonzerneströhr die auch viel Außenwerbung machen.

00:22:18: und wenn du jetzt wissen möchtest wo kann ich denn diese Außenwerbung machen?

00:22:21: Also ich weiß irgendwie meine Zielgruppe, ich weiß der Werbeaufanspricht und ich möchte jetzt wissen wo die wohnen um wirklich genau da das Plakat hinzustellen dass sie ansprechen soll.

00:22:28: dann kann ich das zum Beispiel auch mit der Synthepop machen.

00:22:31: Ja wahrscheinlich ist es so...so der prominenteste oder für dich anfassbarste Fall ...dem man so Richtung AI bezeichnet oder...

00:22:47: Nee, ich hab damit eigentlich gar nicht so viel zu tun muss ich ehrlich sagen.

00:22:51: Gut

00:22:51: dass wir drüber

00:22:51: gesprochen haben!

00:22:53: Was ist so für dich?

00:22:57: Wo sagst du...?

00:23:00: Also ich glaube und da kannst du uns ja nochmal abholen ihr arbeitest schon länger in dem Bereich Data Engineering.

00:23:06: Data Science ist sozusagen klassisch Data Science Themen Aufbereitung der Daten dann Verarbeitung.

00:23:12: wo hast du das Gefühl gehabt?

00:23:14: War in deinem Team das erste Mal so AI richtig angekommen, durch ein Hype?

00:23:18: oder habt ihr schon vorher damit rumgespielt?

00:23:20: Also ich glaube es hat verschiedene Dimensionen.

00:23:22: Ich habe echt den Vorteil dass sich einfach total engagierte und interessierte Mitarbeiter haben die wirklich an dem Tag als Change-DP released worden sind angefangen haben damit zu arbeiten.

00:23:31: Ich hatte einen Kollegen der hat sich noch mal einen privaten Rechner extra gekauft mit dem abgeschlossenes System damit er keine Compliance Regeln verletzt, damit er darauf mal arbeiten kann und einfach privat mal rumprobieren kann was so passiert.

00:23:41: So ist das irgendwie bei uns aufgeschlagen.

00:23:44: Und dann, was glaube ich auch halt... Also auch da, Statista kennt man für die Daten und für die Statistiken und es ist auch viel, was wir für Kunden machen.

00:23:53: Wir machen aber auch superviel!

00:23:54: Qualitative Forschung.

00:23:56: Also bei der Primärmarktforschung, das ist einmal ich frage hundert Leute, das andere ist aber auch ich mache Experteninterviews, ich mach qualitative Interviews und ich mache tiefen Interviews.

00:24:06: Wir machen es auch in einem anderen Bereich sehr viel wenn wir über Marktanlüsien sprechen um die Industrieingspertise rauszufinden.

00:24:11: Wir machen Experten-Interviews.

00:24:12: Wir reden mit ganz vielen Leuten Und wir machen superviel Mit Sprache.

00:24:18: und dann ist natürlich Das zweite L in large language model ist genau dass was wir dafür brauchen.

00:24:23: Und so ein Case, wo es es bei uns richtig eingeschlagen ist war und das ist jetzt wirklich auch schon zwei Jahre her.

00:24:31: Das sitzt mittlerweile schon veraltet und wirkt jetzt gar nicht mehr so spektakulär.

00:24:34: aber damals war das für uns der Einstiegspunkt.

00:24:40: wenn wir Interviews machen Wir kriegen dann Transkripte, wir machen das teilweise über Drittanbieter, teilweise selber.

00:24:47: Dann haben wir die Audiodateien, dass wir in Transkrifte umgewandelt sind oft sehr schlecht weil dann die Audio-Dateien nicht so richtig gut funktioniert.

00:24:57: und der alte Ablauf war zu Christen... So ein Expert-Interview, das dauert fünf, vierzig Minuten.

00:25:03: Da muss sich ein Analyst dran setzen.

00:25:05: Der muss das nachhören und das transcript ausbessern.

00:25:08: Dann hört es noch mal auf halber Geschwindigkeit nach um die Notizen zu machen für die Fragen, die wir beantworten wollen für den Kunden.

00:25:14: Und das macht so halt zwanzig Mal... Also ehrlich, es finden halt alle Scheiße ne?

00:25:18: Das hat halt keiner Bock drauf diese Aufgabe zu machen!

00:25:23: Und dann kommt ein Large Language Model.

00:25:25: Also Language, das ist halt genau der Punkt.

00:25:27: und wir haben am Anfang super Hands-M nicht damit angefangen und haben gesagt okay ich schmeiß jetzt mal so einen Transkript einfach bei ChallengeDB rein und guck mal was passiert.

00:25:34: und hey!

00:25:35: Das funktioniert halt irgendwie ne?

00:25:37: Am Anfang noch gar nicht so gut aber gerade dieses Transkrip bereinigen die Maschine versteht schon irgendwie DMs rauszunehmen und ganze Sätze zu bilden und das wirklich auch lesbar zu machen für die Analyse.

00:25:52: Da haben wir diesen ersten Schritt gemacht, wo die Leute sofort gemerkt haben Boah das Ding nimmt mir halt auch echt die Scheißarbeit ab.

00:25:59: Und ich hab da keinen Bock drauf.

00:26:00: aber ich krieg am Ende geile Ergebnisse und ich kann mich eigentlich auf das konzentrieren worauf ich Bock habe nämlich die Analyse und die Erarbeitung der Insights unter strategischen Aspekte für meinen Kunden.

00:26:09: Das haben wir dann im Laufe der Zeit hart hoch skalieren können.

00:26:12: also wir hatten und da zeigen sich auch die Effekte.

00:26:15: vorher brauchst du halt irgendwie einen Tag für ein Expertinterviews heute schaffen wir unsere skalierten Lösungen zweihundert in fünfzehn Minuten.

00:26:22: Das ist halt irgendwie so ein Effekt, den wir jetzt haben.

00:26:24: Es war am Anfang viel weniger und die Modelle haben sich verbessert.

00:26:28: Das ist auch so was, das ist dann sehr dynamisch.

00:26:30: Am Anfang war die Pipeline echt... war anstrengend und komplex.

00:26:34: Und es musste immer von einem Data Scientist durchlaufen lassen, durchgelaufen lassen werden bis das irgendwie funktioniert hat.

00:26:40: und wir hatten verschiedene auch noch Rule-Based Schritte mit drin und verschiedenen Skripte.

00:26:43: Das konnten wir jetzt auch verschlanken weil natürlich auch mit jedem Modell das rauskommt, mit jedem Reasingmodell herauskommt irgendwie die Sachen besser werden und wir dann unsere Lösung nochmal bearbeiten müssen.

00:26:52: aber das war so ein ganz zentraler Knackpunkt wo wir gemerkt haben hier steckt halt echt Musik drin also für uns und unserer täglichen Arbeit.

00:27:00: Und was wir aber auch gemerkt haben dabei ist, am Anfang wenn wir dann irgendwie direkte Zitate brauchten um das für unseren Kunden irgendwie brauchbar zu machen hat das Ding halt auch mal gelogen und hat noch Sachen erfunden.

00:27:12: Erkennen wir alle so?

00:27:14: Da haben wir in dem gleichen Prozess auch sehr gut lernen können.

00:27:16: wo sind eigentlich die... Wo sind die Grenzen?

00:27:19: Wo ist auch dieser Human in the Loop einfach essentiell, also den kannst du halt nicht rausnehmen.

00:27:24: Du brauchst immer noch den Analysten!

00:27:25: Du brauchste nicht mehr um irgendwie Transkripte abzutippen aber du brauchst jetzt für die qualitativ hochwertige Arbeit und für die Kontrolle... Das hat ja dann auf den Kollegen Spaß gemacht und das war so ein Moment der bei uns echt funktioniert hat.

00:27:42: Du reduzierst ja nicht nur die manuelle Arbeit, sondern du gibst mehr Zeit für die Qualitative.

00:27:47: Man kann sich dafür eben noch mal viel mehr beschäftigen.

00:27:50: Und was halt dazu kommt auch nochmal an diesem Beispiel abgearbeitet?

00:27:52: Du hast nicht nur mehr Zeit in der Qualitative Arbeit, es kommt halt auch etwas Besseres raus!

00:27:57: Also wenn du jetzt irgendwie fünf Analysten hast, die unterschiedliche Interviews hören, die hören alle immer was Unterschiedliches schreiben andere Dinge raus wir können jetzt den gleichen Prozess durch fünf Agent-Analysten durchlaufen lassen, denen wir unterschiedliche Charaktere geben und sagen okay du guckst mal so drauf, du gucks mal so darauf, du guckst mal auf.

00:28:14: Haben dann die Synergien können das zusammenfassen haben das viel detaillierter sind uns relativ sicher dass auch nicht so viel weg bleibt.

00:28:20: also human error wird schon reduziert in dieser stumpfen Arbeit.

00:28:23: Und der nächste Schritt, der dann kommt, unsere Analysten können das auch unseren Kunden ganz anders zugänglich machen.

00:28:28: Weil wir es jetzt halt anders aufgearbeitet haben und ist halt irgendwie nicht mehr nur... Es war vorher auch schon gut, sind sie hier nur Notizen von Analysten?

00:28:34: Aber wir haben jetzt sehr strukturierte Aspekte aus diesen Expertinterviews raus die wir dann auch in Datenbanken reinpacken können, die wir da ein interaktives Dashboard für unseren Kunden machen können so dass wenn er sagt hey guck mal der Insight der ist super spannend.

00:28:46: ich möchte jetzt nochmal genau verstehen wo das eigentlich aus diesem ganzen qualitativen Wust herkommt kann ja halt ins einen Dashboard reingehen.

00:28:52: Wir haben das für den aufbereitet, ach guck mal natürlich anonymisiert.

00:28:55: aber Experte XY hat das gesagt und der das gesagt.

00:28:58: Und so bin ich jetzt zu meinen Insights gekommen und das macht dann auch dem Mitarbeitenden Spaß wenn ihr dem Kunden sowas liefern könnt.

00:29:05: Wo glaubst du macht denn AI noch keinen Sinn bei euch?

00:29:08: Also AI tut sich immer noch schwer mit Zahlen, dass ist wesentlich besser geworden.

00:29:13: Aber da ist es halt natürlich noch schwierig.

00:29:19: Die KI im Bereich Daten ist noch nicht so eigenständig, vielleicht kann man es so beschreiben.

00:29:22: Also das ist halt in einem Bereich den sehr auch einfach aus... Es ist halt Language oder so und da kann es nicht so eingeständig handeln, es kann mittlerweile schon sehr klar Aufgaben erfüllen wenn du die gibst und sagst okay drei plus drei funktioniert mittlerweile?

00:29:41: Das war ja am Anfang auch nicht so.

00:29:43: Aber komplexe Analysen zu fahren, zu lassen Und da ist auch das Kontext-Engineering extrem schwierig.

00:29:51: Also wenn wir jetzt, ich glaube ja mal so ein großes Wiederkehrendesprojekt, wo Leute irgendwie wissen wollen, welche Typen von Fahrradreifen in welchen Ländern geparvt werden... Das

00:30:01: hat, glaub' ich, auch irgendjemand... ...das

00:30:03: hat Eike bestimmt erwähnt, oder was?

00:30:06: Eins von seinen Babys, glaube ich!

00:30:10: Da ist halt kultureller Kontext total anspruchsvoll.

00:30:13: aber da ist es nicht mehr... eine qualitative Bewertung des Datenpunkts, sondern dann musst du hinter anderem gegen andere Daten verifizieren.

00:30:21: Und wenn ich das auf die Krankenhäuser lege und irgendwo steht Private Equity, dann versteht das LLM okay ich sehe Private Equity.

00:30:29: Du hast mich gefragt ist das Private Equity Hakenladen?

00:30:32: Das funktioniert halt mit Daten noch nicht so.

00:30:36: Verstanden.

00:30:37: D. h. da werdet ihr nochmal neue Arbeit machen müssen oder andere Arbeit machen.

00:30:44: Also da nutzen wir auch KI.

00:30:46: also Aber das funktioniert halt auch in anderen Rahmenbedingungen.

00:30:49: Also, man muss zum Beispiel einen von unseren Weiterbildungsformaten hat eine Kollegin vorgestellt wie man extra Dateien aufbereiten muss dass die KI maximal gut lesen kann.

00:30:59: Das ist aber wieder gleich der Punkt den wir bei Data schon kennen.

00:31:03: Die Aufbereitung des Kontextsetzen von Daten ist wieder achtzig Prozent der Arbeit und am Ende des Auslösen des Codes uns dann laufen zu lassen ist nicht die Riesenarbeit.

00:31:14: Ja genau, ich würde bei Kontext noch mehr sagen als Aufbereitung.

00:31:17: Sondern auch die Konzeptionalisierung der Methode.

00:31:21: dahinter musst du halt aufbereitstellen.

00:31:24: Also da ist quasi den Anfang ja die Aufbereitungen aber wenn ich dann zum Beispiel Netzwerk-Analysen mache möchte, dann muss sich halt auch die Methodik vorher richtig aufstellen.

00:31:33: also das ist z.B.

00:31:33: auch so etwas was wir in die Sintipop einbauen... ...in einem Projekt dass wir fahren möchten.

00:31:43: Im Moment sind die Individuen noch einzeln, wir möchten sie gerne miteinander verbinden.

00:31:47: Da geht es halt auch... also vieles in diesem Berufskontext zum Beispiel, da gibt's Studien dazu das sehr viel von der Entscheidung, die du triffst, welchen Beruf du aussehen möchtest davon abhängig mit wem du am Küchenschisch setzt oder was deine Verwandtschaft macht und auch in welcher Umgebung du sitzt.

00:32:02: Also du bist im Robot eher... also ich weiß nicht was man jetzt... Bergbau wird man hier nicht mehr, ne?

00:32:07: Ich weiß nicht was man jetzt... ich glaube nicht mehr.

00:32:11: Aber natürlich gibt es irgendwie regionale Feinheiten.

00:32:13: also wo du eher das wirst, eher dass wirst du jetzt wahrscheinlich in Stuttgart eher weniger Hafenarbeiter.

00:32:19: Das ist eher so etwas wo wir uns in Hamburg finden.

00:32:23: Genau und da das musst du halt einbinden und dann kannst du aber diese Connections machen und hast dann halt nicht nur einzelne Videos sondern verbindest ihr halt mit Netzwerken und dann weiss ich halt okay Der Manuel hier, der Onkel ist dies.

00:32:37: Der Opa ist dies und wohnt da.

00:32:39: Da ist dieser kulturelle Effekt.

00:32:40: Und das kann ich dann halt auch alles statistisch erheben.

00:32:43: Ich habe diese Netzwerkeffekte und kann sagen, dass der Schiffsbauer in Hamburg wird?

00:32:50: Oder ich kann dem Schiffs-Bauer sagen es gibt so viele Manuells in Hamburg oder die gibts vielleicht auch da und so kannst du jetzt die auch... Dann können wir da noch wie auch schon gesagt also Sachen einpflegen.

00:33:01: Wie steht ihr denn zu Work Life Balance Zum Beispiel?

00:33:04: ist das diese Manuel besonders wichtig oder guckt er nur auf die Kohle?

00:33:06: So, dass können wir ja auch rausfinden indem wir zum Beispiel nochmal eine Primärmarktforschung machen oder ähnliches und dann können wir halt dem sagen da wohnen deine Manuels.

00:33:14: Und am besten gibst du den mehr Geld weil bei Black Life Balance ist ihm gerade gar nicht so wichtig.

00:33:19: Habt ihr das Gefühl oder wie es in Deine Wahrnehmungen, wie nah seid ihr bis zu deinem Markt?

00:33:24: Ist gerade der Run drauf?

00:33:25: Es muss überall AI drauf stehen und dann nehme ich's eher oder ist es noch mal ein bisschen skeptisch zu... Macht das überhaupt Sinn, diese synthetischen Daten zu nutzen und damit Erkenntnisse zu bekommen?

00:33:38: Was ist dein Gefühl?

00:33:41: Also ich glaube es ist gerade hart in Bewegung.

00:33:43: Du hast irgendwie noch konservative Kundinnen die auch selbst in den eigenen Betrieben KI noch überhaupt nicht nutzen.

00:33:48: also wir waren jetzt schon ein paar Monate her.

00:33:52: aber da waren wir on-site bei einem Kunden und ich wollte irgendwie arbeiten.

00:33:54: und bei denen im internen Netzwerk ist ChatGDP nicht zugänglich oder kein KI-Tool zugänglig weil ihr das einfach aus Compliance oder Sicherheitsgründen hier mitarbeitet Nicht mal nicht nur zur Verfügung stellen, sondern aktiv sperren.

00:34:07: Also das ist so... Ich darf nicht sagen, die sind gar nicht skeptisch.

00:34:12: Wirklich auf einer ganz basalen Ebene.

00:34:15: und dann hast du auf der anderen Seite Leute, die als dann wirklich sehr aktiv fragen und das mittlerweile auch erwarten.

00:34:21: Und das war für uns auch so ein Punkt.

00:34:23: ich glaube wahrscheinlich haben es Frederik oder Eike auch angesprochen wir haben einen Großkunden-Mersk wo wir eine Trendstudie gemacht haben.

00:34:30: Da war für uns auch so, das war wirklich ein Umbruch dieser Kunde und diese Studie, die wir gemacht haben.

00:34:34: Weil wir da... Wirklich aktiv in den Pitch mit reingegangen.

00:34:39: Wir machen es mit AI für euch besser und effizienter.

00:34:42: Vorher waren es an manchen Stellen, wir machen es im Hintergrund mit AI.

00:34:46: Wir sagen das dem Kunden auch aber wir schreiben's nicht auf die riesen Fahne weil wir wissen es ist eine gewisse Skepsis.

00:34:52: Und dann kam aber so'n Kunde wie Meerskit, die gesagt haben nee, aber wir finden es eigentlich total cool das mit AI zu machen.

00:34:57: Dann muss man halt irgendwie die Balance finden zwischen Ich finde es cool, aber das macht auch nicht immer Sinn.

00:35:03: Und da muss man das halt dem Kunden auch erklären.

00:35:06: und das ist halt auch so eine Herausforderung die wir total merken dass Kunden zu uns kommen um wie unsere Lösung mittlerweile bei ganz anders erklären müssen weil das halt nicht mehr die Standard konventionellen Lösungen sind die sich einfach erklären lassen sondern wir müssen jetzt irgendwie die Komplexität die wir in den Projekten haben die wir für die Kunden machen auch erklären, weil die das verstehen wollen und natürlich auch müssen.

00:35:25: Das ist ja unser Job aber das ist nochmal eine besondere Herausforderung die wir jetzt mitkriegen.

00:35:29: Aber da merken wird es kommt mehr und mehr.

00:35:32: also das beginnt oft mit hey AI is geil, lass uns mal damit was machen und dann nehmen wir die mit und holen dir auch so ein bisschen in die Praxis und in die Realität rein.

00:35:41: Jetzt unabhängig von AI!

00:35:42: Was war für dich der spannende Case?

00:35:48: Wir würden uns jetzt kennenlernen.

00:35:50: und was war der AHA-Fact?

00:35:52: Was ist das coolste Projekt, wo du dich noch in zehn Jahren dran erinnerst.

00:35:56: Das coolste Projekt, wo ich mich auch in zehn Jahre dran erinnere... Oder vielleicht

00:35:58: doch das schlechteste Projekt!

00:36:00: Die künfteste Erfahrung.

00:36:02: Also ich glaube, ähm.. Ich würde es mal so aufziehen.

00:36:06: Ich hatte an vielen Stellen In den letzten zwei Jahren also seit so einem dreiviertel Jahr vielleicht nicht mehr aber ich hatte oft bin ich aus dem Büro gegangen Und dachte mir Wie erkläre ich Eike morgen, dass sich vierzig Werkstudenten brauchen?

00:36:20: über meine Ei-Lösung?

00:36:21: Ich funktioniert.

00:36:26: Da habe ich sehr lange mit gelebt, weil wir dann viel ausprobiert haben.

00:36:30: und dann hast du ja auch im Data Science Bereich so Momente wo du dann also Batches raus schickst.

00:36:38: größere Menge von Daten, die du dann an die KI schickst und wartest, wie sie arbeitest.

00:36:42: Und es dauert Stunden bis das zurückkommt.

00:36:45: Manchmal ist es so ein bisschen prompt and pray.

00:36:47: Du weißt halt erst dann was dann zurück kommt und siehst dann die Daten und weiß ob das funktioniert hat oder nicht.

00:36:53: Das waren Spannungsmomente... Also diese Spannungspomente wo wir am Anfang einfach... Wir sind wirklich total angespannt durchs Büro gelaufen und da wir die Hühner rumgesprungen haben, weil wir gewartet haben wie diese Batches zurückkommen.

00:37:11: Und so guckt man sich das jetzt passiert?

00:37:12: Und funktioniert das was wir uns gedacht haben?

00:37:15: Das war anstrengend.

00:37:16: Es hat aber auch einfach super viel Energie bei uns freigesetzt, weil es ja wirklich richtig Spaß gemacht hat daran zu arbeiten und das zu lernen oder das zu erfahren und wirklich diese Technologie kennenzulernen und zu erleben.

00:37:27: Ja, gutes Beispiel!

00:37:30: Noch mal bei den Engineers und Data Scientistinnen.

00:37:34: Wie muss ich mir das dann vorstellen?

00:37:36: Die bauen ja nicht eine große Plattform, dafür sind ja andere zuständig, sondern die sind immer für jeweilige Projekte zuständig.

00:37:43: Engineers bereiten die Daten auf, modellieren sie und Data-Scientisten sozusagen die Modelle diese damit einsetzen.

00:37:51: oder wie musste ich mir so ein Projektablauf auch mal vorstellen?

00:37:57: Genau, also es ist bei uns alles Projektbezogen.

00:38:00: Also erstmal total der Traum ist weil wir wirklich sehr agier sind und wie ich schon mal gesagt habe wenn wir mal drei Tage in die falsche Richtung dann versenkt mir jetzt nicht die ganze Plattform.

00:38:09: Das heißt wir können halt viel ausprobieren und gehen viel in so ein Pockbereich rein um zu gucken was funktioniert eigentlich.

00:38:14: aber wenn wir im Projekt anfangen... ...und über komplexe Ideen nachdenken das Meeres Beispiel ist wirklich sehr gut.

00:38:24: für die haben wir eine Trendstudie gemacht wo wir auch erstmal identifizieren mussten, welche Trends im Logistikbereich gibt es eigentlich.

00:38:31: Und dafür haben wir dann mal das Internet leer gesaugt und da müssen wir uns halt sehr konkret überlegen wie wir das machen.

00:38:37: und was wir im Moment noch häufig machen ist anzugucken, wie haben wir's vorher manuell gemacht?

00:38:41: Und wie können wir jetzt nachbauen?

00:38:43: Aber zunehmend kommen wir auch an den Punkt, wo wir einfach ans Ende denken und gucken, was können wir anders machen?

00:38:48: Dann gibts glaube ich so drei Komponenten die für uns relevant sind wenn wir über Innovation nachdenken mehr, besser anders.

00:38:55: So das sind die Kategorien in denen wir arbeiten.

00:38:56: und für dieses Meersprojekt war es so dass wir einfach auch mehr und besser machen konnten weil auch da wären es vorher Analysten gewesen, die Google hätten, die durchgeguckt hätten.

00:39:04: was sind jetzt eigentlich die Trends um was wir dann machen konnten?

00:39:07: Und da kommen halt dann die Data Engineers mit den Data Scientists zusammen in eine Rolle die baunende Pipeline.

00:39:14: Was müssen wir machen?

00:39:15: Wir müssen Informationen zu Trends aus dem Internet Aussaugen und das möglichst breit, dass heißt wir wollen block studieren wirklich alles Pressemitteilung von Unternehmen.

00:39:27: Wollen wir alles zusammenpacken?

00:39:29: Und daraus dann diesen

00:39:31: Datemenge genau

00:39:32: eine Riesen Datenmenge.

00:39:32: Das heißt wo beginnt das mit?

00:39:36: Wir haben dann eine API die uns ansteuert in der wir diese Ergebnisse einfach auslesen können.

00:39:41: also literally was passiert?

00:39:43: wir steuern nach home page an.

00:39:45: Wir sagen extra hier mal bitte den Teil des Textes, der der Logistik Trend wandert und gibt uns nur eine Zusammenfassung dafür.

00:39:53: Das ist dann unsere erste... wir haben das jetzt Knowledge Nuggets damals mal genannt aber wir springen durch so viel Nomekratur.

00:40:00: für jede neue Idee haben wir ein neues Wort.

00:40:02: Genau!

00:40:02: Aber dann hast du halt so einen Knowledge Nougget.

00:40:04: also es ist irgendwie die Pressemailteilung von Nestle die gesagt haben wir stellen jetzt unsere Flotte auf EOM oder so.

00:40:10: Das is irgendwie nen Trend im Logistics Bereich.

00:40:12: Ein kleiner Punkt Und das machen wir jetzt mit dem ganzen Internet, übersprachbar hier hinweg in allen Ländern einfach mehr.

00:40:20: Das ist schon mal der Mehreffekt und dann auch besser weil wir wirklich ins Detail gehen können.

00:40:27: Wir können Kategorien mit rausnehmen auf welchen Logistik bezieht sich das?

00:40:35: Genau wie ich gesagt habe, wir können das kategorisieren wenn wir die Kategorian haben können wir das gewichten Wie viel ist eine Pressemeldung wert in so einem Kontext, wieviel ist ne Studie wert?

00:40:45: In so nem Kontext und können daraus dann sehr konkret ableiten.

00:40:48: Ja okay das sind jetzt wirklich die Top Trends, sondern das sind wirklich das was passiert.

00:40:54: Und dann wird halt das ausgelesen.

00:40:57: Dann in der nächste Schritte in den Pipern, es muss in irgendeine Datenbank rein.

00:41:01: Das heißt da wird er mit der nächsten Schritt gemacht, dass machen halt dann die Data Engineers Und dann kommen im nächsten Schritt die Data Scientist, die genauso wie du gesagt hast, dann die Analyse übernehmen.

00:41:10: Also dieses systematische Gewichten... Wie stellen wir die Modelle auf?

00:41:14: Das analysieren und dann reden wir halt über hunderttausende von Daten rein, die dann irgendwie zusammengepasst werden müssen.

00:41:19: und dann kommt am Ende die beim Erskal so eine Trend-Map raus wo du sagen kannst okay das sind die Top Trends da stehen sie in ihrer Reife so relevant

00:41:31: wenn du noch mal zurückdenkst, was waren so Fehler die du jetzt nicht mehr machen wollen würdest?

00:41:39: Politikwissenschaft studieren.

00:41:44: Also ich glaube was wir tatsächlich unterschätzt haben ist Kontext und Engineering and Quality Control.

00:41:48: das sind wir am Anfang relativ hemmtstämlich angegangen sondern dann haben halt gesagt wir schmeißen es einfach mal rein und gucken was passiert und haben dann den die Daten zurückbekommen.

00:41:57: können wir uns jetzt unendliche Qualitiekontrolle machen weil wir vorher nicht genug drüber nachgedacht hatten Und das haben wir sehr krass umgestellt.

00:42:03: Und da sind auch am Anfang, glaube ich, Frustrationsmomente aufgekommen weil dann alle gedacht haben hey es eigentlich funktioniert gar nicht gut und wir haben irgendwie... ...sechzig Prozent der Daten sind gerade erst mal noch Müll.

00:42:18: Weil wir das vorher nicht ordentlich, nicht ordentlich ingeniert

00:42:20: haben.

00:42:23: Das habe ich dann in viele Momente ausgestrahlt.

00:42:25: Es hat dann eben die Aufwand getrieben und wir waren dann in manchen Projekten nicht mehr so profitabel wie ich das gerne gehabt hätte.

00:42:31: Ja, es hat Mitarbeiter frustriert.

00:42:32: Es hat auch ein bisschen das Vertrauen in die KI wieder zurückgeschrumpft und da mussten wir hart nacharbeiten.

00:42:40: Da würde ich sagen, dass wir Mangel des Kontext-Engineeringen anfangen.

00:42:43: Ich glaube, das war unser größter Fehler.

00:42:45: Wenn du so ein bisschen in die Zukunft guckst was wäre so'n Thema?

00:42:49: Was du glaubst, was jetzt kommt wenn man ins Bayerian Podcast aufnehmen würden?

00:42:55: Nimm mich das.

00:42:55: vor zwei Jahren gefragt hätte ich halt nicht gewusst wo wir heute stehen.

00:42:58: ne Ich weiß nicht, ob das noch geht.

00:43:00: Also ich glaube was bei uns eine Rolle spielt.

00:43:04: Ich würde es auch mal an unserem Projektgeschäft oder einem Businessmodell festmachen.

00:43:08: Dadurch dass wir Projekte haben müssen wir Lösungen immer wieder anpassen und ein Ziel für uns profitabler zu werden ist natürlich diese Anpassung so gering wie möglich zu halten.

00:43:19: aber es ist natürlich einen riesen Unterschied ob der Kunde wissen möchte wie viel Fahrradreifen in Italien nächstes Jahr gekauft werden Käse in China essen.

00:43:29: Und dann müssen wir halt diese Pipelines, die Lösungen, die wir haben anpassen und das beginnt mit dem Context Engineering.

00:43:34: Das beginnt aber auch teilweise mit den Aspekten dazwischen, die ich vorhin beschrieben habe und da sehen wir halt große Möglichkeiten für Agents.

00:43:41: Und das ist das, woran wir jetzt schon arbeiten, dass wird das Ganze halt in dieser Agentik-Architecture.

00:43:45: Es ist ja auch so ein Passwort was man heute überall an jeder Ecke und Ende hört.

00:43:50: Da funktioniert auch noch viel nicht so und ich glaube es wird auch noch überhyped im Moment.

00:43:54: Vor allen Dingen in dieser Gänze, in der es beschrieben Ob wir jetzt an den Punkt kommen, die meine Chefs nicht erwünschten.

00:44:00: So Kaba wo ist der Knopf?

00:44:03: Und dann funktioniert die Ende zu Ende Lösung.

00:44:05: Die ist glaube ich noch ein bisschen... Genau für alles!

00:44:09: Der Statista-Knopf.

00:44:12: Aber da kommen wir hin so.

00:44:13: und dann wirklich dieses Context Engineering das wir sagen Wir haben einen Projekt Management Agent, wir haben einen Industry Expert Agent für D&D Industry.

00:44:22: Wir haben dafür einen Agent und da kann ich quasi den Kundenrequest reingeben je nachdem aus welcher Industrie dann kommt.

00:44:28: Die Arbeit miteinander, die diskutieren auch miteinander.

00:44:31: Die bauen quasi erstmal das Grundgerüst für das Projekt dann auf was dann irgendwie in die Tools gegeben werden kann.

00:44:37: also der Agent kann da ein Tool ansteuern und kann sagen okay jetzt lass mal diese Pipeline laufen wie jetzt vielleicht mit so einem Mehresprojekt wo einmal das Internet leer saugst Und... In den verschiedenen Schritten wo dann der Human-Insel Looper bei mir drin steckt um da die Kontrolle zu machen und nun wirklich auch die Feinheiten draufzusetzen, die Norsen daraufzu setzen.

00:44:53: aber das glaube ich sind so die nächsten Schritte Die da relevant werden.

00:44:58: Guck

00:44:58: mal, ob wir in zwei Jahren nochmal genau über das Thema sprechen oder

00:45:02: was?

00:45:02: Oder ob dein Agent meinen Job hat.

00:45:03: Ich mich hier

00:45:05: mit dem Agent unterhalte und auf meiner Seite den Agent.

00:45:07: Ja, es ist dann einfach nur noch ein

00:45:09: Beep-boop.

00:45:11: Aber ich stelle ja meinen Gästen immer zwei Fragen am Ende.

00:45:15: Machst du noch etwas privat mit Daten?

00:45:16: Und wenn ja was?

00:45:18: Wie würdest Du mit einem Filmtitel oder Serientitel alles bezeichnen hier?

00:45:24: Also privat, ich glaub das was halt jeder macht ist irgendwie so ein bisschen in seinen Finanzen mit Daten zu arbeiten.

00:45:28: Der kommt glaube ich keiner drum herum.

00:45:29: ansonsten mach' ich das gar nicht.

00:45:30: also weil ich's halt beruflich irgendwie täglich mache ich lass mich gerne auch einfach mal treiben und guck mal was passiert dass dann irgendwie die human experience ist.

00:45:39: also ich würde jetzt nicht sagen dass ich privat irgendwo datennutze aber wirklich auch bewusst nicht teilweise Film oder Serientitel.

00:45:50: vier Entloathing in Las Vegas.

00:45:51: Also wir packen den Koffer voll mit irgendwelchen Substanzen, die uns neue Höhen treiben und probieren einfach mal alles auf und gucken mal wo wir hinfahren.

00:46:00: Ja das ist cool!

00:46:03: Wir haben irgendwie unseren Kofferaum voller KI-Modelle und neuen Features und neuen Tools.

00:46:08: irgendwie rauskommen, setzen die Sonnenbrillen auf, es ist nacht und wir fahren nach Las Vegas also...

00:46:13: Sehr cool.

00:46:13: ja sehr sehr cool.

00:46:16: vielen vielen Dank für die Folge.

00:46:18: Ja sehr gerne hat Spaß gemacht.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.