Zwischen Gen AI und Realität – sevDesk Use Cases im Check, mit Dr. Sebastian B. R. (3/3)
Shownotes
Buchhaltung ist repetitiv, reguliert – und wie gemacht für Data Science. In Teil 3 der sevDesk-Reihe spricht Jonas Rashedi mit Dr. Sebastian Benjamin Rose, Head of Data Science, über konkrete Machine-Learning-Projekte: Von automatisierter Belegerkennung bis zur intelligenten Zuordnung von Banktransaktionen.
Sebastian erklärt, wie das Data-Team klassische ML-Modelle mit neuen Gen-AI-Technologien kombiniert – immer mit Fokus auf Nutzen, Stabilität und Compliance. Dazu: Einblicke in Routing- und Antwortsysteme für den Support, menschliche Kontrollschleifen („Human in the Loop“) und strategische Priorisierung im Hype-Zeitalter.
Ein ehrlicher Blick auf sinnvolle Anwendungsfelder, Model-Risiken – und wie man Kunden wirklich hilft, statt nur neue Features zu bauen.
MY DATA IS BETTER THAN YOURS ist ein Projekt von BETTER THAN YOURS, der Marke für richtig gute Podcasts.
Du möchtest gezielt Werbung im Podcast MY DATA IS BETTER THAN YOURS schalten? Zum Kontaktformular: https://2frg6t.share-eu1.hsforms.com/2ugV0DR-wTX-mVZrX6BWtxg
Zum LinkedIn-Profil von Sebastian: https://www.linkedin.com/in/sbrose/
Zur Homepage von sevdesk: https://sevdesk.de/
Zu allen wichtigen Links rund um Jonas und den Podcast: https://linktr.ee/jonas.rashedi
00:00 Vorstellung & Rückblick auf Teil 1+2 06:00 Data Science in der Buchhaltung – Use Cases & Ziele 14:00 Banktransaktionen & Beleg-Matching 21:00 Gen AI im Support: Ticket-Routing & Antwortvorschläge 30:00 Modellvergleich & Limits von LLMs 40:00 Assistenzsysteme & Churn-Prevention 48:00 Hype vs. Realität – wie KI verantwortungsvoll eingesetzt wird
Du möchtest deine Werbung in diesem und vielen anderen Podcasts schalten? Kein Problem!
Für deinen Zugang zu zielgerichteter Podcast-Werbung, klicke hier.
Audiomarktplatz.de - Geschichten, die bleiben - überall und jederzeit!
Transkript anzeigen
00:00:00: Wie sehen generell Data Science Use Cases bei Safteskos?
00:00:04: Was machen die im AI-Bereich und wie baut man eigentlich aktuell ein Data Science Team auf?
00:00:09: Das sind alles Fragen, die ich mit dem lieben Sebastian von Saftesk beantworte.
00:00:17: Neue Folgen jeden Freitag.
00:00:19: In dieser digitalen Welt gibt es einen speziellen Faktor, der über Erfolg und Misserfolg entscheidet.
00:00:25: Daten.
00:00:26: Doch nur die wenigsten wissen sie für sich zu nutzen.
00:00:29: Wer seine Kunden verstehen will, um ihnen das bieten zu können, was sie brauchen,
00:00:33: kommt um
00:00:34: ein professionelles Datenmanagement nicht herum.
00:00:36: Jonas Rascheli interviewt andere Experten aus den Datenbereichen und zeigt Schritt für Schritt, wie genau das funktioniert.
00:00:49: Herzlich willkommen zu myDatasBetterToTheNews, der Data Podcast.
00:00:52: Schön, dass ihr eingeschaltet habt.
00:00:53: zur Info vorab.
00:00:55: Das ist die dritte Folge von einer Serie mit der Firma Saftisk.
00:00:59: Wenn ihr also nochmal ein bisschen mehr über Saftisk im Allgemeinen haben wollt oder so ein bisschen denkt, da gibt es ja ein bisschen Cliffhanger aus anderen Folgen, die man sich anhören sollte, dann hört euch doch bitte die ersten zwei Folgen zum Thema Saftisk an.
00:01:12: Mir gegenüber sitzt der liebe Sebastian, heißt Sebastian.
00:01:15: Hallo.
00:01:16: Schön, dass du da bist.
00:01:17: Danke.
00:01:19: Wir sprechen in der dritten Folge, um gleich ein bisschen Buzzword-Bingo zu spielen, über AI und ML und Co.
00:01:29: Aber stell dich doch mal kurz vor, wer du bist, was du machst, was du vor allem bei Seth Desk machst.
00:01:35: Und dann wird das, glaube ich, eine ganz spannende Folge für mich.
00:01:39: Lern dich noch was.
00:01:41: Ja, ich bin Sebastian aus Berlin und bin Head of Data Science bei Seth Desk.
00:01:46: Und wie ich zu sehr das gekommen bin, war nicht ganz interessant, weil ich bin eigentlich Diplompsychologe und habe in der Koordinations- und Neurowissenschaft promoviert.
00:01:54: Da habe ich ganz viel Machine-Learning-Igorithmen angewendet, um von den Gehirnsignalen zu verstehen, was sind das für Muster, wie passen die dann zusammen mit der Psychologie zusammen.
00:02:06: Und als ich dann entschieden hatte, nicht mehr in der Forschung zu bleiben, bin ich erst, bin ich in die Industrie gegangen und da hab zu Mai Toys, ein E-Commerce-Unternehmen der Autokruppe.
00:02:15: Und da war ich auch sieben Jahre, hab auch ein Team geleitet von Data Scientisten.
00:02:20: Und dann hat Otto entschieden, dieses Unternehmen aus wirtschaftlichen Gründen zu schließen.
00:02:25: Und das ist natürlich erst mal für alle ein Schock.
00:02:29: Auch für mich, für mein Team.
00:02:31: Und dann gab es ganz oft so Diskussionen, so was mach ich eigentlich jetzt.
00:02:34: Und einen Punkt war immer, ich mach mich jetzt selbstständig.
00:02:37: Ich werd mein eigener Chef.
00:02:39: Und ich dachte nur so, Moment, aber da musst du doch Buchhaltung machen, da musst du doch steuern können.
00:02:45: Niese, was denn?
00:02:46: Das lässt du mal lieber.
00:02:48: Und irgendwann hat eine ehemalige Kollegin und Freundin mir eine Wurst abgeschrieben.
00:02:52: So, hey, ich hab hier so eine schöne Data Science-Liedstelle gefunden.
00:02:56: Die wär was für dich.
00:02:58: Gucke ich einfach und es ist heftig.
00:02:59: Ja, Buchhaltung.
00:03:01: Okay, alles klar.
00:03:03: Also ich kann Data Science, keine Buchhaltung.
00:03:06: Und dann habe ich mich beworben und bin jetzt eben Head of Data Science und betreue die ganzen KI-Kompetenzen von Saftes und versuche auch so die Strategie, um KI zu bauen, damit auch Saftes erfolgreich bleibt.
00:03:21: Wie lange bist du jetzt schon bei Saftes?
00:03:22: Seit Januar zwanzig, vierundzwanzig, also zwei Jahre.
00:03:27: Ja, genau.
00:03:28: Sehr schön.
00:03:31: nochmal so ein bisschen das Gefühl zu bekommen.
00:03:34: Du bist schon länger im Data Science Game.
00:03:37: Wie groß ist das Team, was du leitest?
00:03:40: Im Moment ist das Team fünf Leute.
00:03:43: Ja, das ist die Leite.
00:03:44: Wir waren auch aufwachsen, aber... Wir
00:03:48: gingen gar nicht darum, um jetzt sozusagen dein Profil zu schärfen, wie viel Leute man führt, aber es ging irgendwie so ein bisschen darum zu... Ich finde, das ist immer ein... Ich weiß nicht, wie es anderen geht, aber so ein Gefühl davon, je nachdem, wie groß das Team vor allem im Data Science Bereich ist, je nachdem, was jetzt alles da drin entsteckt, umso höher ist auch der Reifegrad von Themen, weil du glaube ich, ja, ne, weil ich weiß, dass du auf Themen aufsetzt, Data Engineering und Co, was ja auch in den anderen Folgen kommt und damit ja immer mehr tiefe in den jeweiligen Themen entsteht.
00:04:21: Aber lass uns da doch mal ein bisschen einsteigen.
00:04:25: Data Science ist ein großes Wort.
00:04:27: Was verbirgt sich so täglich in den Aufgaben, die so ein bisschen bei deinem Team liegen?
00:04:35: Was dir vorstellt, Buchhaltung ist ein sehr repetitiver Prozess.
00:04:39: Sie ist zwar auch sehr reguliert auf der einen Seite, aber auf der anderen Seite sind das wirklich die Sachen, die du in der Buchhaltung machen musst.
00:04:46: Wiederholen sich die ganze Zeit.
00:04:47: Rechnung schreiben, Rechnung bezahlen oder auch einfach nur in einem Beläk hochladen.
00:04:53: Also wenn du irgendwie von deinem Mobilfunk an wieder eine Rechnung bekommst, erwartest du ja, dass das da die ganze, die Mehrwertsteuer abgeht, dass die exportiert wird.
00:05:02: Wie viel hast du bezahlt?
00:05:04: Wie viel ist der nette Betrag, brutte Betrag?
00:05:06: Was ist das für eine Kategorie als eine Ausgabe?
00:05:09: Und all diese, diese Sachen kann man sehr gut mit Machine Learning oder KI automatisieren.
00:05:15: Und das sind sozusagen so die Bereiche, wo mein Team versucht anzusetzen.
00:05:21: Wir haben jetzt im Moment auch einen interessanten Use Case.
00:05:25: Da geht es um die sogenannten Banktransaktionen und deren Zuordnung zu belegen, wie zum Beispiel in der Quittung oder nach Rechnung.
00:05:35: Und das hilft, wenn du diese Zuordnung machst, hilft das die erstmal sehr guten Überblick zuhause über deine eigentlichen Finanzen ja nicht nur irgendwie was in meinen offenen Posten was habe ich noch nicht bezahlt, aber wo bin ich noch nicht bezahlt worden?
00:05:47: und das hilft unseren Kunden sehr schnell auch einen Überblick über ihre Finanzen zu bekommen.
00:05:52: und das ist aber ansonsten manuell, wenn du es manuell machst musst du ja jede Bank an Transaktion und musst gucken, in welchem Dokument, in welchem Beleg, wie passt das zusammen?
00:06:02: und das versuchen wir jetzt mit Machine Learning.
00:06:05: zu automatisieren.
00:06:07: und wir sehen, dass das sehr gut funktioniert, dass teilweise diese Zuordnungsvorschläge, die wir geben, sehr gut angenommen werden in den ersten Tests oder sehr gut funktionieren und wollen das dann in den nächsten Monaten auch ausrollen.
00:06:20: Das ist so ein Newcase.
00:06:24: Ja du, du sagst einen spannenden Punkt, der ist auf der einen Seite seite reguliert, auf der anderen Seite kann man ja genau mit mit euren Fähigkeiten, gerade an dem Beispiel, was du beschrieben hast, doch helfen dieses, jetzt will ich nicht negativ über Buchhaltung sprechen, aber monotone Business zu optimieren, um dann über diese Auswertung, glaube ich eher, mir fehlt gerade das passende Wort, aber eher in diesen Trivacyt bekommt, die Auswertung zu nutzen, um Entscheidungen zu treffen, so wie es auch beim Thema Data ist, anstatt... Buchhaltung damit zu verbinden, drei Stunden im Monat oder in der Woche Belege zusammen zu sortieren, wie du sagst, dem PayPal-Konto oder was auch immer zuzuweisen, dann erst Auswertung zu machen.
00:07:16: Du hast ja auch ein ganz anderes Mindset oder Gefühl mit der Buchhaltung.
00:07:19: Ja, genau.
00:07:20: Du hast ja da wirklich diese langweiligen repetitiven Prozesse, die du einfach sagen kannst, die kannst du automatisieren.
00:07:27: Das wollen wir ja teilweise auch erreichen mit Machine Learning.
00:07:31: Und auf der anderen Seite hast du aber auch Use Cases, wo wir auch sehen.
00:07:34: Also unser Schirm ist ja meistens der Schirm, der passiert, wenn jemand sein Geschäft aufgibt.
00:07:41: Das heißt, wir müssen unseren Kunden hier auch helfen, das Geschäft weiterzuführen.
00:07:47: Und unsere Kunden sind hauptsächlich kleine Unternehmer, Freiberufler und so weiter, die das einfach machen aus Leidenschaft und nicht unbedingt weil sie Buchreitungen machen wollen.
00:07:57: Und dann kannst du denen ja auch helfen und sagen, okay, Was sind denn deine Bestellprobleme, die du eigentlich brauchst für dieses Season?
00:08:04: Dann kannst du halt da auch gucken.
00:08:05: Und das wollen wir auch an Angriff nehmen, da unseren Kunden noch mehr Hilfe an die Hand zu geben, dass sie besser ihr Geschäftsführen können und nicht aufgeben müssen.
00:08:16: Lass uns da doch mal konkret da rein gehen.
00:08:18: Wenn wir über MLAI-Use-Case sprechen, außerhalb von dem Use-Case, den du jetzt beschrieben hast und lass uns da auch gerne dran teilnah nehmen.
00:08:33: Wie setzt ihr das um?
00:08:34: Wie baut ihr das auf?
00:08:36: Was braucht ihr als Grundlage?
00:08:39: Was läuft da so bei euch?
00:08:41: Ich glaube, also von der technologischen Ebene sind wir relativ dies da.
00:08:46: Wir haben auf der einen Seite die Modelle, wir haben die Machine Learning Modelle, wir haben das GNI, wir haben die LMMs irgendwie, wir haben die Infrastruktur, die technologische, das ist bei uns eine Cloud-Infrastruktur.
00:08:58: Wir haben jetzt auch Snowflake eingeführt als ein Anbieter für das Data Warehousing, was uns auch sehr viel hilft.
00:09:07: Und von der Hinsicht ist immer die Frage so, warum machen wir das?
00:09:12: Und was ist eigentlich unser, das ist warum?
00:09:16: Das ist warum ist eigentlich, dass wir Buchhaltung klar für unsere Kunden machen wollen, dass die sozusagen ganz genau wissen, Okay, wie funktioniert das und so weiter.
00:09:24: Und dann ist der nächste Schritt, ja, was machen wir dann dann?
00:09:28: Also, was sind denn die Use Cases, die wir als erstes nutzen können?
00:09:31: Und da ist es, geht es bei mir auch sehr darum, mit den Produktmanagers zu sprechen, mit den Designern zu sprechen, zu verstehen, wo sind die Main-Pain-Points bei uns und Kunden, dass wir verstehen, kann unsere Technologie überhaupt das Problem lösen, was der Kunden hat.
00:09:47: Das ist sozusagen dieser Punkt.
00:09:49: Ja,
00:09:50: also ist es ein Data Science Case, also der Klassiker immer mit diesem, du gehst mit dem Hammer durchs Haus und alles.
00:09:58: Alles ist ein Hammer, ne?
00:09:59: Ja, genau.
00:10:00: Also alles ist mit dem Hammer sozusagen.
00:10:02: Ja genau, das ist, glaube ich auch das Problem, was wir im Moment auch durch diesen großen Hype in der AI so ein bisschen auch haben, ne?
00:10:09: Dass jetzt auf einmal diese Gen AI Modelle, ne?
00:10:12: So wie ZBT oder Lama plötzlich.
00:10:16: Der Hammer für alles sind, ne?
00:10:17: Für Schrauben, für Bücher, für Uhren.
00:10:21: Also die werden ja jetzt überall, sozusagen präsentiert.
00:10:24: Das wird nächste Woche, wo ein neues Produkt nicht mit Jenny Eier rauskommt.
00:10:29: Und man fragt sich halt immer so, aber das ist die falsche Richtung.
00:10:32: Weil wir ja eigentlich von der Richtung denken müssen, welches Problem wollen wir lösen?
00:10:36: Es gibt ja diese Science-Fiction-Autorin, Marschewska, die hat so ein Feed-up gefeuert, da ging es darum.
00:10:43: zu sagen, wir pushen gerade alles so in den Raum KI rein.
00:10:47: Aber lass uns noch mal kurz abwarten, weil im Moment würde ich gerne KI haben, dass das für mich abwäscht, mein Alter regelt, meine Buchhaltung automatisiert, so damit ich mich konzentrieren kann auf das Schreiben und auf das Texten.
00:11:01: Und es ist ja genau andersrum gerade.
00:11:03: Irgendwie nutzen alle LGBT, um Texte zu verfassen, aber welches Problem lösen wir hier eigentlich?
00:11:10: Da komme ich dann irgendwie ins Spiel.
00:11:11: Als Head of Data Science muss ich halt gucken, was von diesem Hype nehme ich mit, oder welches Potenzial hat dieser Hype für unsere Kunden, für uns ihre Probleme.
00:11:23: Das ist dann meine Aufgabe.
00:11:25: Jetzt ist der Hype, du arbeitest ja schon acht, neun, zehn Jahre im Data Science Bereich.
00:11:31: Nimm uns doch am Anfang erst mal mit mit den Use Cases, die ihr in dem Bereich umsetzt, was es schon seit zehn Jahren gibt, sozusagen, oder schon viel länger.
00:11:40: Also, welche Themen seht ihr bei euch bei Saftesk vielleicht auch im Tool, die Nährwert haben?
00:11:48: Oder ich mag auch gerne Fails.
00:11:50: Ich glaube, in Deutschland sprechen wir da viel zu wenig darüber, was funktioniert oder was hat überhaupt nicht funktioniert?
00:11:55: Also, wo ist man vielleicht mit einem Hammer gegen die Schraube?
00:11:59: Ich glaube im Allgemeinen, das ist ja so meine undankbare Aufgabe im Moment auch, dass ich ihm sage so, nein, wir nutzen jetzt nicht immer den gleichen Hammer, sondern gucken ganz genau auf die Newscase, den wir haben.
00:12:10: Und ich hatte ja schon genannt, diese Belegerkennung und Kategorisierung oder auch diese Bank-Transaktionszuordnung zu belegen.
00:12:18: Dann gibt es noch andere Use-Cases, die mir jetzt gerade nicht einfallen.
00:12:23: durchaus mit traditionellen Machine Learning Modellen, die wir schon vor zehn Jahren genutzt haben, genau so gut machen können.
00:12:28: Also
00:12:29: Muster erkennen, also eigentlich.
00:12:30: Die Mustererkennung, das ist ja alles, grundsätzlich ist ja Buchhaltung ein sehr tabulares Held.
00:12:38: Also wenn du an doppelte Buchhaltung gehst, das ist ja auch eine Tabelle, wenn du so willst.
00:12:42: Und da können die traditionellen Machine Learning Modelle auch sehr gut mit umgehen.
00:12:50: Nur sehen wir jetzt nur, dass diese großen Modelle, diese Generei-Modelle eben auch sehr mächtig sind.
00:12:56: Die dann einfach auch einfache Sachen relativ schnell lösen können.
00:13:01: Das hat auch eine Studie von Penrose, glaube ich, herausgefunden.
00:13:05: Wenn man geguckt, kann so ein Chatbot eigentlich auch so ein Buchhalter imitieren oder beziehungsweise die Aufgaben machen.
00:13:12: Und die haben festgestellt, einfache, buchhalterische Aufgaben gehen da sehr gut einfach mit, aber sehr komplex.
00:13:19: Rücklagen bilden und zu denen überhaupt nicht.
00:13:22: Und deren Empfehlung ist auch am Ende zu sagen, wir würden empfehlen eher Assistenzsysteme zu bauen, die einfach so dem Kunden auch erklären, warum Entscheidungen gemacht wurden in der Software, wenn du jetzt hast deine Telefonrechnung hochgeladen, wir sagen auf einmal, das ist IT Solutions und du fragst dich so, warum IT Solutions und nicht Telefonie, dass wir denn diese Assistenzsysteme zur Verfügung stellen, die dir dann erklären.
00:13:49: Das ist der Grund, in der Vergangenheit hast du das so gemacht und deswegen tun wir das.
00:13:58: Man erkennt in den Daten, die ihr selber habt.
00:14:01: Der Kunde hat eben die Telefonie immer auf diese IT-Services gebucht als Kategorie und das könnte der Grund sein.
00:14:09: Genau oder beziehungsweise in der Vergangenheit hat er das gemacht oder wir wissen zum Beispiel auch, welches Business er hat und so weiter und können dann auch immer bessere Entscheidungen treffen.
00:14:19: Okay, für dein Business macht das mehr Sinn als ein anderes Business.
00:14:23: Das heißt aber im Data Science Bereich zeigt man wieder, dass du dich auch sehr gut mit der Materie auskennen musst.
00:14:32: Also es ist ja noch ein kompletter Wechsel für dich.
00:14:34: Meinst du, es ist ja jetzt eher Spieltee.
00:14:38: Spielzeug, ja, ja, ja.
00:14:40: Und auch für einen Produkte, Konsumgüter.
00:14:44: Ja, Buchhaltung
00:14:45: ist reguliert und nicht ohne Grund gibt es da Studiengänge oder Fortbildungen dazu, um das Thema nochmal im Detail zu verstehen.
00:14:55: Ja, an der Tat.
00:14:55: Also was ich von der Buchhaltung gelernt habe und wie die Regularien sich verhalten, ob du nur ein Kleinunternehmer bist oder eine Kapitalgesellschaft oder ein Bankwesen fungierst, dass das sich unterscheidet, wann du Bilanzführung machen musst, wann du doppelte Buchfeld oder einfach nur eine Einnahmeüberschussrechnung.
00:15:13: Das ist einfach nur, wo du sagst, im Finanzamt, das sind meine Einnahmen, das ist sozusagen, was ich ausgegeben habe.
00:15:20: Das reicht dann auch völlig aus mit den meisten Kunden beispielsweise bei uns.
00:15:23: Und das ist schon schon viel mehr im Buchhaltungswissen, als ich hatte, bevor ich zu Saftes gegangen bin.
00:15:29: Und das ist natürlich auch, glaube ich, das Interessante an meinem Beruf, dass ich immer Zardadasense mache, aber immer noch auch was von der Domäne bekomme, weil ich glaube auch dieses Business Verständnis unglaublich wichtig ist.
00:15:42: Und beispielsweise in der Buchhaltung gibt es ja, die soll ja immer korrekt und vollständig sein.
00:15:48: Und das sind so Prinzipien, die besprechen wir auch mit unserem Produkt Compliance Leuten.
00:15:52: Also wir sind ja auch sehr eng zusammen, arbeiten mit denen angewiesen.
00:15:56: Also Datenschutz, Security, Product Compliance.
00:16:01: Und diese Korrektheit und diese Vollständigkeit, das kannst du auch in so Data Science.
00:16:07: Begriffe packen.
00:16:08: Das ist dann sozusagen die, wo machen wir eventuell mit einem Modell eine falsche Klassifikation ein Fehler?
00:16:15: Und wo machen wir oder wo schaffen wir es nicht zum Beispiel eine Bank Transaktion zu erkennen, die wir irgendeinen Beleg zuordnen können.
00:16:25: Und manchmal ist es halt besonders schlimm, wenn man nicht korrekt ist.
00:16:30: Und manchmal ist es schlimm, wenn man nicht total komplett alles.
00:16:35: Und das musst du halt immer pro Maschinenlearning-Modell abwägen.
00:16:42: Das heißt, ihr testet
00:16:43: auch unterschiedliche Modelle.
00:16:45: Das heißt, weil du so schnell drüber bist, aber beim Thema der Belegeerkennung oder der Kategorisierung der Bankbelege, habt ihr mehrere Modelle getestet?
00:16:57: Oder ist ja nicht von heute auf morgen dann die Lösung gekommen, oder?
00:17:00: Genau, wir testen.
00:17:01: Wir haben in der Belegeerkennung bereits ein Machine Learning-Modell, ich glaube, das ist auch so ein normales Netzwerk, so wie JetGBT nur kleiner.
00:17:09: Das versucht eben von den ganzen Belegen, die ganzen Daten zu extrahieren.
00:17:15: Und das haben wir jetzt auch mal getestet mit einem Large Language Model, mit einem Jenny-Eye-Model und haben auch mal geguckt.
00:17:21: Kann das das besser?
00:17:22: Wir
00:17:23: sind das, kann sie das besser?
00:17:24: und so weiter.
00:17:25: und wir haben zum Beispiel da gesehen, es ist teilweise ein bisschen teurer.
00:17:28: Also das ist so pro Dokument ein bisschen teurer, das als zu extrahieren.
00:17:32: Die Genauigkeit ist manchmal ganz gut, aber dann gibt es so ein Problem mit der Variabilität.
00:17:37: Weil teilweise da auch in diesen Modellen, die sind jetzt ziemlich mächtig und auch teilweise sehr... und zuverlässig, wenn man möchte.
00:17:45: Also, du kannst den gleichen Prompt mit, wenn du nur ein Wort veränderst, kann das einen plötzlich anderen Output machen.
00:17:51: Und das ist natürlich für die Buchhaltung ganz nicht sehr gut.
00:17:56: Und da wollen wir ja immer verstehen, warum es was passiert.
00:17:58: Und das können wir halt auch nicht erklären, dass teilweise so unterschiedliche, dass der gleiche Beleg unterschiedlicher Outputs gägariert.
00:18:06: Also zum Beispiel für mich, Wir sprechen ja in unserer Firma hauptsächlich Englisch, das ist ja auch die offizielle Sprache.
00:18:14: Und manchmal möchte ich meine Nachrichten, die ich bei Slack oder per E-Mail schicke, auch mal kurz aufpolieren, ja, so ein bisschen schöner formulieren und hab mir da auch mal ein Template, also mein Prompt-Template, und dann heißt es immer so Polish-Message, und dann gibts die Message und das funktioniert eigentlich immer sehr gut.
00:18:34: Bis dann plötzlich an einen Freitag Nachmittag vor, du nur noch die letzte Nachricht rausschicken, und euch das plötzlich schädt, die Betriebe entscheidet.
00:18:41: Es müsse den Text auf polnisch übersetzen, weil polisch.
00:18:46: Ja.
00:18:47: Und das ist dann eben so die Sache, wo ich denke, okay, das ist eine supermassive, supertechnologie, aber dennoch passiert, weil man sieht solche Sachen.
00:18:55: Und ich hatte immer vor, plötzlich redet ein Chatbot mit dir auf polnisch, weil irgendwie irgendeinen... spezifischer Punkt anders war und deswegen das Modell sind ja non-deterministisch.
00:19:11: Das heißt nicht, dass gleiche Input geht und gleich ein Output, sondern du hast da immer so eine Blackbox und du weißt eigentlich nicht, was passiert.
00:19:18: Und das ist dann teilweise das Problem, dass du einen Griff bekommen musst, beiseite das vor allen Dingen mit der Buchhaltung.
00:19:27: Was ich daraus interpretiere ist, dass Ihr testet über eine längere Zeit, ob die Modelle gut funktionieren.
00:19:35: Genau, und wir arbeiten auch mit Gen.I.
00:19:37: Technologien gerade aktiv zusammen, also mit der auch der Universität auf Offenburg.
00:19:44: Da kooperieren wir sehr, weil wir auch denken, es gibt so viele Sachen, dass selbst die Universitätsgelehrten nicht verstehen von diesen mächtigen Modellen, dass wir da auch einfach profitieren wollen von Wissenstransfer.
00:19:55: Und wir haben jetzt für den Kunden Support einen Gen.I.
00:19:59: Genial basiertes Assistenzsystem gebaut.
00:20:03: Das ist ein System, das die Support-Tickets der Kunden, Support-Anfragen der Kunden analysiert, dann... guckt, ob wir da irgendwelche Informationen haben intern oder extern auf unserer Webseite und dann eine Antwort vorfertigt, sodass der CS-Agent am Ende einfach entscheiden kann, okay, übernehm ich diese Antwort, welche Teil dieser Antwort übernehme ich, dass wir auf der einen Seite so eine Standardisierung von Antworten irgendwie haben.
00:20:28: Aber das habt ihr gebaut?
00:20:29: Das haben wir gebaut.
00:20:30: Und die Frage ist dann eben auch, wir haben immer einen Human in the Loop.
00:20:34: Das heißt, wenn da was Homisches bei rumkommt, wenn auf einmal das System halluciniert, Ähm, dann ist wenigstens noch der human in the loop, der sagt, okay, das war jetzt nicht richtig.
00:20:43: Ich müsste da noch mal nach Handgruppen und das richtig schreiben, ne?
00:20:46: Ich muss gerade schmunzeln, Sebastian.
00:20:48: Vorhin frage ich dich so nach use cases, da hast du eine oder zwei erzählt,
00:20:51: also jetzt kommt so nach fünfzehn Minuten
00:20:53: so an.
00:20:54: Übrigens, hast du was zu sagen?
00:20:55: Das haben wir noch mal was zurückgebaut.
00:20:57: Genau, ja, ja, haben wir auch noch was.
00:20:59: Okay, also die Frage wird gleich sein, ob dir noch was einfällt.
00:21:04: Aber die erste Frage ist... sind viele Hörer und Hörerinnen ja auch ein bisschen da, wo die Antwort, die du gerade gibst, zu kurz ist.
00:21:12: Also ich kann mir jetzt vorstellen, dass da kommt jemand aus dem Customer Service, der Customer Service vielleicht verantwortet, Leiter oder Leiterin, die sagt, hey, pass auf.
00:21:23: Ich möchte gerne die Antwortzeiten optimieren für die Anfragen.
00:21:28: Dann wird ja vielleicht nicht der erste Schritt sein, zum Sebastian zu gehen, sondern weitere Schritte, oder es kann natürlich durch den aktuellen Hype, wird auch viel über Customer Service gesprochen und GNI, dann geht man zu dir.
00:21:39: Wie geht dir das an?
00:21:41: Also, nimm uns mal ab diesem Punkt mit, ich komme jetzt zu dir und sage, hey, ich glaube, ich will die Antwortzeiten im Customer Service optimieren.
00:21:47: Also,
00:21:49: würde ich jetzt mal versuchen, okay, das ist ein schönes Ziel, das Problem... was welches Problem habt ihr denn eigentlich da?
00:21:56: Und woran hakt's denn eigentlich gerade an diesem Customer Service?
00:22:01: Antworten?
00:22:02: Ist es die Anzahl an Anfragen, die ihr bekommt?
00:22:06: Also was ist der Grund, was ist eigentlich der Ursprung des Problems und können wir da helfen?
00:22:11: Also wir hatten jetzt auch ein anderer Use Case, was mich ja wischen.
00:22:14: Da ging es wirklich darum, dass viele dieser Request von unseren Kunden erstmal Ähm, kategorisiert werden mussten.
00:22:23: Das gab dann sozusagen eine Person, die geguckt hat, okay, was ist das für ein Thema und in welches Team stieb ich dieses Ticket weiter und es können ja unterschiedliche Themen sein, ne?
00:22:32: Und hier haben wir auch diese Gen AI Technologie verwendet, um zu schauen, hey, welches Thema beinhaltet denn gerade das, das, das Ticket?
00:22:40: Ja.
00:22:41: Ähm, und wo können wir es denn direkt an die Teams schicken?
00:22:44: Ja,
00:22:44: das Routing.
00:22:44: Und das ist ja genau dieses Routing.
00:22:46: Ähm, und das hat zum Beispiel auch sehr viel geholfen.
00:22:51: Ähm, sozusagen diese Antwort, Lizenzen zu reduzieren, ne?
00:22:54: Also sie wird erst mal gucken, du willst es reduzieren?
00:22:57: Wie läuft denn der Prozess im Moment?
00:22:59: Wo hakt der Moment?
00:23:01: Und das war ja dem zuerst sehr bewusst, dass ja da auch irgendwie ein Bottleneck entsteht.
00:23:06: Ähm, wann diese Leute eben dann auch diese, diese Kalisifizierung durchführen, ne?
00:23:11: Und das kann jetzt automatisiert werden und direkt geroutet.
00:23:15: Das heißt, ihr habt auf der einen Seite das Routing optimiert, auf der zweiten Seite habt ihr die Antworten optimiert.
00:23:20: Ist es schon live, also funktioniert es, bekommt der die Person, der Human in the Loop, bekommt die sozusagen eine Antwort vorgeschrieben?
00:23:29: Genau, also dieses Routing ist jetzt schon live und diese Response Generations, der Assistent, ist noch an der Testung.
00:23:37: Da machen wir noch AB-Tests, gucken wir noch mal.
00:23:40: Wie stark?
00:23:42: Also was ist denn da für Probleme?
00:23:43: Das sind die Antworten vielleicht auch noch nicht gut genug.
00:23:45: Da gehen wir auch sehr viel in qualitative Gespräche.
00:23:48: Da machen wir auch halt qualitative Forschungsfokusgruppen, wo wir dann auch fragen so, was sind eure Probleme?
00:23:54: Was informierten noch nicht?
00:23:55: Und intern mit dabei?
00:23:58: Nein, nicht mit den Kunden.
00:23:58: Kunden kriegen das glaube ich gar nicht mit, weil wir sozusagen diesen human in the loop haben.
00:24:02: Aber wir versuchen halt da immer mehr, das zu verbessern.
00:24:07: Jetzt kommt die spannendste Frage.
00:24:09: Wie messt ihr die Ergebnisse?
00:24:12: Genau, die Ergebnisse machen wir sozusagen an der B-Test.
00:24:14: Wir haben die Default-Variante, da ist halt keine Antwort, die generiert wurde.
00:24:18: Und die andere, da gibt es eine Antwort, die generiert wurde, wo der Agent einfach schnell entscheiden kann, ist die gut, ist die nicht gut.
00:24:25: Und dann kopiert er sie in die Antwort oder nicht, oder verandert sie noch mal ab.
00:24:29: Also dann fängt nicht von vorne an.
00:24:30: Die
00:24:31: Reduktion der Zeit für eine Antwort wird
00:24:34: besser.
00:24:34: Genau, die First Response, weil das ja manchmal auch ganz wichtig, weil Kunden dann besser finden, wenn so schnell wie möglich geantwortet wird.
00:24:41: Ja.
00:24:41: Es ist vielleicht nicht so schlimm, wenn es etwas länger dauert, bis es die Lösung gefunden ist, aber dass wenigstens jemand relativ schnell antwortet.
00:24:48: Und dann kann er es sich verbessern und das gucken wir einfach mal, wie das funktioniert.
00:24:53: Und auch, wie das adaptiert wird oder angenommen wird, auch von den Agenten, dass wir auch verstehen, wie gut ist die Qualität denn auch der Antworten.
00:25:01: Und das ist dann halt der nächste Schritt.
00:25:05: Sebastian, weil du mir gerade zwei Use-Cases voranthalten hast, müssen wir noch mal ein bisschen Schritt zurück.
00:25:09: Haben wir alle Use-Cases besprochen?
00:25:12: Oder hast du noch einen in deiner Tasche zum Thema Data Science im Allgemeinen?
00:25:16: Ich glaube, wir haben fast alle besprochen, die wir jetzt auf dem Radar haben.
00:25:20: Wir haben, wie gesagt, auch noch viele dieser Prävention von Schern auch im Kopf.
00:25:26: Also, wie können wir noch Assistenzsysteme bauen, die auch noch Kunden helfen?
00:25:32: Nimm mal zu schauen, so bin ich auch... wurde ich von allen Kunden bezahlt, denen ich die Festung angeboten habe.
00:25:38: Und so weiter.
00:25:38: Das machen wir dann halt auch in den nächsten Schritten.
00:25:40: Aber das sind die wichtigsten Punkte, die wir jetzt haben.
00:25:47: Ja, finde ich ein spannendes Thema.
00:25:48: Weil auf der einen Seite unterstützt ihr euch selber, um den Churn zu verringern.
00:25:52: Aber auf der anderen helft ihr ja aktiv den Unternehmen, den Freelancer, den kleinen Unternehmen, die immer das als Herausforderung haben, weiter bestehen zu können.
00:26:03: Richtig, genau.
00:26:04: Ja.
00:26:06: Jetzt haben wir auch ein bisschen über Gen AI gesprochen.
00:26:08: Gen AI ist gerade der absolute Hype und viel in aller Munde.
00:26:14: Was ist denn deine persönliche Meinung, wenn du unabhängig von Zeftes, wie du das wahrnimmst?
00:26:19: Bin ich ein bisschen länger im Data Science Game?
00:26:22: Ja.
00:26:23: Also ich ... Das ist ja nicht der erste halb den ich mitmachen.
00:26:27: Ich hatte schon mal einen halb.
00:26:28: der war nicht so medial wichtig wie jetzt Jenny.
00:26:32: Aber der ging es um die sogenannten deep learning Modell und das war im folge eines bettbewerbs der hieß image net und da ging es darum zu sagen.
00:26:43: Wir wollen ein Modell bauen welches.
00:26:46: Bilder im Internet kassifizieren kann.
00:26:48: ist das ein Hund?
00:26:48: ist das ein Tiger?
00:26:49: ist ein Schornstein und so weiter.
00:26:52: und eines dieser Gewinner Modelle ist Alex net gewesen und das wurde von Jeffrey hinten und Elias so Steka entwickelt.
00:27:00: und der hinten hat ja letztes Jahr den Nobelpresso kommen auch für dieses Neuronal Netzwerke die er entwickelt hat.
00:27:08: und der So Skiwa ist ja der Mitgründer von Open AI gewesen.
00:27:13: Und die haben dann dieses Modell gebaut, was unglaublich gute Leistung gemacht hat.
00:27:18: Und da wollten irgendwie alle auf einmal diese Modelle nachbauen und sagen, hey, das sind so cool, es werden wir schaffen.
00:27:24: Aber die Modelle waren riesengroß, rechnintensiv.
00:27:27: Man brauchte unglaublich viel Daten.
00:27:29: Also normales Unternehmen hatte so viel Daten gar nicht.
00:27:32: Ja also Google und Facebook konnten damit irgendwie auch was machen und man konnte es halt nicht erklären.
00:27:38: Also auch wenn du das, wenn du AI ins Unternehmen tragen willst, dann ist das auch nicht so gute Modelle.
00:27:44: Wenn du sagst, du weißt auch nicht warum die Entscheidung standen ist.
00:27:47: Und die haben es nicht geschafft wirklich so adaptiert zu werden.
00:27:51: Ja, in einem gewissen Musical ist es schon, aber... Bei uns war es dann halt eher so ein, eher nicht.
00:27:58: Wir haben dich nicht so durchgesetzt.
00:28:00: Mit Jennyi haben wir jetzt eine Technologie, die in einem Chatbot-Format uns plötzlich sehr plausible Texte generiert.
00:28:09: Und das hat natürlich reingeschlagen.
00:28:11: Aber was immer noch gleich ist, ist, dass das immer noch eine sehr teure Rechenintensive.
00:28:17: Technologie ist.
00:28:18: Ja, aber ist das nicht wieder das Beispiel dafür, dass wir Technologie anfassbarer machen müssen, um in die Breite zu kommen?
00:28:26: Weil das Image-Regal-Mission-Modell war ja eher für Leute, die Coach reiten können.
00:28:35: Und JetGBT, also die API wäre ja nicht viral gegangen, so wie es JetGBT gegangen wäre, hättest du nicht diesen... diesen Suchschutz gehabt, um eben damit zu interagieren.
00:28:51: Das ist absolut, da gebe ich dir recht.
00:28:53: Das ist absolut ein Grund dafür, dass das so eingeschlagen ist.
00:28:56: Und ich glaube, das ist auch, der untersteht, warum die andere Technologie nicht eingeschlagen hat.
00:29:00: Also da ist ja auch nochmal Punkt.
00:29:02: Du musst ja auch überlegen, wir Menschen haben ja auch einen gewissen Cognitive bias.
00:29:09: Sprache ist ja für uns auch eine sehr wichtige Ja, Faculty, die wir brauchen.
00:29:14: Also wenn das das das Kind sozusagen das erste Wort spricht, ist für uns ja irgendwie so eine Besonderheit.
00:29:21: Und jetzt ist auf einmal dort eine Technologie, die kann irgendwie mit uns sprechen.
00:29:25: Also das ist, glaube ich, sowohl die, das Interface, aber als auch die Sprache sozusagen an sich, glaube ich, haben da sehr viel beigetragen.
00:29:35: Aber was was ich halt wie gesagt interessant finde, ist halt eben Es ist trotzdem noch eine sehr teure Technologie.
00:29:42: und die Frage ist dann eben, also bei Open AI beispielsweise, die haben wir glaube ich im letzten Quartal, zwölf Milliarden Euro Verlust gemacht, ja also für jeden Euro oder Dollar, den sie einnehmen, machen sie neun und zwei neunzig Prozent Verlust.
00:29:56: Und das sieht ja auch so aus, okay, das ist ein technologischer Fortschritt, eine Faszination.
00:30:02: Aber wo ist das Geschäftsmodell?
00:30:04: Und da beginnt es dann, glaube ich, interessant zu werden, wie dann eben versucht wird.
00:30:10: Na also, wie wird gesagt haben mit dem Hammer, also jetzt haben wir die Technologie, das kann der Hammer für viele andere Probleme sein, wird gesagt, hey, das hat so gute menschlichen Fähigkeiten, das kann noch Menschen ersetzen.
00:30:22: Dann könnte ich dich jetzt auch fragen, Jonas, wie waren deine Matemoten in der Oberschule?
00:30:27: Würdest du sagen, weiß ich nicht.
00:30:28: Zwei oder drei, ich hatte manchmal auch vier in der Oberschule.
00:30:32: Aber der Punkt ist ja, dass diese Noten, sind ja die Benchmarks, mit die diese Systeme ja publiziert werden, beziehungsweise auch gemarktet werden.
00:30:44: Und sagen aber nichts über deine menschlichen Fähigkeiten aus, als Schießdata-Office, oder technologische Office.
00:30:52: Das ist der eine Punkt, wenn ich immer sehr interessant finde, dass er übertrieben wird, diese Fähigkeiten dieser Modelle.
00:30:58: Und auf der anderen Seite gibt es dann noch die Kritiker und diese Duma, die sagen, wenn wir jetzt hier noch weitermachen, diese Modelle noch intelligenter zu machen, dann ist das die Terminatorland.
00:31:11: Das geben wir alle unter.
00:31:13: und Achtung, Achtung.
00:31:16: Einer, der das sehr gut bespielen kann, beides sehr gut bespielen kann, ist Herrn Oldman.
00:31:20: Der kann sehr gut sagen so, wow, tolle Technologie, die wird uns so weiterbringen.
00:31:25: Und auf der anderen Seite, das steht da vor dem US-Kongress und sagt, diese Technologie muss kontrolliert werden, weil sie könnte sonst Schaden anrichten.
00:31:33: Und dann denke ich immer so, dieser Schaden, der ist ja schon reell, bevor es die BT war mit anderen Machine Learning Modellen.
00:31:43: wie zum Beispiel in den Niederlanden, wo ein Algorithmus im Place war, der sozusagen geguckt hat, ob jemand soziale Hilfebetrug gemacht hat.
00:31:53: Und der hat Menschen nach sozialer Hintergrund und Einkommen diskriminiert.
00:31:59: und sehr viele Familien in den sozialen Ruinen getritten, weil die eben sehr viele Strafen zahlen mussten.
00:32:04: Also dieser EU-Akt in der Europäischen Union kommt nicht von nirgends.
00:32:09: Das ist halt schon längst auch Realität bei einigen Menschen.
00:32:12: Also deswegen, worauf haben wir Angst?
00:32:16: Wir müssen schon jetzt eigentlich gucken, wie wir das einsetzen.
00:32:20: Also ein bisschen zurückkommt auf Sethdesk, Sebastian.
00:32:23: Wenn du das ganze Thema Compliance, Datenschutz, Regularien, Ethik mit einbeziehst, wie schafft man sonst dann noch Innovation?
00:32:33: Ja, ich glaube, das ist einfach mit einer sehr guten Kommunikation und Zusammenarbeit mit den unterschiedlichen Teams, mit Datenschutz, Security.
00:32:40: Da sind wir ja sehr gut verbunden und da werden ja unsere Sachen auch sehr genau... kontrolliert und auch freigegeben und dann gehen wir auch erst live.
00:32:48: also weiß ich mit den mit den punkten über.
00:32:50: Die die die Routen der Tickets gesporen haben war ja auch der Datenschutzbeauftragte und andere mit beteiligt um zu sagen ist das das seinen richtigen Weg.
00:33:02: Und bei bei anderen Punkte ich gesagt habe die Produktkomplex Leute die helfen uns unglaublich auch zu verstehen.
00:33:09: Wie können wir auf deren Seite innovativ sein?
00:33:10: und da wie können wir auch die Modelle.
00:33:13: gut bewerten, dass es auch für den Kunden Mehrwert hat.
00:33:17: Bist du mit, als du bei SafeTest gestartet bist, hattest du doch schon die fünf Personen?
00:33:23: Also bei SafeTest gab es schon vereinfelt unterschiedliche Machine Learning-Projekte, auch mit Data Science, Machine Learning Engineers, aber es war noch nie so strategisch verankert in der Unternehmensstrategie, wie es jetzt ist, seitdem ich bei SafeTest bin.
00:33:35: Und dementsprechend habe ich auch ein Data Science Team aufgebaut im Moment.
00:33:42: Da war es mir vor allen Dingen wichtig, nicht nur, dass die Leute eine Technologie erfahren sind.
00:33:47: Ich glaube, das sind die meisten, da hat das sein Distance mittlerweile, aber dass sie vor allen Dingen auch ... ... aus Wagenproblemen, die auf sie zukommen, auch wirklich ... ... ein Projekt bauen.
00:33:59: Also, dass sie dann auch scopeen können.
00:34:01: Was ist denn jetzt noch ... ... ein Methodisch dieses Handwerk von Data Science verstehen?
00:34:07: Bevor es ... ... es geht mir eigentlich auch gar nicht so um die Modelle.
00:34:09: Ist es GenEi, ist es Traditional Mission Learning.
00:34:11: Darum geht es mir ja eigentlich nicht.
00:34:12: Es geht mir nur so, ist das Problem verstanden ... ... und können wir diese Lösung bringen.
00:34:16: Und das ist, glaube ich, für mich sehr wichtig gewesen, ... ... als ich das Team aufgebaut habe.
00:34:21: Das erübrigt meine Frage, wie man es aufbaut und auf was es ankommt.
00:34:26: Vielen Dank dafür.
00:34:27: So, die letzte Frage, bevor meine zwei Standard-Fragen kommen, lieber Sebastian, ist am Ende muss man AI-ready sein.
00:34:38: Das ist jetzt ein sehr hartes Basswort, vielleicht können wir das auch diskutieren, was es heißt.
00:34:42: Aber was ist deine Meinung?
00:34:44: Also wann würde ein Sebastian mit seinem Team in einer Organisation überhaupt technisch, kulturell, organisatorisch mehrwert bieten?
00:34:54: Wir hätten das auch schon mal kurz angerissen, die Technologie an sich ist da, da brauchen wir nicht darüber diskutieren.
00:35:00: Wenn mich Leute fragen, können wir das machen, ist das möglich?
00:35:03: Eigentlich theoretisch ist alles möglich.
00:35:05: Bringen wir den Newscales, bringen wir das Problem und dann können wir darüber reden.
00:35:08: Also dann ist das auch möglich.
00:35:11: Was ich nur merke und was für mich auch immer wichtig ist, so wie sind wir verankert im Unternehmen?
00:35:16: Also auf der einen Seite organisatorisch, was du erwähnt hast.
00:35:20: Da hat sich selbst das klar so ein zentrales System jetzt erstmal orientiert.
00:35:24: Also mein Team ist jetzt erstmal ein zentrales Team.
00:35:27: Es kann auch durchaus sein, dass wir in der jetzigen iteration auch ein bisschen embedded sind, also so wie so ein Hub und Sporkmodell.
00:35:34: Aber im Moment macht das mehr Sinn, weil wir müssen erstmal gucken, wie Organisieren wir unsere Workflows auch mit anderen Teams.
00:35:41: Wir sind ja, ich will ja auch immer das die Produktmanager und die Produktdesigner ja auch kommen und sagen, wir haben jetzt mal eine Idee.
00:35:51: Lass uns das mal umsetzen, weil das wird ein Problem lösen, mehr wird für unsere Kunden bieten.
00:35:56: Und so, das muss man ja auch erstmal schaffen und zusammenbringen.
00:36:02: Genau, aber auf jeden Fall ist wichtig, glaube ich, ist, und das habe ich bei Satchist auch, dass wir wirklich dieses Commitment haben zu sagen, AI ist wichtig, nicht nur für das Produkt, für unsere Kunden, für unsere internen Prozesse, sondern auch für jeden einzelnen Mitarbeiter, dass der auch irgendwie LGBT oder Klot oder was auch immer nutzt, um damit auch seine Produktivität zu verbessern oder wie auch immer es nutzt, um besser arbeiten zu können.
00:36:30: Vielen, vielen Dank.
00:36:33: Wenn ich das richtig sehe, trägst du ein Aurora Ring?
00:36:37: Ja, genau.
00:36:39: Das klärt dann wahrscheinlich meine zwei Fragen, die ich jetzt stellen will, weil was macht Sebastian ja noch mit privat mit Daten?
00:36:46: Vielleicht wirst du da Ihnen gleich referenzieren und wie würdest du denn unsere Folge mit NMCA im Titel bezeichnen?
00:36:53: Okay.
00:36:56: Erst mal was ... Du hast es richtig gesagt, Chora-Ring und Daten sind auch für mich privat sehr wichtig.
00:37:02: Und vor allen Dingen, glaubt man, wenn man auch so in so einer Führungsposition wächst und auch Personalverantwortung hat, aber auch strategische Verantwortung, ist es total wichtig, dass du auf den Schlaf achtest, dass du auf deine Gesundheit achtest und so weiter.
00:37:16: Und ich habe ja eigentlich auch ein Verbel, eine Apple Watch, jetzt ist hier Produktwerbung angesagt, aber ... Ich kann mit dem Ring besser schlafen, als mit der Watch.
00:37:26: Deswegen ist das für mich so mein Schlafpunkt.
00:37:28: Und ich guck, versuche wirklich zu sehen, habe ich gut geschlafen, wann habe ich gut geschlafen, damit ich wirklich in meinem Job ... ... hundert Prozent geben kann.
00:37:37: Und das auf einer langfristigen Ebene sozusagen.
00:37:40: Ja.
00:37:40: Ja.
00:37:41: Genau.
00:37:42: Und wie ich an unseren ... Ich hab so gerne so ein Bild vor Augen, als wir bei bei so über halb gesprochen haben, ne?
00:37:48: Ja.
00:37:49: Ähm ... Und zwar von dem olympischen Scharfschützen Jusef Direcht.
00:37:55: Da gab's so ein Mem letztes Jahr, ne?
00:37:57: Der einfach so ganz cool Darstand.
00:38:00: Und auf der anderen Seite hattest du diese mega professionellen Schützen, die dann irgendwie so eine Blende hatten, so eine Kalibrierungstour.
00:38:13: Das ist irgendwie auch dieses Genial, wir müssen sehr viele Kalibrierungen machen und immer sehr genau gucken, damit es auch wirklich trifft.
00:38:22: Und dieser Yasuf Dikesh hat einfach irgendwie weißes T-Shirt, Waffe in der Hand gehabt und hat gezielt und getroffen.
00:38:30: Und das ist so glaube ich so, was ich wichtig finde.
00:38:33: dieses Handwerk zu haben.
00:38:35: Wenn ich eine klare Zielsetzung habe, wenn ich genau weiß, was ich eigentlich mache, dann zähle ich und schieße ich.
00:38:41: Und das ist, glaube ich, so der Punkt, der Unterschied zwischen diesem Halb- und Impact auf der einen Seite.
00:38:47: Und ich finde, das ist bei Datacense um das Handwerk hier und somit auch um den Impact, den man generiert.
00:38:55: Cool.
00:38:56: Vielen, vielen Dank für die Folge, Sebastian.
Neuer Kommentar