Demystify AI Teil 1: AI & Dynamics: Mythen, Realität und Zukunft
Shownotes
Weitere Infos zum Projekt gibt's hier: https://www.gorelate.com/referenzen/podcasts/ Fragen, Anmerkungen, Kritik? Wir freuen uns auf alle Nachrichten an podcast@gorelate.com
Transkript anzeigen
0: ,0: Wie verändert AI die Art, wie Unternehmen heute Prozesse denken und wie unterstützt Microsoft
0: ,0: sie dabei, diese in die Praxis umzusetzen? Über das und mehr darf ich heute mit Andi Aschauer
0: ,0: von Microsoft Österreich sprechen. Grüß euch und herzlich willkommen aus Wien zu Insides on Air,
0: ,0: dem Podcast über AI, Cloud Innovation und digitalen Fortschritt. Servus Andi, schön,
0: ,0: dass du heute dabei bist. Freue mich sehr. Hallo Nico, danke für die Einladung. Ich
0: ,0: freue mich auch, dass ich dabei sein darf heute. Jetzt habe ich dich schon so schön anmoderiert,
0: ,0: nachdem sich bei der Microsoft ja eure sag mal bezeichn Unternehmensrollen jedes Jahr
0: ,0: ein bisschen verändern, muss ich zugeben. Ich habe es mir jetzt nicht gemerkt, wie deine
0: ,0: aktuelle Bezeichnung ist. Darf dich einladen, dich kurz offiziell noch mal vorzustellen?
0: ,0: gerne meine aktuelle Bezeichnung hier extra auch noch aufgeschrieben, meine
0: ,0: aktuelle Rollenbezeichnung ist der Senior Solution Engineer für Low Code. Bei uns im Lösungsbereich
0: ,0: umfasst das den technischen Presales für die Enterpriseekunden für die Bereiche Microsoft
0: ,0: Power Plattform, also Lowcode Entwicklung und die Entigge Themen, die damit kommen. Super. Ja,
0: ,0: danke. Vielleicht magst du kurz drauf eingehen, das Thema AI, wie dich das jetzt aktuell oder
0: ,0: wie sich, sag ich mal, deine Rolle verändert hat, seitdem das Password AI oder Microsoft voll auf
0: ,0: AI setzt, seit der ja, seitdem die Partnerschaft auch mit Open AI offiziell gelauncht wurde. Hat
0: ,0: sich einiges getan bei euch. Wie hat sich das persönlich auf der Rolle ausgewirkt?
0: ,0: Also auf jeden Fall seit AI ein Mainstream Thema geworden ist, hat sich meine Rolle
0: ,0: und die Rolle meiner Kollegen in den in den Bereichen, die sich mit der Art und Weise,
0: ,0: wie Unternehmen Software entwickeln, befasst, dahingehend geändert, dass wir im Vergleich zu,
0: ,0: wo wir vorher vielleicht sehr statisch gedacht haben, Prozesse, Workflow Automatisierungen jetzt
0: ,0: im Tag täglich en Arbeiten, ich sag mal zu 70 / 80% uns befassen mit Agent Lösungen, das heißt mit
0: ,0: Lösungen, wo wir nicht unbedingt mehr statische statischen Code oder statische Designs oder wie
0: ,0: auch immer entwickeln, sondern wo wir diese Arbeit eigentlich an ein Large Language Model, das heißt
0: ,0: mit den Methoden der generativen KI delegieren und generieren lassen. Also, das hat sich sehr, sehr
0: ,0: stark geändert. Die Rolle hat sich in den letzten eineinhalb Jahren extrem stark in Richtung einer
0: ,0: zentralen Rolle für Agentic AI geändert. Ja, jetzt jetzt kenne ich dich schon bisschen länger. Jetzt
0: ,0: weiß, du bist ja ursprünglich, also du bist ja Techniker oder du kommst ja hast ein technischen
0: ,0: Background, kommst ja ursprünglich aus der aus dem Programmieren, aus dem weniger aus dem Low Code,
0: ,0: eher aus dem Pro Code Bereich oder? Genau, das war auch der Grund, warum ich in diese Rolle gegangen
0: ,0: bin. Das heißt, ich komme eigentlich original von meiner von meiner Ausbildung her habe ich
0: ,0: damals hat's geheißen Information Engineering, das heißt im Zweig Software Engineering Information
0: ,0: Engineering studiert. Das war damals das, was man unter dem Vertiefungsfach Artificial
0: ,0: Intelligence verstanden hat. Sehr sehr basic damals noch. Das heiß haben uns mit Konzepten
0: ,0: und Algorithmen und Möglichkeiten befasst mit den Themen, die jetzt eigentlich Commodities sind,
0: ,0: an die man gar nicht mehr denkt, wenn man an AI denkt. Und komm eigentlich dann auch
0: ,0: von meinem beruflichen Werdegang aus der klassischen Softwareentwicklung. Das heißt,
0: ,0: ich habe bei einem deutschen Telekomkonzern ganz klassisch auf dem .NET Framework entwickelt.
0: ,0: Funknetzsimulatoren entwickelt für das GSM und UMTS Netzwerk. Habe bei einigen Konzernen dann
0: ,0: als Consultant auch in dem Bereich gearbeitet, das heißt wirklich klassische ASB.net Entwicklung.
0: ,0: Dann kam SharePoint und ich wurde SharePoint Consultant, nicht ganz freiwillig, aber ist so
0: ,0: passiert und dann Trainer und irgendwann hat es mich dann auch wirklich zum Hersteller zu
0: ,0: Microsoft verschlagen. Auch nicht gleich in den BizOps-Bereich. Ich war zuständig für Microsoft
0: ,0: Project und Project Server. Spannende Zeit - gibt's jetzt in dieser Form nicht mehr, also ist
0: ,0: in andere Produkte reingewandert und aus diesem Hintergrund heraus bin ich dann auch in die Rolle
0: ,0: des Solution Engineer für Lowcode gegangen, weil natürlich das Verständnis wie Software entwickelt
0: ,0: werden muss, was Software Architekturen sind, Architekturkomponenten, was da gut funktioniert,
0: ,0: schlecht auf was man achten muss, ganz wichtig ist auch in diesem Bereich Lowcode-Entwicklung,
0: ,0: weil Lowcode heißt jetzt nicht, dass ich da einfach bunt drauf losklicke. Ja, ist möglich.
0: ,0: Aber Lowcode ist im Jahr 2026, indem wir uns befinden, Enterprise, das heißt, das was wir
0: ,0: im Lowcode Umfeld in dem Fall sehen, ist die Zukunft der Softwareentwicklung gemeinsam mit
0: ,0: den Methoden der künstlichen Intelligenz, die da ganz stark jetzt reinkommen. Ja, ist auch das, was
0: ,0: wir also aus der Partnersicht sehr stark sehen, geht auch immer mehr dahin. Citizen Development,
0: ,0: wie kann ich einen Kunden dahin bringen, dass er selbständig Dinge umsetzt, ohne immer einen
0: ,0: Programmierer zu brauchen? Wartbarkeit aus aus vorigen, ja, Firmen, wo ich arbeiten durfte,
0: ,0: habe ich gemerkt gerade, dass gerade im Procode Bereich Fluktuation ein riesen Thema ist. Also,
0: ,0: wenn der ist, der es gebaut hat und man nur mehr begrenzten Zugriff hat auf die Person,
0: ,0: wird's oft schwierig, das nachzuvollziehen und manchmal baut man dann sogar ganz neu, ne? So,
0: ,0: jetzt hast du schon gesagt, AI Thema ist für dich schon bisschen länger. Hat dich quasi auch schon
0: ,0: in deiner in deiner Ausbildung begleitet. Ich habe es auf der Uni auch schon bisschen eher Richtung
0: ,0: Machine Learning, AI war eher noch so sehr weit weg, kennengelernt. Jetzt ist die Frage für mich
0: ,0: war dann so ein bisschen der Big Bang ChatGPT auf irgendeiner privaten Feier kann mich gut erinnern
0: ,0: irgendwann ist Frau zu mir gekommen, ah, hast du das schon gesehen und da kann man mit AI chatten
0: ,0: und so weiter und dann ist es bum gegangen und so schnell konnten man gar nicht schauen. Hat
0: ,0: je jeder nur mehr über ChatGPT gesprochen. Ja, AI ist mehr als ChatGPT und wir merken aber trotzdem,
0: ,0: dass gerade auch im Businessbereich viele Unternehmen starten mit AI und denken drüber
0: ,0: nach AI umzusetzen im Business Kontext. Oft sind sie zurückhaltend aus Gründen der Compliance und
0: ,0: so weiter dabei, verwenden 95% der Mitarbeiter eh ChatGPT und sie kriegen gar nichts davon mit. Ja,
0: ,0: das das ist ein riesen Thema. Jetzt würde mich interessieren, wenn du über AI sprichst und ich
0: ,0: bin jetzt, sag ich mal, bin auf dieser Feier, kenne jetzt ChatGPT, aber kenne sonst nichts.
0: ,0: Wie würdest du jemanden als Nichttechniker das Thema AI erklären? Ich denk vielleicht vorher
0: ,0: bevor man so generelle Erklärung anfragen ist vielleicht da wichtig, dass man den Kontext gibt.
0: ,0: Das AI ist ja nichts nichts Neues. Ja, das ist die Idee kommt aus den 50er Jahren irgendwo vom Alan
0: ,0: Turing - hat nie so richtig funktioniert. Und AI hat eigentlich auch nichts mit Intelligenz zu tun.
0: ,0: Wir haben das AI Problem oder die Anwendbarkeit eigentlich nur durch Rechenleistung gelöst,
0: ,0: eigentlich mit Brut force. So würde die mal anfangen. Also das was wir jetzt kennen, das
0: ,0: ist ja eigentlich nur ein kleines Subset, nämlich der Bereich Generative AI, der hat eigentlich das
0: ,0: Problem, dass eine künstliche Intelligenz, wenn man so nennen will, gewisse Kreativität an den
0: ,0: Tag legt. Dadurch gelöst, dass wir einfach so viel Rechenleistung reingesteckt haben und das
0: ,0: Modell mit so vielen Informationen gefüttert ist, dass der die Ausgabe ja immer irgendwie eloquent
0: ,0: klingt. Und das ist auch was ich gern sage. Was ist das was man jetzt, wenn man auf der Party sind
0: ,0: unter AI versteht? Dort werden 90% der Menschen, die sich nicht damit befassen beruflich, darunter
0: ,0: eben Generative AI, ChatGPT und so weiter, Copilot, verstehen. Was ist das? Im Endeffekt
0: ,0: ist es nichts anders als ein eine statistisches System, das das nächste Wort vorhersagt. Ja,
0: ,0: aber halt so groß, dass es immer recht gut klingt. Einer der großen Vorteile ist es kann auch extrem
0: ,0: eloquent lügen. Ja, einfach weil es so viele Worte kennt, weil es mit so vielen Daten trainiert ist,
0: ,0: dass es dass diese Modelle halt immer irgendwas vorhersagen können, egal wie sinnvoll oder wenig
0: ,0: sinnvoll es ist. Und das ist glaube ich auch was auf das man hinweisen muss. Ja, also das
0: ,0: sind zwei Punkte, die immer gerne mitnehmen. Das im Endeffekt haben die haben diese Dinge,
0: ,0: die wir als künstliche Intelligenz verstehen, nicht wirklich was zu tun mit Intelligenz, ja,
0: ,0: sondern es ist einfach eine eine Vorhersage und die ist halt einfach so gut mittlerweile,
0: ,0: weil sie einfach so viel Rechenleistung bekommt, was s weil diese Modelle so groß sind, ne?
0: ,0: Es hat schon was wichtiges angesprochen Thema Wissen. Wenn ich jetzt mit ChatGPT mich unterhalt,
0: ,0: greift das ja auf ein sehr breites Wissen zu. Im Businessbereich ist das Ganze oft so, dass wir
0: ,0: auch als Partner oft merken, ja, ich meine ChatGPT gibt's, wenn ich jetzt eine Businesslösung will,
0: ,0: quasi ist ja mehr oder weniger Plug and Play oder ich brauche nur einen kleineres Stack,
0: ,0: brauche einen einen Business Case und dann kann ich relativ schnell starten, weil AI ist ja
0: ,0: intelligent und macht dann. In der Praxis schaut's oft ein bisschen anders aus. Wie wie ist da wie
0: ,0: ist da de Erfahrung, was die Erwartungshaltung von Kunden angeht? Also, die Erwartungshaltung,
0: ,0: es ändert sich aktuell bisschen, aber bis bis jetzt war das immer so klassisch. Wir brauchen
0: ,0: jetzt das und das Wort ist auch schon ein bisschen ausgeleiert, das Enterprise GPT, Firmenname GPT.
0: ,0: Ohne jetzt viel darüber nachzudenken, die Erwartungshaltung ist, man schreibt da
0: ,0: irgendwas rein und irgendwas kommt raus. Ja. Weil man sie mit ChatGPT, mit Gemini, mit Copilot auch
0: ,0: so macht. Jetzt hast du einen wichtigen Punkt angesprochen. Wenn ich jetzt öffentlich mit
0: ,0: ChatGPT spreche als Privatperson, dann kommen die Informationen irgendwoher. Ist mir ziemlich
0: ,0: egal. Also, das Modell wurde, nehmen mal an, mit allem trainiert, was es so an digitalen Wissen
0: ,0: gibt zu diesem Trainingszeitpunkt. Und dann gibt's natürlich noch als als Datenbasis das die das die
0: ,0: Internet oder die die Websuchen generell, die ja da auch mit einfließen und da kommt immer recht
0: ,0: gute Antwort raus und das das passt, weil da frage ich halt nach Dingen, die mich interessieren.
0: ,0: Wenn ich natürlich im Unternehmenskontext bin und sag, "Wer ist der beste Paketdienstleister?",
0: ,0: vielleicht als Kunde, dann will ich das Ganze einschränken. Weil wir wissen, wenn ich beim
0: ,0: Paketdienstleister arbeite, wir sind der beste und nicht den, den das Modell zufällig auswählt. Das
0: ,0: heißt, da ist schon mal die Herausforderung, dass ich sag, was was ist denn wirklich gesichertes
0: ,0: Wissen? Gesichertes Wissen liegt wahrscheinlich bei uns in den Systemen, nicht im Internet,
0: ,0: nicht im allgemeinen Wissen des Modells selber in den Trainingsdaten, sondern wir wollen das diese
0: ,0: Antworten soweit einschränken, dass eigentlich nur mehr aus unseren Wissensdatenbanken,
0: ,0: Artikeln, was auch immer antwortet. Da kommt dann meistens die erste Ernüchterung
0: ,0: weil dieses Antworten aus internen Quellen, das funktioniert nur genau so gut, wie die Suche ist,
0: ,0: die diese Inhalte durchsucht. Und wenn die schlecht ist, dann ist die Antwort schlecht
0: ,0: oder herbeifantasiert, weil einfach keine Daten verfügbar sind oder zu wenig verfügbar sind,
0: ,0: weil die Systeme dahinter einfach keine sinnvollen Suchergebnisse liefern können. Ja,
0: ,0: also wenn ich sag, bitte gib mir den Prozess für die Kundenanlage und das System dahinter
0: ,0: hat einfach keine ordentliche Suchtechnologie, liefert irgendwelche Dokumente oder gar keine
0: ,0: oder zu wenig, dann kann das beste Large Language Model auch keine gute Antwort mehr generieren.
0: ,0: Wenn nichts da ist, ist nichts da. Ja, es wird zwar eine knappe Antwort generieren, die wir
0: ,0: auch gut klingen, aber da steht halt nichts drin, ne? Mm. Ja, man kennt se gut. Also ich teilweise,
0: ,0: wenn du mit ChatGPT dich unterhältst, brauchst du ja oft mehrere Prompts hintereinander, bis
0: ,0: der wirklich weiß, was du willst und dann auch das ausgibt, was du brauchst. Jetzt hast du eh schon,
0: ,0: also prompt Thema habe ich habe ich jetzt oder das Passwort habe ich jetzt schon aufgegriffen.
0: ,0: Zwei Themen im Wesentlichen oder wenn du sagst als Firma, ich möchte mich dem Thema annäheren,
0: ,0: ich möchte den ersten US Case umsetzen, ist ein mal Thema 1, was will ich und woher kommt oder
0: ,0: Thema Wissensmanagement, weil wir haben z.B. auch als in der Partnerrolle oft das Thema, dass ich
0: ,0: dem Kunden erklären muss, pass auf, da ist schon ein Projekt dahinter. Wir müssen gemeinsam in der
0: ,0: Projektsituation gehen, Anforderungen definieren, umsetzen, testen, sehr viel Testmanagement
0: ,0: betreiben, bis wir dorthinkommen, wo wir hin wollen, weil eben die Fehlermarche bei AI es zu
0: ,0: minimieren gilt auf Basis klar zu definieren, was ich haben will und woher kommt, oder?
0: ,0: Ja, genau. Und was ich als zwei sehr kritische Punkte sehe: es es gibt zwei so,
0: ,0: also mir kommen in den Anforderungen immer zwei so so Themengebiete unter. Die erste Annahme ist,
0: ,0: wir haben eine eine Riesenhaufen an Informationen, schlecht strukturiert. Da kübeln wir jetzt,
0: ,0: also da stecken wir ein Large Language Model drauf und dann können wir super damit reden.
0: ,0: Die erste Fehlannahme, kommt meistens die erste Ernüchterung. Strukturieren von Informationen
0: ,0: wird mir nicht erspart bleiben, ne? Das heißt, so wie ich sagte, je besser das Suchergebnis,
0: ,0: desto besser die Antwort. Und das zweite ist die Annahme. Und das haben wir auch recht oft. Jetzt
0: ,0: sind die Ergebnisse nicht gut genug. Jetzt gehen wir einfach aufs nächst neuere oder noch größere
0: ,0: Modell. Da wird's dann sicher besser oder wir setzen Modelle in die die reasoning-fähig sind,
0: ,0: also die ihre Schritte selbst reflektieren und dann wird's besser. Die zweite Fehlannahme, weil
0: ,0: da ist wirklich der Hebel dann in oder die Kunst, es ist eigentlich meine Kunst, die Modelle richtig
0: ,0: zu prompten, nicht einfach nur aufs größere schalten und noch offener und kreativer zu werden,
0: ,0: sondern zu sagen, gut, das ist vielleicht ein GPT 41 Minimodell, aber wenn man das richtig promptet,
0: ,0: ist es mittlerweile schnell günstig und liefert gute Ergebnisse. Bevor ich jetzt
0: ,0: darauf schalte bis 5.1 Reasoning und weiß Gott weiß noch alles. Wenn ich dir folge, heißt das
0: ,0: nicht für mich als Kunde, ich muss immer zuerst meine gesamten Daten strukturieren, überarbeiten,
0: ,0: Datenqualität sichern, bevor ich überhaupt mit irgendwas starten kann oder? Ja, also wir sehen
0: ,0: es auch in vielen Projekten. Jetzt ist bei bei Unternehmen jetzt kommt wieder dieser Moment,
0: ,0: es gab mal so diese mit dem Microsoft Ökosystem diese Phase, wo Microsoft SharePoint eingeführt
0: ,0: wurde in vielen Unternehmen und FileShare abgelöst wurden. Damit kam eine Enterprise
0: ,0: Suche und damit kam oft die Erkenntnis, wir finden nichts oder ui, die Leute finden zu viel. So,
0: ,0: dann ist das in vielen Fällen nachgezogen worden oder auch nicht. Und eigentlich dasselbe passiert
0: ,0: jetzt wieder. Es werden wieder große große Repositories, SharePoint, SQL Server, AI Search
0: ,0: Instanzen. Suchindizes jetzt ist angebunden. Und es passieren zwei Dinge. Entweder die Ergebnisse
0: ,0: sind unbefriedigend oder auf einmal bekommen da Antworten mit Daten raus, die die Leute gar nicht
0: ,0: sehen sollten. Also das die die Grundlagenarbeit Daten in sinnvollen Suchindizes zu halten, bleibt
0: ,0: dann nicht erspart. Es ist natürlich im Microsoft 365 Ökosystem haben wir mit mit dem, was wir jetzt
0: ,0: als Work IQ bezeichnen schon so eine Basisschicht. Das heißt alles, was da drinnen ist an Information
0: ,0: von Teams, E-Mail und so weiter, ist natürlich immer in meiner Unternehmensidentität im positiven
0: ,0: gefangen. Und ich kann über meine Inhalte reden, aber wenn ich jetzt irgendwo ganz anders hingehe,
0: ,0: ich sage jetzt Hausnummer technische Dokumentation und die in einem eigenen Suchindex erfasse, dann
0: ,0: muss ich diese Arbeit halt tun, weil sonst wird's einfach nie so gut werden oder zu viel werden oder
0: ,0: zu wenig. Mm. Jetzt haben wir schon viel übers übers über die Datenbase gesprochen. Du hast jetzt
0: ,0: was Interessantes noch angesprochen ist das Thema Security Sicherheitsrollen. Man kriegt zu viel
0: ,0: raus, was ich eigentlich gar nicht sehen darf aus technischer Sicht jetzt, wenn dich jemand fragt,
0: ,0: ah, wir haben da als Kunde die Befürchtung, wenn wir jetzt Copilot implementieren bei
0: ,0: uns im Unternehmen, wie nimmst du einem Kunden die Befürchtung oder was für Grundlagenarbeit muss man
0: ,0: machen, um eben sicherzustellen, dass genau das nicht passiert? Also, ich denke gerade gerade, das
0: ,0: wird oft übersehen, weil es wird immer verglichen. Ich sage jetzt irgendwas, Copilot versus Copilot
0: ,0: liefert nicht so tolle Antworten wie ChatGPT, aber da werden Äpfel mit Birnen verglichen. Ja,
0: ,0: weil das eine ist vollkommen, also im meisten Fällen im Consumer Fall vollkommen offen,
0: ,0: vollkommen ungesichert, geht einfach irgendwohin. Ist ja für ein Consumer auch okay. das andere
0: ,0: berücksichtigt über viele viele Ebenen Sicherheitskonzepte etc. wo wir hingehen und
0: ,0: in meinem Fall in meiner spezifischen Rolle ist es so, dass wir meistens bei Prozessen an AI Themen
0: ,0: kommen. Das heißt, nicht unbedingt bei Themen, wo es drum geht, ich will meine E-Mails und Dokumente
0: ,0: durchsuchbar machen. So, diese klassischen Microsoft Copilot Themen, das machen meine
0: ,0: Kollegen, sondern wir wollen einen spezifischen Prozess von einem oder von einem Multiagent System
0: ,0: durchführen lassen mit Wissen, mit Aktionen und und ja und und da können wir eigentlich, wenn
0: ,0: solche Befürchtungen kommen, zum Glück in unserem Fall sehr gut verweisen auf das auf dem Copilot,
0: ,0: die Powerplattform, auf dem dieser ganze Stack aufbaut, nachdem das ein technischer Stack ist.
0: ,0: baut es auch auf allen Security Lösungen auf, die die meisten Unternehmen schon im
0: ,0: Einsatz haben. Das heiß unsere Perview Produkte für die Compliance, Defender und so weiter.
0: ,0: Und da kann man eigentlich drauf verweisen, dass ja die Methoden, die Plattformen da sind, entweder
0: ,0: sind sie schon im Unternehmen oder existieren, um da auch wirklich im im Vorhinein zu arbeiten,
0: ,0: zu sagen, welche Modelle erlaube ich, welche Datenquellen erlaube ich und und das im Governance
0: ,0: Sinn, aber auch proaktiv, also in Echtzeit zu Prompt Injections zu blockieren oder auch
0: ,0: dann im Nachgang nachzuvollziehen, wer hat was durchgeführt, wer hat was gesehen etc. Also denk
0: ,0: das ganzer ganzer wichtiger Punkt in dem Portfolio und das unterscheidet diese Unternehmens Lösungen
0: ,0: auch ganz klar von dem was wir als Consumer geworden sind. Also als Consumer von ChatGPT
0: ,0: oder sonst was, wo das ganze anders funktioniert. Wo natürlich auch gewisse Regeln drin stecken,
0: ,0: aber natürlich viel, viel weniger und viel, viel offener ist jetzt im Unternehmenskontext,
0: ,0: wo wirklich aufpassen muss, wo zig Ebenen von AI-Filtern, von Prompt-Injection-Filtern stecken
0: ,0: etc. Es ist auch interessant, wenn wir die Frage bekommen, immer Einstieg in AI im Unternehmen
0: ,0: muss eigentlich immer heißen, AI gibt's ja schon in eurem Unternehmen, ihr kriegt es noch nicht
0: ,0: mit. Und jetzt müssen wir es dahin holen, wo ihr es mitkriegt, in die Prozesse eingelagert,
0: ,0: in die Lösungen eingelagert und da spielt eben in unserem Fall Power Platform, Azure, Dynamic
0: ,0: Business Applications eine große Rolle. Kannst du vielleicht einmal kurz noch mal aufklären,
0: ,0: wie und wo in den unterschiedlichen Lösungen ihr jetzt wie AI reingebracht habt und welche Rolle es
0: ,0: jetzt aktuell quasi in den Produkten spielt. Also, das ist ja ganz interessant, wenn man sich das
0: ,0: jetzt mental so als Bild vorstellt - das Microsoft Portfolio ist halt gewaltig groß, aber man kann
0: ,0: sich so in drei, vier Säulen vorstellen. gibt's diese ganzen Bereich, der sich um Produktivität
0: ,0: kümmert. Das heißt Microsoft 365 mit allem, was da dazu gehört, SharePoint und Teams, dieses
0: ,0: die ganze Produktivitätsschiene, wo wo es eher um um den Mitarbeitenden geht, produktiv zu werden,
0: ,0: ne? Dann gibt's die schiene Business Applications, wo es Prozess nahe reingeht. Da geht's weniger um
0: ,0: die einzelne Person und ums Kollaborieren, sondern um das Umsetzens spezifischer
0: ,0: Geschäftsprozesse und dann natürlich der große Bereich Procode Entwicklung, das heißt alles,
0: ,0: was Azure AI Foundry etc. ist, plus Security dann als vierten Bereich. Das ist ganz spannend, weil
0: ,0: dieser mittlere Bereich Business Applications, wo Dynamics, Power Platform und so weiter drinnen
0: ,0: liegt, der nimmt in diesem Gesamtspiel , jetzt Agentic AI, eine immer zentralere Rolle ein, weil
0: ,0: die Plattformen in dem Fall die Power Platform und alles, was da so rum schwebt der zentrale
0: ,0: Orchestrator für diese Lösungen werden. Das heißt, auf der einen Seite habe ich diese Oberfläche,
0: ,0: mit der ich arbeite, den Microsoft Copilot, auf der anderen Seite habe ich die Power Platform,
0: ,0: wo ich sage, ich bringe jetzt meine Agenten in den in diese Oberfläche. Der Lieferantenprüfungsagent,
0: ,0: der den Prozess "Lieferantenprüfung" umsetzt, durchführt, überwacht, bedient über Copilot
0: ,0: und der vielleicht aber in die andere Seite greift und wenn man da runtergehen und sagt,
0: ,0: um das durchzuführen, habe ich auch programmierte Agenten, also wirklich professionell entwickelte
0: ,0: Komponenten, Systeme, Integrationsschichten aus dem Azure Bereich und diese Plattform in der
0: ,0: Mitte bringt es eigentlich als Orchestrator alles zusammen. Also die nimmt eine immer
0: ,0: zentralere Rolle ein, in diesem in diesem Agentic AI Spiel. Ja, spannend. Agent ist viel gefallen
0: ,0: und Agents. Ja, was sind Agents? Was wir oft haben, ist das dem Copilot kenne ich. Copilot
0: ,0: gibt's im Consumerbereich ja auch. Agent, was was wie unterscheidet sich jetzt Agent zum Copiloten?
0: ,0: Was wir jetzt sehen ist die erste Welle der Generative AI Us Cases, so ein bisschen,
0: ,0: noch nicht ganz, aber die flacht so ein bisschen ab und das sind so die klassischen Microsoft
0: ,0: wird es Copilots nennen, also die Copiloten oder im klassischen oder im generischen Kontext würde
0: ,0: man sagen so die klassischen Agents im Sinne von Retrieve Augment generator. Also ich frage was,
0: ,0: das Ding geht mehr oder weniger intelligent an eine Quelle und gibt mir eine Antwort
0: ,0: und bereitet die Antwort schön auf. Also so diese klassischen Wissenssuchen, das ist das,
0: ,0: was Microsoft als Copiloten bezeichnet und das ist das, ich sage mal, wo man jetzt schon relativ gut
0: ,0: einem Unternehmenskontext reinkommen. Steckt da sehr viel Mehrwert drin? Es ist mal Schritt eins,
0: ,0: ist mal nett. Schritt eins. Ich habe jetzt auch Agentic AI und Agents erwähnt und meines Erachtens
0: ,0: kommt der richtige Mehrwert jetzt daher, dass ich sag, ich baue auf denselben Konzepten Agents auf.
0: ,0: Diese Agents, die brauchen jetzt nicht unbedingt immer eine Chatinteraktion, sondern die bekommen
0: ,0: aus einem System Ereignis. Es kann ein eingehendes E-Mail sein mit unstrukturierten Infos, E-Mail mit
0: ,0: Langtext. Ja, da steht der Kundenanfrage drinnen und dann geht dieser Agent basierend auf seinem
0: ,0: Large Language Model ähnlich wie Workflow los und sagt, was steht denn da drinnen? Gut,
0: ,0: das ist eine Anfrage zum Gastarif. Welches Produkt hat da? steht da eine Kontennummer drin,
0: ,0: kann ich aus Systemen diese Informationen anreichern, vielleicht eine sinnvolle Antwort
0: ,0: generieren oder eine sinnvolle Vorschlag für eine Antwort generieren und dann einem Menschen zur
0: ,0: Prüfung zum finalen Senden vorlegen. Da kommen wir ins Spiel, da kommt die gorelate ins Spiel,
0: ,0: da kommen lokale Energieanbieter ins Spiel und die gorelate als Partner. Das sind so die Use Cases
0: ,0: wo ich sehe, wo der richtige Mehrwert drin ist. Bei diesen bei den nicht unbedingt bei
0: ,0: der Wissensbeschaffung durch Menschen, sondern bei dem Auslagern von solchen ja sinnlosen Prozessen,
0: ,0: also von dem Durchsuchen von Informationen, von Zusammenfassen von Informationen und
0: ,0: eventuell im Auslösen von Aktionen basierend auf den Infos von diesem Abnehmen der Arbeit, weil es
0: ,0: hat niemand im Unternehmen hat zu wenig Arbeit mit irgendwelchen administrativen Tätigkeiten.
0: ,0: Gerade im Kontenservice, also an lesen von E-Mails und sinnvolle Antworten verfassen,
0: ,0: das ist was man zu 90% auslagern kann. Da schaut man drüber, sagt das passt, liebes lieber Agent,
0: ,0: oder da füge ich was ein noch und dann schicken wir es raus. Und da da steckt für mich der
0: ,0: Schritt zwei eigentlich der größere Mehrwert drinnen. Ja, sehe ich auch so. W was ja von
0: ,0: der Microsoft sehr viel kommt, wo wir auch immer so ein bisschen abwarten, sind sehr viele Agents,
0: ,0: die out of the box entwickelt werden oder wo Microsoft die nie zieht in Standard Business
0: ,0: Prozessen und dafür einen Agent baut. Genau. Ja das ist richtig. Also, wenn man jetzt auf den
0: ,0: auf den M365 Copilot schaut, da gehen wir den Weg man kann es so ein bisschen eigentlich als als
0: ,0: vier Schichten sehen. Der allgemeine Copilot, mein Assistent , der man für ganz allgemeine
0: ,0: Aufgaben hilft vom E-Mail zusammenfassen über schauen, was ist in meinem Kalender etc.
0: ,0: Und die die zweite Schicht out of the box agents. Das heißt, da gibt's z.B. den Researcher, der mir
0: ,0: hilft wirklich fundierte Recherchen durchzuführen. Den Analyst, der mir der mir wirklich analytische,
0: ,0: also analytische Arbeit mit Excel und so weiter abnimmt und weitere. Das heißt, da schon einmal
0: ,0: spezifischer, dann eventuell noch spezifischer eben das, was ich vorher als prozessspezifisch
0: ,0: meinte. Mm, ich baue in der Powerplattform mit Copilot Studio den Agenten für meinen Prozess und
0: ,0: den publiziere ich in Copilot, Lieferantenprüfung oder was auch immer und dann die vierte. Ja, das
0: ,0: waren nur drei Schichten - verzählt. Kein Problem. Das vier ist ist für manche herausfordernd. Es ist
0: ,0: ja für Language Models schwierig zu rechnen. Also passt. Ich meine das ist genau das,
0: ,0: was wir sehen und wenn wir jetzt drüber sprechen, ist ja auch das der Punkt, wo wir dann ins Spiel
0: ,0: kommen, also mit den Kunden quasi zuerst mal zu schauen, okay, was ist out of the Box da,
0: ,0: was bringt die Microsoft? Wie kann man Standard Use Cases, Agents, die schon von Microsoft gibt,
0: ,0: möglichst ressourceneffizient umbauen? Weil warum was Neues erfinden, wenn es schon was
0: ,0: gibt bzw. dann Agent zu entwickeln für wirklich Kassenprozesse gerade im Servicebereich, du hast
0: ,0: angesprochen im Energiebereich im Serviceprozess wo aktuell glaube ich kriegen wir zumindest das
0: ,0: Feedback was nicht wisst sehr sehr viel Druck drauf ist Ressourcenknappheit sehr viel ja
0: ,0: Unmut möchte ich jetzt sagen, aber die Kunden sehr auslasten sag ich mal den Customer Service und da
0: ,0: sind wir auch mit ersten Use Cases jetzt schon am Kunden, die wir umgesetzt haben sehr erfolgreich.
0: ,0: Was sind den Use Cases oder Anfragen, wenn du im Enterprise größere Kunden in Österreich betreust?
0: ,0: Was ihr häufig seht, wie bann sich das Ganze an? Kommt der Kunde und möchte einfach mal wissen, was
0: ,0: geht bei der Microsoft oder wie wie bannt sich das an? Also wie gesagt, der Bereich Kundenservice,
0: ,0: das immer so die Low hanging fruit, weil da das kennt jeder auch als Privatperson.
0: ,0: Da gibt's zwei Dimensionen. Dieser furchtbare Chatbot auf der Homepage, den man sofort abbricht
0: ,0: nach der zweiten Antwort, also die Dimension nach außen, und die Dimension beim Unternehmen
0: ,0: nach innen für den den Kundenservice-Mitarbeiter diese furchtbaren E-Mails, die da reinkommen, die
0: ,0: man beantworten muss. Gut übers erstere haben wir geredet, das heißt E-Mail Antwortvorschlag Antwort
0: ,0: Zusammenfassung ist ein No Brainer. Ja, nach außen. Dieselben Methoden kann ich natürlich auch
0: ,0: noch außen anwenden, um einen sinnvollen Chatbot anzubieten. Da gibt's nur relativ wenig. Also,
0: ,0: glaub wir als Kunden kennen es alle. Chatbot Icon hat immer noch so, also bei mir löst immer noch
0: ,0: so ein bisschen Reaktanz aus, weil es und es ist technisch nicht nicht nötig, aber weil es immer
0: ,0: noch sehr sehr starr ist und meistens durch gute Navigation eigentlich hätte man sich den Chatbot
0: ,0: sparen können. Also das ist der eine Bereich. Der zweite, unabhängig vom Kundenservice, Bereich,
0: ,0: der so in nennen jetzt fast mal Do Opener ist, also so wenn so ein klassisches Szenario ist,
0: ,0: Inspiration, was ist denn möglich? Was beschäftigt jedes in dem für Großunternehmen? Das ist der
0: ,0: Dokumenteneingang. Das heißt, egal um was es geht, das heißt Rechnungseingang, Mahneingang,
0: ,0: Bestellwesen, sonstige sonstige Dokumente, die eingehen. Das ist immer so die klassische
0: ,0: low hanging fruit und da ist ein massiver Hebel drinnen, also das extrahieren von Informationen,
0: ,0: strukturiert Extrahieren von Informationen aus, ich nehme jetzt einmal Beispiel,
0: ,0: haben wir heute wieder gehabt Rechnungen von 2000 verschiedenen Lieferanten gehen ein,
0: ,0: die schauen alle anders aus. Da kann man kein Modell drauf trainieren, das geht nicht,
0: ,0: sondern da nehme ich ein Large Language Model, da baue ich mal ein Agent und da prompt ich seit,
0: ,0: dass ich sage, das ist deine Rechnung, ich brauche diese Felder. Also, das ist da ist da der Hebel
0: ,0: ist da gewaltig. Das funktioniert meistens sogar innerhalb einer halbstündigen Session,
0: ,0: dass das soweit sinnvoll funktioniert, dass man es verwenden kann. Also das ist das ist ein
0: ,0: Klassiker, ein Prozessklassiker. Was auch immer mehr kommt ist und das ist einfach auch die der
0: ,0: der Vorteil in dem Fall bei Microsoft von dem von der gesamten Plattform vom Ökosystem ist, dass ich
0: ,0: meine eigenen Prozessagents dann wieder in die klassischen Tools, die ich ja täglich verwende,
0: ,0: Word, Excel und so weiter einbaue. Und da hatten wir letztens ganz spannendes Szenario. Auslöser
0: ,0: war wieder ein Prozess, wo Dokumente reingehen, nämlich Bewerber. also E-Mailadresse oder sonst
0: ,0: irgendwas, wo halt Bewerbungsdokumente reinkommen, also Langtext vielleicht ein Motivationsschreiben
0: ,0: und der CV und da quasi ein Agent, der mir das analysiert, dann intern schaut, um was geht's da,
0: ,0: welche Skills hat die Person, auf welche offenen Jobs wird's passen und dass man alles strukturiert
0: ,0: in Datenbanken ablegt und dann aber auch der nächste Schritt, weil ich sag, wir haben das dann
0: ,0: im Copilot integriert, weil das ist möglich mein eigener Agent ist im Copilot und nicht nur in den
0: ,0: Copilot, sondern der Copilot ist ja mittlerweile in den Office Applikationen und der Mitarbeitende
0: ,0: wen in der Lage zu sagen, was auf zeig mir also ich bereite mich auf das Interview vor:
0: ,0: "generier mir bitte passende Interviewfragen". Job Applikation ist die Power Platform Architect: "das
0: ,0: ist der Bewerber" und dann ist es alles fertig zusammengekommen in ein Worddokument, aus dem aus
0: ,0: dem Chat heraus. Und man hat den ganzen Interview Leitfaden, man hat das komplette Dokument, kann
0: ,0: das erfassen und wieder zurückliefern. Also das sind zwei so Szenarien. Das ist auch ein Use Case,
0: ,0: den wir wir mit dem Kunden umgesetzt haben, witzigerweise beat AI with AI sozusagen,
0: ,0: weil die haben gemerkt, okay, Bewerbungen von Stipendiatinnen in dem Fall wer auch in kürzer
0: ,0: Referenz dazu machen. Also ich kann da aus dem Nähkästchen plaudern. Wo es darum gegangen ist,
0: ,0: jeder schreibt quasi sein Bewerbungsschreiben nur noch mit AI und wir haben quasi auf Basis dessen
0: ,0: die Auswertung erleichtert und haben gesagt, "okay, bitte filter mal alle Antworten raus,
0: ,0: wo du AI erkennst und nimm die mal weg und schreib direkt eine begründete Absage.", wertschätzend
0: ,0: natürlich, aber dass wir quasi erkannt haben, dass es sich hier um eine AI generierte Antwort handelt
0: ,0: und dass wir sie bitten würden noch einmal eine authentische Antwort einzureichen bzw. Bewerbung.
0: ,0: Jetzt hast du schon gesagt, die Use Cases, die ihr viel seht, deckt sich natürlich auch
0: ,0: mit unseren Use Cases, was ich spannend finde, weil Chatbots ist auch was was immer wieder kommt,
0: ,0: aber natürlich ist Frustration da. Also, ich kenne das bei mir. Ich möchte eigentlich immer
0: ,0: mit der Menschen reden. Jetzt ist man bisschen frustriert, weil man kennt Chatbots und Voicebots
0: ,0: aus der Vergangenheit auch aus dem Navi, wo man sich immer denkt, der versteht mich nicht. Ja,
0: ,0: hast du das Gefühl, dass man jetzt so ein bisschen die Barriere durchbrechen muss bei den Kunden und
0: ,0: sagen: "Hey, jetzt ist aber Gamechanger da und das ist jetzt besser als ihr es kennt?"
0: ,0: Ja, also da ist eigentlich ganz da ist auch wieder mit den Large Language Models,
0: ,0: mit den multimodalen Modellen mittlerweile Gamechanger. Das wir haben das selber auch
0: ,0: bei äh bei der Demoorbereitung da lokal Tests gemacht, weil m du sagst, diese Voicots oder IVRs
0: ,0: oder was im Kundenservice, wo man 1 2 Drückt oder ein Wort sagen kann, das ist sehr unbefriedigend.
0: ,0: Wir haben aber mittlerweile und das ist in unserem Portfolio im Dynamic Customer Service Modul wird
0: ,0: das out of the Box kommen. Aber auch bei Copilot Studio haben wir die Möglichkeit mit Realtime
0: ,0: Voice Modellen aus der GPT Familie, da extrem gute Interaktionen zu schaffen. Also, wir haben den
0: ,0: Test gemacht mit einem Basismodell, das war GPT4 Realtime und haben da wirklich österreichische
0: ,0: Dialekte verwendet. Das heißt, wir haben jemanden aus dem Montafone reinreden lassen, jemanden aus
0: ,0: Tirol, also verschiedene Dialekte und man hat dann auch schön gesehen, die Transkription,
0: ,0: also die Texttranskription, die war komisch. Ja, also es war schon Deutsch, aber komplett falsch
0: ,0: erkannt natürlich, weil der Dialekt doch vieles wegnimmt. Das Modell war aber trotzdem in der Lage
0: ,0: äh zu erkennen, um was geht's. Also, es hat immer wieder zurückgeführt auf denselben Intent in dem
0: ,0: Fall in Deutsch äh und hat dann sofort natürlich Sprache geantwortet. Also, ich muss da ist wie
0: ,0: gesagt diese Voice Interaktion über die über die Realtime Large Language Models, das ist wirklich
0: ,0: ein Gamechanger für diese natürlichsprachige Interaktion. Und weil du von Dialekt gesprochen
0: ,0: hast, ist auch wahnsinnig spannend. Wie geht's ihr mit dem Thema um? Weil es kommt viel auch bei uns.
0: ,0: Uns rufen Leute an aus Vorberg, ältere Leute, die sie sprachlich ja nicht umstellen wollen,
0: ,0: wenn sie jetzt mit ein Chatbot reden. Wie gesagt, also wir haben es ganz war genau das
0: ,0: konkrete Beispiel, wir haben es getestet mit mit echten Personen sozusagen aus den Regionen aus
0: ,0: verschiedenen Dialekten Salzburg, Tirol, zweimal Vorarlberg und die Ergebnisse waren, also es war
0: ,0: wirklich beeindruckend, weil da war genau die Herausforderung, wir haben Regionen, wo einfach
0: ,0: sehr sehr isolierte Dialekte sind. Also es gibt, ich weiß nicht, die gehen Salzburg im Lungau,
0: ,0: da reden 30.000 Leute oder so einen Dialekt oder im Montafon, Vorarlberg. Also das ist was mit
0: ,0: diesen Modellen sehr viel besser wird. Hat er auf größere Ebene oder auf brettere Ebene den Grund,
0: ,0: dass die Hersteller Microsoft und andere seit einiger Zeit eine eine Initiative sozusagen im
0: ,0: Hintergrund gestartet haben, diese ganzen Dialekte ja zu sammeln. Also das merkt man vielleicht,
0: ,0: wenn man von diesen von diesen Firmen wie Data Annotation Angebote bekommt als als
0: ,0: Native Speaker sozusagen. Das steckt da auch dahinter. Ja, ich frage deswegen,
0: ,0: weil wir gerade mit dem Kunden auch genau in dem Thema drin sind, Voicepot Integration,
0: ,0: also Contact, die die neuere Lösung, sage ich mal, auf Basis von Dynamic Customer Service und bei dem
0: ,0: Kunden geht's, also einerseits ist das Dialektik Thema, ist ein riesen Thema, weil Österreich war
0: ,0: die Leute natürlich anrufen bei der Voiceboard Einführung und das zweite Thema, was sie stark
0: ,0: haben, ist das Thema, also Voice Spot Stimme und da gibt's ja unterschiedliche Default Stimmen im
0: ,0: Microsoft. Also in der Umgebung, aus denen man wählen kann, Geschwindigkeit, Sprechart,
0: ,0: welche Voice will ich haben und was da auch eine Frage war vom Kunden, was ich spannend finde,
0: ,0: die haben ein sehr prominenten ja Herausgeber, Firmen Firmengründer, wenn man so will, ohne
0: ,0: dazu sehr ins Detail zu gehen und da Stimmsample raufzuladen und quasi den Bot als diese Person
0: ,0: sprechen zu lassen. Wäre wahnsinnig lässig, weil die Stimmen hat ein riesigen Wiederkennungswert.
0: ,0: Natürlich ist das was, was du in Ihrer Zukunft auch siehst. Wie gesagt, also es sind zwei Teile,
0: ,0: die die Sprachservices in dem Fall die kommen bei uns aus Azure aus den Speech Services in
0: ,0: Azure. Die haben eigentlich beide Möglichkeiten. Also wie gesagt, das Dialektthema, wir haben es
0: ,0: ausprobiert, wir hatten denselben Anwendungsfall oder Anfrage ist prinzipiell mit den neueren
0: ,0: Realtime Voice Modellen kein Thema mehr. Also, da kann man wirklich sehr hart im Dialekt reinreden.
0: ,0: Die zweite eben diese Custom Voice. Das ist ein Service, den gibt's ja einiger Zeit im
0: ,0: Portfolio. Das heiß, die kann Sprachsamples da eingeben und dann wird mir diese neuronale
0: ,0: neurale Stimme generiert. Da muss ich relativ wenig Sprachsamples eingeben. Dann so wie im Zug
0: ,0: hab ja die bekannte Stimme, ne? Andi Bot, mit dem man sprechen kann? Ja, müssen wir vielleicht...
0: ,0: würde ich oft anrufen... müssen wir vielleicht nur generell Frage, was beantwortet der Bot? Ja,
0: ,0: alles was worüber wir heute sprechen. Ja, Wissensdatenbank haben wir auch schon. Wenn
0: ,0: man wenn man die Aufnahmen nicht hat, weiß man ja auch nicht, müsste man einen Reverse Touring Test
0: ,0: machen. War das ein Mensch, der da sitzt, aber das das ist was was interessanterweise viele
0: ,0: als extreme Herausforderung sehen oder als Blocker was aber gar nicht mehr da ist. Also
0: ,0: diese Dialektblocker ist nicht mehr da. Dasselbe Multilanguage, also diese Modelle sind die Modelle
0: ,0: sind in der Lage, die Sprache zu identifizieren, Text passiert in der Sprache zu antworten,
0: ,0: aber auch die Stimmen, die dahinter sind, sind mittlerweile ist da Großportfolio an
0: ,0: neuralen Stimmen, die multilingual sind, also die Deutsch, Englisch, Französisch
0: ,0: oder sonst was in einer Stimme antworten können. Prinzipiell da im in den Services.
0: ,0: Vielen Dank, dass ihr heute dabei wart in meinem ersten Gespräch mit Andreas Aschauer von Microsoft
0: ,0: Österreich zum Thema Demystify AI. In der nächsten Folge wird's vor allem darum gehen,
0: ,0: wie sich AI in der Zukunft im Business Umfeld weiterentwickelt und welche
0: ,0: Skillset man dafür braucht. Bis dahin bleibt gern dabei auf corolate.com oder überall da,
0: ,0: wo es Podcasts gibt und nicht vergessen, immer neugierig bleiben. เฮ
Neuer Kommentar