Demystify AI Teil 1: AI & Dynamics: Mythen, Realität und Zukunft

Shownotes

Weitere Infos zum Projekt gibt's hier: https://www.gorelate.com/referenzen/podcasts/ Fragen, Anmerkungen, Kritik? Wir freuen uns auf alle Nachrichten an podcast@gorelate.com

Transkript anzeigen

0: ,0: Wie verändert AI die Art, wie Unternehmen heute  Prozesse denken und wie unterstützt Microsoft

0: ,0: sie dabei, diese in die Praxis umzusetzen? Über  das und mehr darf ich heute mit Andi Aschauer

0: ,0: von Microsoft Österreich sprechen. Grüß euch und  herzlich willkommen aus Wien zu Insides on Air,

0: ,0: dem Podcast über AI, Cloud Innovation und  digitalen Fortschritt. Servus Andi, schön,

0: ,0: dass du heute dabei bist. Freue mich sehr.  Hallo Nico, danke für die Einladung. Ich

0: ,0: freue mich auch, dass ich dabei sein darf heute.  Jetzt habe ich dich schon so schön anmoderiert,

0: ,0: nachdem sich bei der Microsoft ja eure sag  mal bezeichn Unternehmensrollen jedes Jahr

0: ,0: ein bisschen verändern, muss ich zugeben. Ich  habe es mir jetzt nicht gemerkt, wie deine

0: ,0: aktuelle Bezeichnung ist. Darf dich einladen,  dich kurz offiziell noch mal vorzustellen?

0: ,0: gerne meine aktuelle Bezeichnung hier  extra auch noch aufgeschrieben, meine

0: ,0: aktuelle Rollenbezeichnung ist der Senior Solution  Engineer für Low Code. Bei uns im Lösungsbereich

0: ,0: umfasst das den technischen Presales für die  Enterpriseekunden für die Bereiche Microsoft

0: ,0: Power Plattform, also Lowcode Entwicklung und  die Entigge Themen, die damit kommen. Super. Ja,

0: ,0: danke. Vielleicht magst du kurz drauf eingehen,  das Thema AI, wie dich das jetzt aktuell oder

0: ,0: wie sich, sag ich mal, deine Rolle verändert hat,  seitdem das Password AI oder Microsoft voll auf

0: ,0: AI setzt, seit der ja, seitdem die Partnerschaft  auch mit Open AI offiziell gelauncht wurde. Hat

0: ,0: sich einiges getan bei euch. Wie hat sich  das persönlich auf der Rolle ausgewirkt?

0: ,0: Also auf jeden Fall seit AI ein Mainstream  Thema geworden ist, hat sich meine Rolle

0: ,0: und die Rolle meiner Kollegen in den in den  Bereichen, die sich mit der Art und Weise,

0: ,0: wie Unternehmen Software entwickeln, befasst,  dahingehend geändert, dass wir im Vergleich zu,

0: ,0: wo wir vorher vielleicht sehr statisch gedacht  haben, Prozesse, Workflow Automatisierungen jetzt

0: ,0: im Tag täglich en Arbeiten, ich sag mal zu 70 /  80% uns befassen mit Agent Lösungen, das heißt mit

0: ,0: Lösungen, wo wir nicht unbedingt mehr statische  statischen Code oder statische Designs oder wie

0: ,0: auch immer entwickeln, sondern wo wir diese Arbeit  eigentlich an ein Large Language Model, das heißt

0: ,0: mit den Methoden der generativen KI delegieren und  generieren lassen. Also, das hat sich sehr, sehr

0: ,0: stark geändert. Die Rolle hat sich in den letzten  eineinhalb Jahren extrem stark in Richtung einer

0: ,0: zentralen Rolle für Agentic AI geändert. Ja, jetzt  jetzt kenne ich dich schon bisschen länger. Jetzt

0: ,0: weiß, du bist ja ursprünglich, also du bist ja  Techniker oder du kommst ja hast ein technischen

0: ,0: Background, kommst ja ursprünglich aus der aus dem  Programmieren, aus dem weniger aus dem Low Code,

0: ,0: eher aus dem Pro Code Bereich oder? Genau, das war  auch der Grund, warum ich in diese Rolle gegangen

0: ,0: bin. Das heißt, ich komme eigentlich original  von meiner von meiner Ausbildung her habe ich

0: ,0: damals hat's geheißen Information Engineering, das  heißt im Zweig Software Engineering Information

0: ,0: Engineering studiert. Das war damals das,  was man unter dem Vertiefungsfach Artificial

0: ,0: Intelligence verstanden hat. Sehr sehr basic  damals noch. Das heiß haben uns mit Konzepten

0: ,0: und Algorithmen und Möglichkeiten befasst mit den  Themen, die jetzt eigentlich Commodities sind,

0: ,0: an die man gar nicht mehr denkt, wenn man  an AI denkt. Und komm eigentlich dann auch

0: ,0: von meinem beruflichen Werdegang aus der  klassischen Softwareentwicklung. Das heißt,

0: ,0: ich habe bei einem deutschen Telekomkonzern ganz  klassisch auf dem .NET Framework entwickelt.

0: ,0: Funknetzsimulatoren entwickelt für das GSM und  UMTS Netzwerk. Habe bei einigen Konzernen dann

0: ,0: als Consultant auch in dem Bereich gearbeitet,  das heißt wirklich klassische ASB.net Entwicklung.

0: ,0: Dann kam SharePoint und ich wurde SharePoint  Consultant, nicht ganz freiwillig, aber ist so

0: ,0: passiert und dann Trainer und irgendwann hat  es mich dann auch wirklich zum Hersteller zu

0: ,0: Microsoft verschlagen. Auch nicht gleich in den  BizOps-Bereich. Ich war zuständig für Microsoft

0: ,0: Project und Project Server. Spannende Zeit -  gibt's jetzt in dieser Form nicht mehr, also ist

0: ,0: in andere Produkte reingewandert und aus diesem  Hintergrund heraus bin ich dann auch in die Rolle

0: ,0: des Solution Engineer für Lowcode gegangen, weil  natürlich das Verständnis wie Software entwickelt

0: ,0: werden muss, was Software Architekturen sind,  Architekturkomponenten, was da gut funktioniert,

0: ,0: schlecht auf was man achten muss, ganz wichtig  ist auch in diesem Bereich Lowcode-Entwicklung,

0: ,0: weil Lowcode heißt jetzt nicht, dass ich da  einfach bunt drauf losklicke. Ja, ist möglich.

0: ,0: Aber Lowcode ist im Jahr 2026, indem wir uns  befinden, Enterprise, das heißt, das was wir

0: ,0: im Lowcode Umfeld in dem Fall sehen, ist die  Zukunft der Softwareentwicklung gemeinsam mit

0: ,0: den Methoden der künstlichen Intelligenz, die da  ganz stark jetzt reinkommen. Ja, ist auch das, was

0: ,0: wir also aus der Partnersicht sehr stark sehen,  geht auch immer mehr dahin. Citizen Development,

0: ,0: wie kann ich einen Kunden dahin bringen, dass  er selbständig Dinge umsetzt, ohne immer einen

0: ,0: Programmierer zu brauchen? Wartbarkeit aus aus  vorigen, ja, Firmen, wo ich arbeiten durfte,

0: ,0: habe ich gemerkt gerade, dass gerade im Procode  Bereich Fluktuation ein riesen Thema ist. Also,

0: ,0: wenn der ist, der es gebaut hat und man nur  mehr begrenzten Zugriff hat auf die Person,

0: ,0: wird's oft schwierig, das nachzuvollziehen und  manchmal baut man dann sogar ganz neu, ne? So,

0: ,0: jetzt hast du schon gesagt, AI Thema ist für dich  schon bisschen länger. Hat dich quasi auch schon

0: ,0: in deiner in deiner Ausbildung begleitet. Ich habe  es auf der Uni auch schon bisschen eher Richtung

0: ,0: Machine Learning, AI war eher noch so sehr weit  weg, kennengelernt. Jetzt ist die Frage für mich

0: ,0: war dann so ein bisschen der Big Bang ChatGPT auf  irgendeiner privaten Feier kann mich gut erinnern

0: ,0: irgendwann ist Frau zu mir gekommen, ah, hast du  das schon gesehen und da kann man mit AI chatten

0: ,0: und so weiter und dann ist es bum gegangen und  so schnell konnten man gar nicht schauen. Hat

0: ,0: je jeder nur mehr über ChatGPT gesprochen. Ja, AI  ist mehr als ChatGPT und wir merken aber trotzdem,

0: ,0: dass gerade auch im Businessbereich viele  Unternehmen starten mit AI und denken drüber

0: ,0: nach AI umzusetzen im Business Kontext. Oft sind  sie zurückhaltend aus Gründen der Compliance und

0: ,0: so weiter dabei, verwenden 95% der Mitarbeiter eh  ChatGPT und sie kriegen gar nichts davon mit. Ja,

0: ,0: das das ist ein riesen Thema. Jetzt würde mich  interessieren, wenn du über AI sprichst und ich

0: ,0: bin jetzt, sag ich mal, bin auf dieser Feier,  kenne jetzt ChatGPT, aber kenne sonst nichts.

0: ,0: Wie würdest du jemanden als Nichttechniker das  Thema AI erklären? Ich denk vielleicht vorher

0: ,0: bevor man so generelle Erklärung anfragen ist  vielleicht da wichtig, dass man den Kontext gibt.

0: ,0: Das AI ist ja nichts nichts Neues. Ja, das ist die  Idee kommt aus den 50er Jahren irgendwo vom Alan

0: ,0: Turing - hat nie so richtig funktioniert. Und AI  hat eigentlich auch nichts mit Intelligenz zu tun.

0: ,0: Wir haben das AI Problem oder die Anwendbarkeit  eigentlich nur durch Rechenleistung gelöst,

0: ,0: eigentlich mit Brut force. So würde die mal  anfangen. Also das was wir jetzt kennen, das

0: ,0: ist ja eigentlich nur ein kleines Subset, nämlich  der Bereich Generative AI, der hat eigentlich das

0: ,0: Problem, dass eine künstliche Intelligenz, wenn  man so nennen will, gewisse Kreativität an den

0: ,0: Tag legt. Dadurch gelöst, dass wir einfach so  viel Rechenleistung reingesteckt haben und das

0: ,0: Modell mit so vielen Informationen gefüttert ist,  dass der die Ausgabe ja immer irgendwie eloquent

0: ,0: klingt. Und das ist auch was ich gern sage. Was  ist das was man jetzt, wenn man auf der Party sind

0: ,0: unter AI versteht? Dort werden 90% der Menschen,  die sich nicht damit befassen beruflich, darunter

0: ,0: eben Generative AI, ChatGPT und so weiter,  Copilot, verstehen. Was ist das? Im Endeffekt

0: ,0: ist es nichts anders als ein eine statistisches  System, das das nächste Wort vorhersagt. Ja,

0: ,0: aber halt so groß, dass es immer recht gut klingt.  Einer der großen Vorteile ist es kann auch extrem

0: ,0: eloquent lügen. Ja, einfach weil es so viele Worte  kennt, weil es mit so vielen Daten trainiert ist,

0: ,0: dass es dass diese Modelle halt immer irgendwas  vorhersagen können, egal wie sinnvoll oder wenig

0: ,0: sinnvoll es ist. Und das ist glaube ich auch  was auf das man hinweisen muss. Ja, also das

0: ,0: sind zwei Punkte, die immer gerne mitnehmen.  Das im Endeffekt haben die haben diese Dinge,

0: ,0: die wir als künstliche Intelligenz verstehen,  nicht wirklich was zu tun mit Intelligenz, ja,

0: ,0: sondern es ist einfach eine eine Vorhersage  und die ist halt einfach so gut mittlerweile,

0: ,0: weil sie einfach so viel Rechenleistung bekommt,  was s weil diese Modelle so groß sind, ne?

0: ,0: Es hat schon was wichtiges angesprochen Thema  Wissen. Wenn ich jetzt mit ChatGPT mich unterhalt,

0: ,0: greift das ja auf ein sehr breites Wissen zu. Im  Businessbereich ist das Ganze oft so, dass wir

0: ,0: auch als Partner oft merken, ja, ich meine ChatGPT  gibt's, wenn ich jetzt eine Businesslösung will,

0: ,0: quasi ist ja mehr oder weniger Plug and Play  oder ich brauche nur einen kleineres Stack,

0: ,0: brauche einen einen Business Case und dann kann  ich relativ schnell starten, weil AI ist ja

0: ,0: intelligent und macht dann. In der Praxis schaut's  oft ein bisschen anders aus. Wie wie ist da wie

0: ,0: ist da de Erfahrung, was die Erwartungshaltung  von Kunden angeht? Also, die Erwartungshaltung,

0: ,0: es ändert sich aktuell bisschen, aber bis bis  jetzt war das immer so klassisch. Wir brauchen

0: ,0: jetzt das und das Wort ist auch schon ein bisschen  ausgeleiert, das Enterprise GPT, Firmenname GPT.

0: ,0: Ohne jetzt viel darüber nachzudenken, die  Erwartungshaltung ist, man schreibt da

0: ,0: irgendwas rein und irgendwas kommt raus. Ja. Weil  man sie mit ChatGPT, mit Gemini, mit Copilot auch

0: ,0: so macht. Jetzt hast du einen wichtigen Punkt  angesprochen. Wenn ich jetzt öffentlich mit

0: ,0: ChatGPT spreche als Privatperson, dann kommen  die Informationen irgendwoher. Ist mir ziemlich

0: ,0: egal. Also, das Modell wurde, nehmen mal an, mit  allem trainiert, was es so an digitalen Wissen

0: ,0: gibt zu diesem Trainingszeitpunkt. Und dann gibt's  natürlich noch als als Datenbasis das die das die

0: ,0: Internet oder die die Websuchen generell, die ja  da auch mit einfließen und da kommt immer recht

0: ,0: gute Antwort raus und das das passt, weil da frage  ich halt nach Dingen, die mich interessieren.

0: ,0: Wenn ich natürlich im Unternehmenskontext bin  und sag, "Wer ist der beste Paketdienstleister?",

0: ,0: vielleicht als Kunde, dann will ich das Ganze  einschränken. Weil wir wissen, wenn ich beim

0: ,0: Paketdienstleister arbeite, wir sind der beste und  nicht den, den das Modell zufällig auswählt. Das

0: ,0: heißt, da ist schon mal die Herausforderung, dass  ich sag, was was ist denn wirklich gesichertes

0: ,0: Wissen? Gesichertes Wissen liegt wahrscheinlich  bei uns in den Systemen, nicht im Internet,

0: ,0: nicht im allgemeinen Wissen des Modells selber in  den Trainingsdaten, sondern wir wollen das diese

0: ,0: Antworten soweit einschränken, dass eigentlich  nur mehr aus unseren Wissensdatenbanken,

0: ,0: Artikeln, was auch immer antwortet. Da  kommt dann meistens die erste Ernüchterung

0: ,0: weil dieses Antworten aus internen Quellen, das  funktioniert nur genau so gut, wie die Suche ist,

0: ,0: die diese Inhalte durchsucht. Und wenn die  schlecht ist, dann ist die Antwort schlecht

0: ,0: oder herbeifantasiert, weil einfach keine Daten  verfügbar sind oder zu wenig verfügbar sind,

0: ,0: weil die Systeme dahinter einfach keine  sinnvollen Suchergebnisse liefern können. Ja,

0: ,0: also wenn ich sag, bitte gib mir den Prozess  für die Kundenanlage und das System dahinter

0: ,0: hat einfach keine ordentliche Suchtechnologie,  liefert irgendwelche Dokumente oder gar keine

0: ,0: oder zu wenig, dann kann das beste Large Language  Model auch keine gute Antwort mehr generieren.

0: ,0: Wenn nichts da ist, ist nichts da. Ja, es wird  zwar eine knappe Antwort generieren, die wir

0: ,0: auch gut klingen, aber da steht halt nichts drin,  ne? Mm. Ja, man kennt se gut. Also ich teilweise,

0: ,0: wenn du mit ChatGPT dich unterhältst, brauchst  du ja oft mehrere Prompts hintereinander, bis

0: ,0: der wirklich weiß, was du willst und dann auch das  ausgibt, was du brauchst. Jetzt hast du eh schon,

0: ,0: also prompt Thema habe ich habe ich jetzt oder  das Passwort habe ich jetzt schon aufgegriffen.

0: ,0: Zwei Themen im Wesentlichen oder wenn du sagst  als Firma, ich möchte mich dem Thema annäheren,

0: ,0: ich möchte den ersten US Case umsetzen, ist ein  mal Thema 1, was will ich und woher kommt oder

0: ,0: Thema Wissensmanagement, weil wir haben z.B. auch  als in der Partnerrolle oft das Thema, dass ich

0: ,0: dem Kunden erklären muss, pass auf, da ist schon  ein Projekt dahinter. Wir müssen gemeinsam in der

0: ,0: Projektsituation gehen, Anforderungen definieren,  umsetzen, testen, sehr viel Testmanagement

0: ,0: betreiben, bis wir dorthinkommen, wo wir hin  wollen, weil eben die Fehlermarche bei AI es zu

0: ,0: minimieren gilt auf Basis klar zu definieren,  was ich haben will und woher kommt, oder?

0: ,0: Ja, genau. Und was ich als zwei sehr  kritische Punkte sehe: es es gibt zwei so,

0: ,0: also mir kommen in den Anforderungen immer zwei  so so Themengebiete unter. Die erste Annahme ist,

0: ,0: wir haben eine eine Riesenhaufen an Informationen,  schlecht strukturiert. Da kübeln wir jetzt,

0: ,0: also da stecken wir ein Large Language Model  drauf und dann können wir super damit reden.

0: ,0: Die erste Fehlannahme, kommt meistens die erste  Ernüchterung. Strukturieren von Informationen

0: ,0: wird mir nicht erspart bleiben, ne? Das heißt,  so wie ich sagte, je besser das Suchergebnis,

0: ,0: desto besser die Antwort. Und das zweite ist die  Annahme. Und das haben wir auch recht oft. Jetzt

0: ,0: sind die Ergebnisse nicht gut genug. Jetzt gehen  wir einfach aufs nächst neuere oder noch größere

0: ,0: Modell. Da wird's dann sicher besser oder wir  setzen Modelle in die die reasoning-fähig sind,

0: ,0: also die ihre Schritte selbst reflektieren und  dann wird's besser. Die zweite Fehlannahme, weil

0: ,0: da ist wirklich der Hebel dann in oder die Kunst,  es ist eigentlich meine Kunst, die Modelle richtig

0: ,0: zu prompten, nicht einfach nur aufs größere  schalten und noch offener und kreativer zu werden,

0: ,0: sondern zu sagen, gut, das ist vielleicht ein GPT  41 Minimodell, aber wenn man das richtig promptet,

0: ,0: ist es mittlerweile schnell günstig und  liefert gute Ergebnisse. Bevor ich jetzt

0: ,0: darauf schalte bis 5.1 Reasoning und weiß Gott  weiß noch alles. Wenn ich dir folge, heißt das

0: ,0: nicht für mich als Kunde, ich muss immer zuerst  meine gesamten Daten strukturieren, überarbeiten,

0: ,0: Datenqualität sichern, bevor ich überhaupt mit  irgendwas starten kann oder? Ja, also wir sehen

0: ,0: es auch in vielen Projekten. Jetzt ist bei bei  Unternehmen jetzt kommt wieder dieser Moment,

0: ,0: es gab mal so diese mit dem Microsoft Ökosystem  diese Phase, wo Microsoft SharePoint eingeführt

0: ,0: wurde in vielen Unternehmen und FileShare  abgelöst wurden. Damit kam eine Enterprise

0: ,0: Suche und damit kam oft die Erkenntnis, wir finden  nichts oder ui, die Leute finden zu viel. So,

0: ,0: dann ist das in vielen Fällen nachgezogen worden  oder auch nicht. Und eigentlich dasselbe passiert

0: ,0: jetzt wieder. Es werden wieder große große  Repositories, SharePoint, SQL Server, AI Search

0: ,0: Instanzen. Suchindizes jetzt ist angebunden. Und  es passieren zwei Dinge. Entweder die Ergebnisse

0: ,0: sind unbefriedigend oder auf einmal bekommen da  Antworten mit Daten raus, die die Leute gar nicht

0: ,0: sehen sollten. Also das die die Grundlagenarbeit  Daten in sinnvollen Suchindizes zu halten, bleibt

0: ,0: dann nicht erspart. Es ist natürlich im Microsoft  365 Ökosystem haben wir mit mit dem, was wir jetzt

0: ,0: als Work IQ bezeichnen schon so eine Basisschicht.  Das heißt alles, was da drinnen ist an Information

0: ,0: von Teams, E-Mail und so weiter, ist natürlich  immer in meiner Unternehmensidentität im positiven

0: ,0: gefangen. Und ich kann über meine Inhalte reden,  aber wenn ich jetzt irgendwo ganz anders hingehe,

0: ,0: ich sage jetzt Hausnummer technische Dokumentation  und die in einem eigenen Suchindex erfasse, dann

0: ,0: muss ich diese Arbeit halt tun, weil sonst wird's  einfach nie so gut werden oder zu viel werden oder

0: ,0: zu wenig. Mm. Jetzt haben wir schon viel übers  übers über die Datenbase gesprochen. Du hast jetzt

0: ,0: was Interessantes noch angesprochen ist das Thema  Security Sicherheitsrollen. Man kriegt zu viel

0: ,0: raus, was ich eigentlich gar nicht sehen darf aus  technischer Sicht jetzt, wenn dich jemand fragt,

0: ,0: ah, wir haben da als Kunde die Befürchtung,  wenn wir jetzt Copilot implementieren bei

0: ,0: uns im Unternehmen, wie nimmst du einem Kunden die  Befürchtung oder was für Grundlagenarbeit muss man

0: ,0: machen, um eben sicherzustellen, dass genau das  nicht passiert? Also, ich denke gerade gerade, das

0: ,0: wird oft übersehen, weil es wird immer verglichen.  Ich sage jetzt irgendwas, Copilot versus Copilot

0: ,0: liefert nicht so tolle Antworten wie ChatGPT,  aber da werden Äpfel mit Birnen verglichen. Ja,

0: ,0: weil das eine ist vollkommen, also im meisten  Fällen im Consumer Fall vollkommen offen,

0: ,0: vollkommen ungesichert, geht einfach irgendwohin.  Ist ja für ein Consumer auch okay. das andere

0: ,0: berücksichtigt über viele viele Ebenen  Sicherheitskonzepte etc. wo wir hingehen und

0: ,0: in meinem Fall in meiner spezifischen Rolle ist es  so, dass wir meistens bei Prozessen an AI Themen

0: ,0: kommen. Das heißt, nicht unbedingt bei Themen, wo  es drum geht, ich will meine E-Mails und Dokumente

0: ,0: durchsuchbar machen. So, diese klassischen  Microsoft Copilot Themen, das machen meine

0: ,0: Kollegen, sondern wir wollen einen spezifischen  Prozess von einem oder von einem Multiagent System

0: ,0: durchführen lassen mit Wissen, mit Aktionen und  und ja und und da können wir eigentlich, wenn

0: ,0: solche Befürchtungen kommen, zum Glück in unserem  Fall sehr gut verweisen auf das auf dem Copilot,

0: ,0: die Powerplattform, auf dem dieser ganze Stack  aufbaut, nachdem das ein technischer Stack ist.

0: ,0: baut es auch auf allen Security Lösungen  auf, die die meisten Unternehmen schon im

0: ,0: Einsatz haben. Das heiß unsere Perview Produkte  für die Compliance, Defender und so weiter.

0: ,0: Und da kann man eigentlich drauf verweisen, dass  ja die Methoden, die Plattformen da sind, entweder

0: ,0: sind sie schon im Unternehmen oder existieren,  um da auch wirklich im im Vorhinein zu arbeiten,

0: ,0: zu sagen, welche Modelle erlaube ich, welche  Datenquellen erlaube ich und und das im Governance

0: ,0: Sinn, aber auch proaktiv, also in Echtzeit  zu Prompt Injections zu blockieren oder auch

0: ,0: dann im Nachgang nachzuvollziehen, wer hat was  durchgeführt, wer hat was gesehen etc. Also denk

0: ,0: das ganzer ganzer wichtiger Punkt in dem Portfolio  und das unterscheidet diese Unternehmens Lösungen

0: ,0: auch ganz klar von dem was wir als Consumer  geworden sind. Also als Consumer von ChatGPT

0: ,0: oder sonst was, wo das ganze anders funktioniert.  Wo natürlich auch gewisse Regeln drin stecken,

0: ,0: aber natürlich viel, viel weniger und viel,  viel offener ist jetzt im Unternehmenskontext,

0: ,0: wo wirklich aufpassen muss, wo zig Ebenen von  AI-Filtern, von Prompt-Injection-Filtern stecken

0: ,0: etc. Es ist auch interessant, wenn wir die Frage  bekommen, immer Einstieg in AI im Unternehmen

0: ,0: muss eigentlich immer heißen, AI gibt's ja schon  in eurem Unternehmen, ihr kriegt es noch nicht

0: ,0: mit. Und jetzt müssen wir es dahin holen, wo  ihr es mitkriegt, in die Prozesse eingelagert,

0: ,0: in die Lösungen eingelagert und da spielt eben  in unserem Fall Power Platform, Azure, Dynamic

0: ,0: Business Applications eine große Rolle. Kannst  du vielleicht einmal kurz noch mal aufklären,

0: ,0: wie und wo in den unterschiedlichen Lösungen ihr  jetzt wie AI reingebracht habt und welche Rolle es

0: ,0: jetzt aktuell quasi in den Produkten spielt. Also,  das ist ja ganz interessant, wenn man sich das

0: ,0: jetzt mental so als Bild vorstellt - das Microsoft  Portfolio ist halt gewaltig groß, aber man kann

0: ,0: sich so in drei, vier Säulen vorstellen. gibt's  diese ganzen Bereich, der sich um Produktivität

0: ,0: kümmert. Das heißt Microsoft 365 mit allem, was  da dazu gehört, SharePoint und Teams, dieses

0: ,0: die ganze Produktivitätsschiene, wo wo es eher um  um den Mitarbeitenden geht, produktiv zu werden,

0: ,0: ne? Dann gibt's die schiene Business Applications,  wo es Prozess nahe reingeht. Da geht's weniger um

0: ,0: die einzelne Person und ums Kollaborieren,  sondern um das Umsetzens spezifischer

0: ,0: Geschäftsprozesse und dann natürlich der große  Bereich Procode Entwicklung, das heißt alles,

0: ,0: was Azure AI Foundry etc. ist, plus Security dann  als vierten Bereich. Das ist ganz spannend, weil

0: ,0: dieser mittlere Bereich Business Applications,  wo Dynamics, Power Platform und so weiter drinnen

0: ,0: liegt, der nimmt in diesem Gesamtspiel , jetzt  Agentic AI, eine immer zentralere Rolle ein, weil

0: ,0: die Plattformen in dem Fall die Power Platform  und alles, was da so rum schwebt der zentrale

0: ,0: Orchestrator für diese Lösungen werden. Das heißt,  auf der einen Seite habe ich diese Oberfläche,

0: ,0: mit der ich arbeite, den Microsoft Copilot, auf  der anderen Seite habe ich die Power Platform,

0: ,0: wo ich sage, ich bringe jetzt meine Agenten in den  in diese Oberfläche. Der Lieferantenprüfungsagent,

0: ,0: der den Prozess "Lieferantenprüfung" umsetzt,  durchführt, überwacht, bedient über Copilot

0: ,0: und der vielleicht aber in die andere Seite  greift und wenn man da runtergehen und sagt,

0: ,0: um das durchzuführen, habe ich auch programmierte  Agenten, also wirklich professionell entwickelte

0: ,0: Komponenten, Systeme, Integrationsschichten aus  dem Azure Bereich und diese Plattform in der

0: ,0: Mitte bringt es eigentlich als Orchestrator  alles zusammen. Also die nimmt eine immer

0: ,0: zentralere Rolle ein, in diesem in diesem Agentic  AI Spiel. Ja, spannend. Agent ist viel gefallen

0: ,0: und Agents. Ja, was sind Agents? Was wir oft  haben, ist das dem Copilot kenne ich. Copilot

0: ,0: gibt's im Consumerbereich ja auch. Agent, was was  wie unterscheidet sich jetzt Agent zum Copiloten?

0: ,0: Was wir jetzt sehen ist die erste Welle der  Generative AI Us Cases, so ein bisschen,

0: ,0: noch nicht ganz, aber die flacht so ein bisschen  ab und das sind so die klassischen Microsoft

0: ,0: wird es Copilots nennen, also die Copiloten oder  im klassischen oder im generischen Kontext würde

0: ,0: man sagen so die klassischen Agents im Sinne von  Retrieve Augment generator. Also ich frage was,

0: ,0: das Ding geht mehr oder weniger intelligent  an eine Quelle und gibt mir eine Antwort

0: ,0: und bereitet die Antwort schön auf. Also so  diese klassischen Wissenssuchen, das ist das,

0: ,0: was Microsoft als Copiloten bezeichnet und das ist  das, ich sage mal, wo man jetzt schon relativ gut

0: ,0: einem Unternehmenskontext reinkommen. Steckt da  sehr viel Mehrwert drin? Es ist mal Schritt eins,

0: ,0: ist mal nett. Schritt eins. Ich habe jetzt auch  Agentic AI und Agents erwähnt und meines Erachtens

0: ,0: kommt der richtige Mehrwert jetzt daher, dass ich  sag, ich baue auf denselben Konzepten Agents auf.

0: ,0: Diese Agents, die brauchen jetzt nicht unbedingt  immer eine Chatinteraktion, sondern die bekommen

0: ,0: aus einem System Ereignis. Es kann ein eingehendes  E-Mail sein mit unstrukturierten Infos, E-Mail mit

0: ,0: Langtext. Ja, da steht der Kundenanfrage drinnen  und dann geht dieser Agent basierend auf seinem

0: ,0: Large Language Model ähnlich wie Workflow  los und sagt, was steht denn da drinnen? Gut,

0: ,0: das ist eine Anfrage zum Gastarif. Welches  Produkt hat da? steht da eine Kontennummer drin,

0: ,0: kann ich aus Systemen diese Informationen  anreichern, vielleicht eine sinnvolle Antwort

0: ,0: generieren oder eine sinnvolle Vorschlag für eine  Antwort generieren und dann einem Menschen zur

0: ,0: Prüfung zum finalen Senden vorlegen. Da kommen  wir ins Spiel, da kommt die gorelate ins Spiel,

0: ,0: da kommen lokale Energieanbieter ins Spiel und die  gorelate als Partner. Das sind so die Use Cases

0: ,0: wo ich sehe, wo der richtige Mehrwert drin  ist. Bei diesen bei den nicht unbedingt bei

0: ,0: der Wissensbeschaffung durch Menschen, sondern bei  dem Auslagern von solchen ja sinnlosen Prozessen,

0: ,0: also von dem Durchsuchen von Informationen,  von Zusammenfassen von Informationen und

0: ,0: eventuell im Auslösen von Aktionen basierend auf  den Infos von diesem Abnehmen der Arbeit, weil es

0: ,0: hat niemand im Unternehmen hat zu wenig Arbeit  mit irgendwelchen administrativen Tätigkeiten.

0: ,0: Gerade im Kontenservice, also an lesen von  E-Mails und sinnvolle Antworten verfassen,

0: ,0: das ist was man zu 90% auslagern kann. Da schaut  man drüber, sagt das passt, liebes lieber Agent,

0: ,0: oder da füge ich was ein noch und dann schicken  wir es raus. Und da da steckt für mich der

0: ,0: Schritt zwei eigentlich der größere Mehrwert  drinnen. Ja, sehe ich auch so. W was ja von

0: ,0: der Microsoft sehr viel kommt, wo wir auch immer  so ein bisschen abwarten, sind sehr viele Agents,

0: ,0: die out of the box entwickelt werden oder wo  Microsoft die nie zieht in Standard Business

0: ,0: Prozessen und dafür einen Agent baut. Genau. Ja  das ist richtig. Also, wenn man jetzt auf den

0: ,0: auf den M365 Copilot schaut, da gehen wir den Weg  man kann es so ein bisschen eigentlich als als

0: ,0: vier Schichten sehen. Der allgemeine Copilot,  mein Assistent , der man für ganz allgemeine

0: ,0: Aufgaben hilft vom E-Mail zusammenfassen  über schauen, was ist in meinem Kalender etc.

0: ,0: Und die die zweite Schicht out of the box agents.  Das heißt, da gibt's z.B. den Researcher, der mir

0: ,0: hilft wirklich fundierte Recherchen durchzuführen.  Den Analyst, der mir der mir wirklich analytische,

0: ,0: also analytische Arbeit mit Excel und so weiter  abnimmt und weitere. Das heißt, da schon einmal

0: ,0: spezifischer, dann eventuell noch spezifischer  eben das, was ich vorher als prozessspezifisch

0: ,0: meinte. Mm, ich baue in der Powerplattform mit  Copilot Studio den Agenten für meinen Prozess und

0: ,0: den publiziere ich in Copilot, Lieferantenprüfung  oder was auch immer und dann die vierte. Ja, das

0: ,0: waren nur drei Schichten - verzählt. Kein Problem.  Das vier ist ist für manche herausfordernd. Es ist

0: ,0: ja für Language Models schwierig zu rechnen.  Also passt. Ich meine das ist genau das,

0: ,0: was wir sehen und wenn wir jetzt drüber sprechen,  ist ja auch das der Punkt, wo wir dann ins Spiel

0: ,0: kommen, also mit den Kunden quasi zuerst mal  zu schauen, okay, was ist out of the Box da,

0: ,0: was bringt die Microsoft? Wie kann man Standard  Use Cases, Agents, die schon von Microsoft gibt,

0: ,0: möglichst ressourceneffizient umbauen? Weil  warum was Neues erfinden, wenn es schon was

0: ,0: gibt bzw. dann Agent zu entwickeln für wirklich  Kassenprozesse gerade im Servicebereich, du hast

0: ,0: angesprochen im Energiebereich im Serviceprozess  wo aktuell glaube ich kriegen wir zumindest das

0: ,0: Feedback was nicht wisst sehr sehr viel Druck  drauf ist Ressourcenknappheit sehr viel ja

0: ,0: Unmut möchte ich jetzt sagen, aber die Kunden sehr  auslasten sag ich mal den Customer Service und da

0: ,0: sind wir auch mit ersten Use Cases jetzt schon am  Kunden, die wir umgesetzt haben sehr erfolgreich.

0: ,0: Was sind den Use Cases oder Anfragen, wenn du im  Enterprise größere Kunden in Österreich betreust?

0: ,0: Was ihr häufig seht, wie bann sich das Ganze an?  Kommt der Kunde und möchte einfach mal wissen, was

0: ,0: geht bei der Microsoft oder wie wie bannt sich das  an? Also wie gesagt, der Bereich Kundenservice,

0: ,0: das immer so die Low hanging fruit, weil  da das kennt jeder auch als Privatperson.

0: ,0: Da gibt's zwei Dimensionen. Dieser furchtbare  Chatbot auf der Homepage, den man sofort abbricht

0: ,0: nach der zweiten Antwort, also die Dimension  nach außen, und die Dimension beim Unternehmen

0: ,0: nach innen für den den Kundenservice-Mitarbeiter  diese furchtbaren E-Mails, die da reinkommen, die

0: ,0: man beantworten muss. Gut übers erstere haben wir  geredet, das heißt E-Mail Antwortvorschlag Antwort

0: ,0: Zusammenfassung ist ein No Brainer. Ja, nach  außen. Dieselben Methoden kann ich natürlich auch

0: ,0: noch außen anwenden, um einen sinnvollen Chatbot  anzubieten. Da gibt's nur relativ wenig. Also,

0: ,0: glaub wir als Kunden kennen es alle. Chatbot Icon  hat immer noch so, also bei mir löst immer noch

0: ,0: so ein bisschen Reaktanz aus, weil es und es ist  technisch nicht nicht nötig, aber weil es immer

0: ,0: noch sehr sehr starr ist und meistens durch gute  Navigation eigentlich hätte man sich den Chatbot

0: ,0: sparen können. Also das ist der eine Bereich. Der  zweite, unabhängig vom Kundenservice, Bereich,

0: ,0: der so in nennen jetzt fast mal Do Opener ist,  also so wenn so ein klassisches Szenario ist,

0: ,0: Inspiration, was ist denn möglich? Was beschäftigt  jedes in dem für Großunternehmen? Das ist der

0: ,0: Dokumenteneingang. Das heißt, egal um was es  geht, das heißt Rechnungseingang, Mahneingang,

0: ,0: Bestellwesen, sonstige sonstige Dokumente,  die eingehen. Das ist immer so die klassische

0: ,0: low hanging fruit und da ist ein massiver Hebel  drinnen, also das extrahieren von Informationen,

0: ,0: strukturiert Extrahieren von Informationen  aus, ich nehme jetzt einmal Beispiel,

0: ,0: haben wir heute wieder gehabt Rechnungen von  2000 verschiedenen Lieferanten gehen ein,

0: ,0: die schauen alle anders aus. Da kann man  kein Modell drauf trainieren, das geht nicht,

0: ,0: sondern da nehme ich ein Large Language Model,  da baue ich mal ein Agent und da prompt ich seit,

0: ,0: dass ich sage, das ist deine Rechnung, ich brauche  diese Felder. Also, das ist da ist da der Hebel

0: ,0: ist da gewaltig. Das funktioniert meistens  sogar innerhalb einer halbstündigen Session,

0: ,0: dass das soweit sinnvoll funktioniert, dass  man es verwenden kann. Also das ist das ist ein

0: ,0: Klassiker, ein Prozessklassiker. Was auch immer  mehr kommt ist und das ist einfach auch die der

0: ,0: der Vorteil in dem Fall bei Microsoft von dem von  der gesamten Plattform vom Ökosystem ist, dass ich

0: ,0: meine eigenen Prozessagents dann wieder in die  klassischen Tools, die ich ja täglich verwende,

0: ,0: Word, Excel und so weiter einbaue. Und da hatten  wir letztens ganz spannendes Szenario. Auslöser

0: ,0: war wieder ein Prozess, wo Dokumente reingehen,  nämlich Bewerber. also E-Mailadresse oder sonst

0: ,0: irgendwas, wo halt Bewerbungsdokumente reinkommen,  also Langtext vielleicht ein Motivationsschreiben

0: ,0: und der CV und da quasi ein Agent, der mir das  analysiert, dann intern schaut, um was geht's da,

0: ,0: welche Skills hat die Person, auf welche offenen  Jobs wird's passen und dass man alles strukturiert

0: ,0: in Datenbanken ablegt und dann aber auch der  nächste Schritt, weil ich sag, wir haben das dann

0: ,0: im Copilot integriert, weil das ist möglich mein  eigener Agent ist im Copilot und nicht nur in den

0: ,0: Copilot, sondern der Copilot ist ja mittlerweile  in den Office Applikationen und der Mitarbeitende

0: ,0: wen in der Lage zu sagen, was auf zeig mir  also ich bereite mich auf das Interview vor:

0: ,0: "generier mir bitte passende Interviewfragen". Job  Applikation ist die Power Platform Architect: "das

0: ,0: ist der Bewerber" und dann ist es alles fertig  zusammengekommen in ein Worddokument, aus dem aus

0: ,0: dem Chat heraus. Und man hat den ganzen Interview  Leitfaden, man hat das komplette Dokument, kann

0: ,0: das erfassen und wieder zurückliefern. Also das  sind zwei so Szenarien. Das ist auch ein Use Case,

0: ,0: den wir wir mit dem Kunden umgesetzt haben,  witzigerweise beat AI with AI sozusagen,

0: ,0: weil die haben gemerkt, okay, Bewerbungen von  Stipendiatinnen in dem Fall wer auch in kürzer

0: ,0: Referenz dazu machen. Also ich kann da aus dem  Nähkästchen plaudern. Wo es darum gegangen ist,

0: ,0: jeder schreibt quasi sein Bewerbungsschreiben nur  noch mit AI und wir haben quasi auf Basis dessen

0: ,0: die Auswertung erleichtert und haben gesagt,  "okay, bitte filter mal alle Antworten raus,

0: ,0: wo du AI erkennst und nimm die mal weg und schreib  direkt eine begründete Absage.", wertschätzend

0: ,0: natürlich, aber dass wir quasi erkannt haben, dass  es sich hier um eine AI generierte Antwort handelt

0: ,0: und dass wir sie bitten würden noch einmal eine  authentische Antwort einzureichen bzw. Bewerbung.

0: ,0: Jetzt hast du schon gesagt, die Use Cases,  die ihr viel seht, deckt sich natürlich auch

0: ,0: mit unseren Use Cases, was ich spannend finde,  weil Chatbots ist auch was was immer wieder kommt,

0: ,0: aber natürlich ist Frustration da. Also, ich  kenne das bei mir. Ich möchte eigentlich immer

0: ,0: mit der Menschen reden. Jetzt ist man bisschen  frustriert, weil man kennt Chatbots und Voicebots

0: ,0: aus der Vergangenheit auch aus dem Navi, wo man  sich immer denkt, der versteht mich nicht. Ja,

0: ,0: hast du das Gefühl, dass man jetzt so ein bisschen  die Barriere durchbrechen muss bei den Kunden und

0: ,0: sagen: "Hey, jetzt ist aber Gamechanger da  und das ist jetzt besser als ihr es kennt?"

0: ,0: Ja, also da ist eigentlich ganz da ist  auch wieder mit den Large Language Models,

0: ,0: mit den multimodalen Modellen mittlerweile  Gamechanger. Das wir haben das selber auch

0: ,0: bei äh bei der Demoorbereitung da lokal Tests  gemacht, weil m du sagst, diese Voicots oder IVRs

0: ,0: oder was im Kundenservice, wo man 1 2 Drückt oder  ein Wort sagen kann, das ist sehr unbefriedigend.

0: ,0: Wir haben aber mittlerweile und das ist in unserem  Portfolio im Dynamic Customer Service Modul wird

0: ,0: das out of the Box kommen. Aber auch bei Copilot  Studio haben wir die Möglichkeit mit Realtime

0: ,0: Voice Modellen aus der GPT Familie, da extrem gute  Interaktionen zu schaffen. Also, wir haben den

0: ,0: Test gemacht mit einem Basismodell, das war GPT4  Realtime und haben da wirklich österreichische

0: ,0: Dialekte verwendet. Das heißt, wir haben jemanden  aus dem Montafone reinreden lassen, jemanden aus

0: ,0: Tirol, also verschiedene Dialekte und man hat  dann auch schön gesehen, die Transkription,

0: ,0: also die Texttranskription, die war komisch. Ja,  also es war schon Deutsch, aber komplett falsch

0: ,0: erkannt natürlich, weil der Dialekt doch vieles  wegnimmt. Das Modell war aber trotzdem in der Lage

0: ,0: äh zu erkennen, um was geht's. Also, es hat immer  wieder zurückgeführt auf denselben Intent in dem

0: ,0: Fall in Deutsch äh und hat dann sofort natürlich  Sprache geantwortet. Also, ich muss da ist wie

0: ,0: gesagt diese Voice Interaktion über die über die  Realtime Large Language Models, das ist wirklich

0: ,0: ein Gamechanger für diese natürlichsprachige  Interaktion. Und weil du von Dialekt gesprochen

0: ,0: hast, ist auch wahnsinnig spannend. Wie geht's ihr  mit dem Thema um? Weil es kommt viel auch bei uns.

0: ,0: Uns rufen Leute an aus Vorberg, ältere Leute,  die sie sprachlich ja nicht umstellen wollen,

0: ,0: wenn sie jetzt mit ein Chatbot reden. Wie  gesagt, also wir haben es ganz war genau das

0: ,0: konkrete Beispiel, wir haben es getestet mit mit  echten Personen sozusagen aus den Regionen aus

0: ,0: verschiedenen Dialekten Salzburg, Tirol, zweimal  Vorarlberg und die Ergebnisse waren, also es war

0: ,0: wirklich beeindruckend, weil da war genau die  Herausforderung, wir haben Regionen, wo einfach

0: ,0: sehr sehr isolierte Dialekte sind. Also es gibt,  ich weiß nicht, die gehen Salzburg im Lungau,

0: ,0: da reden 30.000 Leute oder so einen Dialekt oder  im Montafon, Vorarlberg. Also das ist was mit

0: ,0: diesen Modellen sehr viel besser wird. Hat er auf  größere Ebene oder auf brettere Ebene den Grund,

0: ,0: dass die Hersteller Microsoft und andere seit  einiger Zeit eine eine Initiative sozusagen im

0: ,0: Hintergrund gestartet haben, diese ganzen Dialekte  ja zu sammeln. Also das merkt man vielleicht,

0: ,0: wenn man von diesen von diesen Firmen wie  Data Annotation Angebote bekommt als als

0: ,0: Native Speaker sozusagen. Das steckt da  auch dahinter. Ja, ich frage deswegen,

0: ,0: weil wir gerade mit dem Kunden auch genau in  dem Thema drin sind, Voicepot Integration,

0: ,0: also Contact, die die neuere Lösung, sage ich mal,  auf Basis von Dynamic Customer Service und bei dem

0: ,0: Kunden geht's, also einerseits ist das Dialektik  Thema, ist ein riesen Thema, weil Österreich war

0: ,0: die Leute natürlich anrufen bei der Voiceboard  Einführung und das zweite Thema, was sie stark

0: ,0: haben, ist das Thema, also Voice Spot Stimme und  da gibt's ja unterschiedliche Default Stimmen im

0: ,0: Microsoft. Also in der Umgebung, aus denen  man wählen kann, Geschwindigkeit, Sprechart,

0: ,0: welche Voice will ich haben und was da auch eine  Frage war vom Kunden, was ich spannend finde,

0: ,0: die haben ein sehr prominenten ja Herausgeber,  Firmen Firmengründer, wenn man so will, ohne

0: ,0: dazu sehr ins Detail zu gehen und da Stimmsample  raufzuladen und quasi den Bot als diese Person

0: ,0: sprechen zu lassen. Wäre wahnsinnig lässig, weil  die Stimmen hat ein riesigen Wiederkennungswert.

0: ,0: Natürlich ist das was, was du in Ihrer Zukunft  auch siehst. Wie gesagt, also es sind zwei Teile,

0: ,0: die die Sprachservices in dem Fall die kommen  bei uns aus Azure aus den Speech Services in

0: ,0: Azure. Die haben eigentlich beide Möglichkeiten.  Also wie gesagt, das Dialektthema, wir haben es

0: ,0: ausprobiert, wir hatten denselben Anwendungsfall  oder Anfrage ist prinzipiell mit den neueren

0: ,0: Realtime Voice Modellen kein Thema mehr. Also, da  kann man wirklich sehr hart im Dialekt reinreden.

0: ,0: Die zweite eben diese Custom Voice. Das ist  ein Service, den gibt's ja einiger Zeit im

0: ,0: Portfolio. Das heiß, die kann Sprachsamples  da eingeben und dann wird mir diese neuronale

0: ,0: neurale Stimme generiert. Da muss ich relativ  wenig Sprachsamples eingeben. Dann so wie im Zug

0: ,0: hab ja die bekannte Stimme, ne? Andi Bot, mit dem  man sprechen kann? Ja, müssen wir vielleicht...

0: ,0: würde ich oft anrufen... müssen wir vielleicht  nur generell Frage, was beantwortet der Bot? Ja,

0: ,0: alles was worüber wir heute sprechen. Ja,  Wissensdatenbank haben wir auch schon. Wenn

0: ,0: man wenn man die Aufnahmen nicht hat, weiß man ja  auch nicht, müsste man einen Reverse Touring Test

0: ,0: machen. War das ein Mensch, der da sitzt, aber  das das ist was was interessanterweise viele

0: ,0: als extreme Herausforderung sehen oder als  Blocker was aber gar nicht mehr da ist. Also

0: ,0: diese Dialektblocker ist nicht mehr da. Dasselbe  Multilanguage, also diese Modelle sind die Modelle

0: ,0: sind in der Lage, die Sprache zu identifizieren,  Text passiert in der Sprache zu antworten,

0: ,0: aber auch die Stimmen, die dahinter sind,  sind mittlerweile ist da Großportfolio an

0: ,0: neuralen Stimmen, die multilingual sind,  also die Deutsch, Englisch, Französisch

0: ,0: oder sonst was in einer Stimme antworten  können. Prinzipiell da im in den Services.

0: ,0: Vielen Dank, dass ihr heute dabei wart in meinem  ersten Gespräch mit Andreas Aschauer von Microsoft

0: ,0: Österreich zum Thema Demystify AI. In der  nächsten Folge wird's vor allem darum gehen,

0: ,0: wie sich AI in der Zukunft im Business  Umfeld weiterentwickelt und welche

0: ,0: Skillset man dafür braucht. Bis dahin bleibt  gern dabei auf corolate.com oder überall da,

0: ,0: wo es Podcasts gibt und nicht  vergessen, immer neugierig bleiben. เฮ

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.