akarb - Fotolia

Microsoft Azure mit Integrierter künstlicher Intelligenz

Microsoft Azure kann per Cortana Intelligence Suite Geschäftsprozesse umwandeln. Allerdings ist Fachwissen erforderlich, um die Services zu konfigurieren.

Dieser Artikel behandelt

BA

Seit mehreren Jahren wissen Benutzer, dass die traditionelle Backend-Technologie von Microsoft, SQL Server, kein wirklicher SQL-Cloud-Service ist, obwohl Microsoft für seine Cloud-First-Strategie wirbt. Für diejenigen, die es gewohnt sind, SQL Server für Analytics einzusetzen, ist die jüngste Welle von Cloud-Analytics-Services wohl überraschend.

Bereits im Herbst 2016 kündigte Microsoft eine Version von Azure an, deren Architektur so konzipiert ist, das Entwickler Anwendungen darauf aufbauen können. Die Azure-Cloud ist laut Microsoft CEO Satya Nadella bereit dazu, der erste Supercomputer mit künstlicher Intelligenz (KI) zu werden.

Das bedeutet, dass die Cloud-Verarbeitungsleistung von Microsoft Azure nicht mehr nur auf einer traditionellen CPU-Architektur basiert, sondern auch auf Grafikprozessoren (GPUs). Massen von GPUs verarbeiten Aufgaben parallel, anstatt einzelne Maschinen mit schnelleren CPUs zu verwenden, was immer schwieriger wird.

Die integrierte künstliche Intelligenz kann für eine Vielzahl neuer Aufgaben verwendet werden. Diese Art von Effizienz und Kontextwissen kann Aufgaben nicht nur durch die Nachahmung menschlicher Prozesse, sondern auch ohne manuelle, zeitaufwendige Arbeiten erledigen.

Gleichzeitig ist KI aber noch in der Entwicklung und nicht reif. Es gibt zwar vielversprechende Ansätze, aber auch Beispiele, wo intelligente Systeme scheitern. Ein Beispiel ist Tay. Der Chatbot von Microsoft war dazu gedacht, aus Gespräche unter Jugendlichen zu lernen und diese nachzuahmen. Innerhalb von 24 Stunden wurde Tay wieder heruntergefahren, nachdem er anfing, rassistische und unangemessene Kommentare auszugeben, die er via Twitter von der Netzgemeinde erlernt hatte.

Der intelligente persönliche Assistent ist ein guter Administrator

Microsoft Cortana wurde als eine Art Super-Siri aus der Taufe gehoben und ist als intelligenter persönlicher Assistent gedacht, der die KI-Funktionalitäten innerhalb der Azure-Cloud nutzen soll, um die persönliche Produktivität zu steigern.

Cortana (benannt nach einem Charakter im Videospiel Halo) ist eingebettet in Produkte wie die Edge-Suchmaschine und bietet zum Beispiel erweiterte Antworten auf Anfragen wie „Kauf mir ein Kinoticket“ oder „Reserviere mit einen Tisch in Restaurant XYZ“ und entdeckt für einen Nutzer, welche Geschäfte bestimmte Produkte verkaufen und zeigt sie auf einer Karte an. Diese Aufgaben greifen auf Cortanas Metadaten-Verarbeitungsfunktionen zurück.

Cortana verfügt außerdem über natürliche Sprachverarbeitung (Natural Language Processing, NLP) und semantische Suchfunktionen, die mit der Metadaten-Funktion kombiniert werden, um einen sinnvollen Kontext in Eingaben einzubetten. Diese nativen, KI-basierten Anwendungen umfassen ebenfalls neuen Daten-Management-Produkte.

Allerdings ist auch Vorsicht angebracht: Das Problem mit dieser Art von stimmenbasierter Produktivitätserweiterung ist, dass es den Benutzer dazu verleitet, unpräzise und ohne Voraussicht zu agieren. Stimmenbasierte Abfragen sollten aber das Gegenteil erreichen, so dass Anwender bei Ad-hoc-Abfragen genauer und vorsichtiger sein müssen.

Azure Data Lake

Da die Cloud-Plattform Analytics und Big-Data-Management-Funktionen zu niedrigen Kosten einbettet, beginnt nun der Wettbewerb darum, passende Ressourcen für die Nutzung dieser Analytik-Funktionen zu entwickeln. Traditionell stellt dies selbst einfallsreiche Unternehmen vor große Herausforderungen.

Das Management von Big Data ist hart genug, vor allem mit Blick auf die Infrastruktur, da Organisationen mit unterschiedlichen Quellen und Schemata arbeiten müssen, während sie gleichzeitig mit inkonsistenten Datenstrukturen und der Vollständigkeit von Datensätzen kämpfen. Das alles macht den Prozess kostenaufwendig.

Azure Data Lake löst dieses Problem durch die Bereitstellung eines Repository für die Schemata einer Organisation aus jeder Datenquelle und für jeden Datentyp. Diese Zentralisierung stellt eine wesentliche Plattform für den Umgang mit Big Data im Allgemeinen und Analytik im Besonderen zur Verfügung, was die Kosten senkt und eine intelligente, automatisierte Konfiguration von Quellen für die komplexe Verarbeitung über Hadoop oder andere erweiterte analytische Ressourcen ermöglicht. Es kann sogar ein erster Prozessschritt für die Erstellung eines Data Warehouses sein, was die Kosten für ein Unternehmen zusätzlich senkt.

Data Lake Analytics

Ein weiteres Plus für Data Lake ist, dass Analytics als On-Demand-Service in Azure angeboten und pro Job und nicht über ein Abonnement abgerechnet wird. Das senkt die Kosten für die Bearbeitung von Big Data zusätzlich. Zudem lässt sich der Kostenaufwand über die dynamische Skalierung des Services steuern: Dieser wählt die Ressourcen selbst aus, die er während der Ausführung benötigt, so dass man nur für die verarbeitete Verarbeitungsleistung bezahlt.

U-SQL ist für den Einsatz mit dem Service verfügbar, bietet deklarative Sprachdienstprogramme mit den Nuancen von C#, was eine verteilte Laufzeitverarbeitung erlaubt. Der Service ist integriert in Visual Studio, um die Debugging-Effizienz zu steigern und arbeitet zusätzlich zu Data Lake mit den meisten Azure-Datenquellen zusammen, einschließlich SQL- und Blob-Storage.

Der Vorteil des Service tritt deutlich zu Tage, allerdings sollte er vernünftig verwendet werden: Das Staging von Daten für Analytics ist aus ökonomischer Sicht ein riesiges Plus. Um aber immer das Beste aus ihnen herauszuholen, benötigt man internes Know-how und ein Verständnis für die angewandte Analytik auf Codeebene. Azure Data Lake sollte nicht als eine Microsoft-Version von IBM Watson oder Salesforce Einstein betrachtet werden.

Azure Data Catalog

Ursprünglich mit Power BI eingeführt, ist Azure Data Catalog ein Service, der es Benutzern ermöglicht, die benötigten Datenquellen zu entdecken und zu verstehen. Dies löst das Problem, dass die gleiche Datenquelle immer wieder für verschiedene Anwendungen registriert werden muss. Mit Azure ist Data Catalog unternehmensweit verfügbar und die Cloud schafft eine dynamische Verbindung zu den Datenquellen. Funktionell ähnelt es SQL Server Management Studio. Allerdings ist es dynamischer, leichter zu bedienen und stärker konsolidiert: Azure Data Catalog ist ein Discovery-Tool, das Datenquellen demokratisiert.

Ein Publish/Discover/Annotate-Modell registriert und aktualisiert Quellen im Katalog. Über die Entdeckungsfunktion lernt man, ob bestimmte Daten im Unternehmen existieren und wo sie zu finden sind.

Metadaten werden zu Datenquellen per Anmerkungsfunktionen hinzugefügt, die die Konfiguration von Benachrichtigungen für einen bestimmten Dateneinsatz sowie für Gruppen-Tagging ermöglicht, so dass verschiedene Gruppen Datenquellen für den eigenen Gebrauch optimieren können, ohne jemanden zu stören. Im Wesentlichen handelt es sich um einen Mechanismus zum Abbau von Datensilos.

Offene APIs stehen für Entdeckungen und Anmerkungen bereit, wobei die Integration von Azure Active Directory erforderlich ist, um die Datenquellen des Katalogs abzusichern. Pro Azure-Abonnement steht ein Datenkatalog zur Verfügung.

Azure Data Factory

Azure bietet mittlerweile auch eine verbesserte Datenbewegung über einen erweiterten Nachfolger des SQL Server Integration Service (SSIS) an. Wie SSIS automatisiert Azure Data Factory den Transport und die Umwandlung von Daten zwischen Quellen, indem das Tool Daten-Pipelines zwischen veröffentlichten Quellen und Verbrauchspunkten erstellt.

Data Factory verbessert die traditionellen Transportmethoden und die Umwandlung von Daten durch die Veränderung der Datenbewegung in ein geschäftsorientiertes Framework, indem es Geschäftsaufgaben in logische Datenaktivitätsgruppen ordnet und Pipelines für diese logischen Gruppierungen erstellt. Innerhalb der Pipelines erfolgt die Datenumwandlung, einschließlich Datenvalidierung sowie die Ausführung von gespeicherten Prozeduren und komplexen Aktivitäten wie Hadoop-Streaming, maschinelle Lernprozesse und Data Lake Analytics.

Während diese Methode dazu dient, IT-Prozessen an den geschäftlichen Zielen auszurichten, ist ein weiteres Ziel, ein Umdenken zu erzwingen, wie genau Datenaktivitäten aus betriebswirtschaftlicher Sicht gruppiert sein müssen. Das ist leichter gesagt als getan, da es einen umfangreichen Abbau von Datensilos und eine umständliche Unterbringung von Legacy-Systemen erfordert. Es ist allerdings unvermeidlich, wenn Data Factory einen echten Nutzen bringen soll.

Schließlich gibt es Linked-Services, die Data-Factory-Prozesse über Cloud-Operationen hinweg integrieren, die Data Stores für externe Prozesse repräsentieren, und die vorhandenen externen Rechenressourcen spezifizieren.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Anwendungen mit dem Microsoft Azure App Service modernisieren.

Microsoft Build 2016: Smarte Anwendungen mit der Cortana Intelligence Suite entwickeln.

Microsoft Azure Data Lake Analytics bekommt Schub durch neue SQL-Variante U-SQL.

Artikel wurde zuletzt im August 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Business Analytics

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close