KI-Chatbots ziehen in Unternehmen schneller ein als man denkt

Künstliche Intelligenz ist bereits in vielen Geschäftsanwendungen verwurzelt - und wird bald tief in die Ökosysteme von Anwendungen integriert sein.

Das folgende Szenario ist nicht fiktiv, sondern durchaus realistisch: Angenommen, man möchte Kundenanfragen schneller und kostengünstiger beantworten und interessiert sich deshalb für Automatisierungssoftware. Sie besuchen die Website eines Softwareanbieters, geben Ihre Kontaktdaten für eine Informationsbroschüre an und der Verkaufsassistent vergewissert sich in einer E-Mail, dass Sie die Informationen, um die Sie gebeten hatten, auch bekommen haben.

Weil Sie auf diese E-Mail nicht geantwortet haben, sendet Ihnen der Verkäufer am nächsten Tag eine weitere Mail und am übernächsten noch eine – die letzte mit einer Entschuldigung für die Störung und einem Smiley-Gesicht. Sie fühlen sich ein bisschen schlecht und antworten schließlich diesem sympathischen, aber hartnäckigen Verkaufsassistenten. Es stellt sich heraus: Das ist keine Person. Es ist ein Chatbot.

Ein solches Szenario ist auf Plattformen für virtuelle Assistenten, wie sie von dem Start-up Conversica angeboten werden, bereits Realität. Im normalen Alltag sind solche Chatbots zwar noch nicht so verbreitet. Doch es gibt eine hohe Wahrscheinlichkeit dafür, dass innerhalb der nächsten fünf Jahre die "Person", die Sie per E-Mail über ein Produkt oder einen Service informiert, ein Chatbot aus dem Umfeld der Künstliche Intelligenz (KI) sein wird. Möglich machen das technologische Fortschritte und KI-Programme, die die Absichten von Kunden verstehen und die Dialoge erzeugen können, um natürliche Gespräche zu simulieren.

In der Tat ist die Künstliche Intelligenz in den letzten Jahren schnell sehr weit gekommen. Die Analysten von Gartner prognostizieren, dass KI bis 2020 in allen neuen Produkten allgegenwärtig sein wird – mit Technologien wie der Verarbeitung natürlicher Sprache, Deep Neural Networks und der Fähigkeit, Konversationen wie Menschen zu führen.

Zu den Technologien, die unter den Begriff Künstliche Intelligenz fallen, gehören Bilderkennung, maschinelles Lernen, KI-Chatbots und Spracherkennung. Diese Technologien werden in Business-Anwendungen bald allgegenwärtig sein, weil Entwickler leicht auf KI-Plattformen wie die IBM Watson Conversation API und die Google Cloud Natural Language API zugreifen können.

„Jede Unternehmensapplikation, die Sie in den nächsten fünf Jahren verwenden, wird eine intelligente Anwendung sein. Wer wird in dieser Situation noch eine dumme Anwendung kaufen?“, fragt Dave Schubmehl, Research Director für kognitive Systeme und Content Analytics bei IDC.

KI-Erwartungen: Erwarten Sie viel, aber nicht zu viel

Zu behaupten, dass alle Produkte schon bald KI-Technologie enthalten, mag angesichts der Tatsache, dass KI breit gestreut ist, überraschend klingen. Aber der KI-Samen hat bereits in vielen Geschäftsanwendungen Wurzeln geschlagen und wird bald tief mit den Ökosystemen von Anwendungen verwickelt sein.

Deep Neural Networks – die wichtigste Technologie hinter vielen KI-Projekten – macht zusammen mit Bilderkennung, Spracherkennung und der Verarbeitung natürlicher Sprache eine effiziente Inhaltsklassifikation möglich, wenn sie richtig eingerichtet und mit Daten für analytische Modelle gefüttert werden, sagt Gartner Vice President Tom Austin, der kürzlich ein Webinar zum praktischen Stand der KI veranstaltet hat.

Sicherlich sind Unternehmen noch weit davon entfernt, ihre eigenen, Star-Trek-ähnlichen Androiden zu bauen. Aber das ist auch nicht das, was Unternehmen von KI erwarten. Allerdings sind es laut Austin gerade diese Science-Fiction-Phantasien, die die Menschen in Richtung eines „anthropomorphen Denkens“ drängen. Dieses Denken löst leider falsche Erwartungen darüber aus, was KI ist und was sie leisten kann. Er warnt die Unternehmen vor KI-Verfechtern, die „verführerische Geschichten erzählen, nur die Erfolge ansprechen und die Fehlschläge verschweigen“.

„Intelligente Maschinen denken nicht, sie haben keinen gesunden Menschenverstand, sie verfügen über kein Bewusstsein und schon gar nicht über ein Bewusstsein ihrer selbst“, sagt Austin in dem Webinar. „Leute, die so etwas behaupten, täuschen Sie, oder sie sind über diese Dinge unzureichend informiert.“

Weil KI en vogue ist, behaupten viele Technologieanbieter, Künstliche Intelligenz zu schaffen. Sie mißbrauchen aber oft den Begriff oder gehen viel zu locker damit um. Ein erster Schritt in Richtung KI sieht so aus, dass App-Entwickler herkömmliche Regeln und Heuristiken durch maschinelles Lernen und statistische Datenmodelle ersetzen, die automatisch oder mit viel Aufwand und manueller Dateneingaben generiert werden, erläutert IDC-Analyst Schubmehl. Diese Veränderung führt zu intelligenteren Anwendungen.

„Früher brauchten Sie eine Menge von Regeln, um zu sagen: Wenn dies geschieht, dann mach jenes. Anwendungen, die sich nicht auf Regeln und Heuristiken stützen, sondern auf ein Datenmodell, das aus guten, gültigen Daten konstruiert wurde, haben einen wesentlichen Vorteil: Sie können sich im Rahmen von maschinellem Lernen selbst korrigieren“, erläutert Schubmehl. „Die Idee ist, dass diese Systeme immer klüger und klüger und besser und besser werden, wenn es beispielweise darum geht, eine Vorhersage zu machen – auch wenn ein Teil wahrscheinlich falsch ist.“

IBM und Google bringen KI vorwärts

Aktuell sind unterschiedliche KI-Lösungen auf dem Markt. Apples Siri und Microsofts Cortana sind im Wesentlichen verbale Suchmaschinen, die aber keine Fragefolgen beantworten können und den Kontext nicht verstehen. Neue Konversationsplattformen von Google und IBM können das schon.

IBM Watson Conversation API ist bereits für Entwickler verfügbar und Google hat in diesem Sommer zwei Cloud-Machine-Learning-Produkte ins Leben gerufen, die sich allerdings noch in der Betaphase befinden: Cloud Natural Language API und Cloud Speech API. Mit diesen APIs können Unternehmen einer Business-App eine Schnittstelle für die Verarbeitung natürlicher Sprache hinzufügen. Damit sind sie in der Lage, zu erfahren, was Kunden über die Unternehmensprodukte und Dienstleistungen im Internet schreiben. Sie können auch Interaktionen mit Endkunden über virtuelle Agenten oder einen KI Chatbot automatisieren.

Schubmehl von IDC geht davon aus, dass die menschliche Stimme bald die primäre Schnittstelle sein wird, wenn sich Spracherkennung und Apps zur Konversation weiterhin verbessern. Schon die heutigen API-Systeme für Konversationen ermöglichen es einem Entwickler, auf relativ einfache Weise einen KI-Chatbot zu bauen, der „ein vernünftiges Gespräch“ führen kann, sagt er.

Dieses neue Level der Gesprächstechnik geht weit über Interactive-Voice-Response-Systeme (Sprachdialogsysteme) hinaus. „KI-gestützte Systeme bringen Unternehmen mehr Flexibilität, wie sie Fragen von Kunden beantworten können und erhöhen den Prozentsatz der Fragen, die sie sehr schnell beantworten können“, erklärt Schubmehl.

„Diese Entwicklung ist das Ergebnis jahrzehntelanger Forschung zu Konversationssystemen und die Härtung von Algorithmen, die vor Jahrzehnten entwickelt wurden“, sagt Steve Abrams, IBM Watson Platform Director. „Niemand soll dabei denken, dass dies ein schneller Erfolg sein wird. Aber wir sind an einem Wendepunkt angekommen und wir sehen gerade die schnelle Einführung neuer Anwendungen.“

Welltok, ein IBM-Partner, hat mit der Watson Conversation API zwar noch kein fertiges Produkt eingeführt. Allerdings nutzt das Unternehmen bereits Watson Machine Learning und kognitive Computing-Technologien für seine CaféWell Concierge Plattform. Diese versorgt Verbraucher im Gesundheitswesen mit den Informationen, die sie benötigen.

Über die Concierge Plattform kann der Kunde einer Krankenversicherung zum Beispiel Informationen über eine Versicherung und ihre Konditionen bekommen, die statt in Fachsprache in verbraucherfreundlicher Sprache präsentiert werden.

„Concierge erfasst die Absicht des Fragestellers und liefert verständliche Antworten“, erklärt Jeff Cohen, der das Unternehmen mitbegründet hat und dessen Vice President für funktionale Architektur ist. „In Fällen, in denen der Concierge die Kundenfrage nicht versteht, legt das System fest, wie die Frage eindeutig gemacht werden kann und welche Zusatzfragen gestellt werden sollten, um die Frage zu klären.“

„Das ist der schwierige Teil – all diese Technologien zusammenzuweben, um ein Gespräch mit einem Menschen zu imitieren, das nicht an einen blechernen Chatbot erinnert“, sagt Cohen. „Die Menschen wollen einen intelligenten Dialog, ein System, das lernt und etwas über sie weiß – ihren Gesundheitsschutz, ihr Alter, ihre Angehörigen, die von der Versicherung mit abgedeckt werden, die Art der Berichterstattung oder andere Fragen, die sie in der Vergangenheit bereits gefragt haben. All dies ist notwendig, um eine persönliche Antwort zu geben, so dass Kunden in die Technologie Vertrauen haben.“

KI ist nicht Plug and Play

Obwohl die neuen Conversation APIs Entwicklern eine einfache Möglichkeit bieten, KI in ihren Anwendungen zu implementieren, ist mehr als Plug and Play notwendig. Sie erfordern eine erhebliche Investition an Zeit, um das Vertrauensniveau zu erhalten, das Unternehmen benötigen, so Cohen.

„Sie müssen mit offenen Augen hineingehen“, sagt er. „Das Gesundheitswesen ist konservativ, und wir wollen nicht, dass jemals eine falsche Antwort zu Gesundheitsfragen gegeben wird. Deshalb widmen wir uns einem eng begrentzen Themenbereich allein drei bis sechs Monate, bis wir sicher genug sind, eine Anwendung in einem Pilotprojekt einzusetzen.“

Tatsächlich kann ein KI-Chatbot nur die Informationen zur Verfügung stellen, die Teil seiner Wissensbasis sind. Und wenn der Bot mit schlechten Informationen gefüttert wird, werden Ihre Kunden auch schlechte Informationen erhalten, sagt IDC-Analyst Schubmehl. „Die Erstellung einer Wissensbasis ist aufwendig und erfolgt nicht an einem einzigen Tag. Genau wie ein Mitarbeiter muss auch ein Bot trainiert und die Informationen müssen aktuell gehalten werden“, fügt er hinzu.

Welltok gibt ein Konfidenzniveau von 95 Prozent vor. Das bedeutet: Ist sich ein kognitives System nicht zumindest zu 95 Prozent sicher, dass eine Antwort zutrifft, verweist es den Kunden auf eine andere Ressource oder leitet ihn an einen echten Live-Agenten weiter. „Wir werden einem Kunden niemals eine falsche Antwort geben. Im Zweifel leiten wir die Anfrage um und geben eher keine Antwort statt einer falschen“, sagt Cohen.

Die Zeit und Mühe, die Unternehmen in ein hohes Vertrauensniveau investieren, ist immer lohnenswert, wenn sie zu einem reduzierten Anrufvolumen führen und Call-Center-Mitarbeiter von Standard-Fragen entlasten. So können sich die Mitarbeiter auf komplexe Kundendienst-Fragen konzentrieren und die einfachen dem Bot überlassen. Aber das sind die relativ niedrig hängenden Früchte.

„Was wir versuchen zu erreichen – der größere Plan – ist, intelligente, personalisierte Antworten zu liefern und dem Kunden eine gute Orientierung zu bieten. Also mehr zu geben, als nur eine Antwort auf eine Frage, und Sie zu den Ressourcen zu führen, die Ihnen möglicherweise nicht bekannt waren“, sagt Cohen. „Wir nennen das vorwegnehmende nächstbeste Aktionen. Diese führen den Verbraucher zu zusätzlichen Ressourcen und verbessern die gesamte Erfahrung des Kunden.“

Cohen hat auch versucht, den ROI der kognitiven Computing-Projekte zu bestimmen. In Euro und Cent lässt sich das nicht genau beziffern, aber KI schafft einige langweilige Agentenaufgaben im Call Center ab und bietet Kunden zweifellos die Hilfe, die sie brauchen, sagt er.

Wo soll man mit KI anfangen

KI-Experten und -Anwender raten Unternehmen mit Cognitive Computing Projekten klein zu beginnen. Wählen Sie einen Bereich mit gut definierten Grenzen und sorgen Sie für die Verfügbarkeit von Fachexperten, die das System trainieren können und wissen, was echte Kunden fragen und wie sie fragen. Unternehmen müssen auch Geschäftsziele festlegen und die Ergebnisse, die sie brauchen, um zu wissen, ob die Ziele erreicht wurden und so eine klare Sicht auf das Projekt zu bekommen, sagt Gartner-Experte Austin im Webinar.

„Wählen Sie eine Anwendung, die ihren Nutzen in kurzer Zeit zeigt“, erläutert er. „Sie müssen keinen Mondflug planen und ausführen. Alles, was Sie brauchen, ist ein kleiner Fisch, der über den Teich schwimmt. Ein bisschen 'Intelligenz' ist gut genug. Machen Sie es erst einmal einfach, statt komplex.“

Für Unternehmen ohne Entwicklungsteams oder mit begrenzten IT-Ressourcen steht Software as a Service (SaaS) zur Verfügung, wie zum Beispiel Conversica, die KI-Chatbots für das Lead Engagement anbieten.

KnowledgeVision, ein Anbieter von Online-Business-Präsentationen, nutzt die Conversica Virtual-Assistant-Plattform, um Leads niedriger Priorität zu verfolgen. Der virtuelle Assistent der SaaS-App kombiniert mehrere KI-Technologien – eine analysiert die Absicht, eine andere die Einstellung etc. –, die zusammenarbeiten. Der virtuelle Assistent von KnowledgeVision verfolgt per E-Mail eingehende Leads und generiert einen Dialog, um Informationen zu sammeln, die letztlich an die Live-Verkäufer und Marketing-Repräsentanten übergeben werden.

Obwohl das in den meisten Fällen gut funktioniert, kann der virtuelle Assistent auch aus dem Konzept gebracht werden. Das ist zum Beispiel dann der Fall, wenn er eine Abwesenheitsantwort erhält, die ein Rückkehr-Datum beinhaltet. Der virtuelle Assistent kann das Datum als Aufforderung für einen Meeting-Termin ansehen. Deshalb muss KnowledgeVision die Interaktionen überprüfen, bevor sie den Kunden weiterverfolgen, sagt Susan Zaney, KnowledgeVision Vice President of Marketing, deren Abteilung sich auf Conversica stützt.

Aber die Vorteile von KI-Chatbots überwiegen laut Zaney bei weitem die Nachteile. Nun ist das Unternehmen in der Lage, jedem Lead zu folgen, denn virtuelle Assistenten sind 24/7-Mitarbeiter, die nie krank sind. Wenn ein potenzieller Kunde um ein Uhr nachts eine E-Mail öffnet und antwortet, reagiert der virtuelle Assistent sofort. Und den Kunden ist nicht klar, dass dieser hartnäckige, unermüdliche Verkäufer ein Chatbot ist.

Der Wendepunkt künstlicher Intelligenz

Nach 65 Jahren unrealistischer Visionen und vieler Enttäuschungen hat die oft schon totgesagte künstliche Intelligenz in den letzten fünf Jahren einige wichtige Durchbrüche erzielt.

Laut den Ergebnissen der IMAGEnet Large Scale Visual Recognition Challenge – einem Wettbewerb zu maschinellem Lernen und Bilderkennung – lag im Jahr 2010 und 2011 die Fehlerquote bei der maschinellen visuellen Erkennung im Bereich von 25-30 Prozent. Diese Fehlerrate hat sich seitdem erheblich verbessert.

Im Jahr 2015 zeigte Microsoft eine wesentlich bessere Performance und lag bei Bilderkennungsaufgaben mit Bayes-basierten Lernprogrammen unter der menschlichen Fehlerrate von 5,1 Prozent. Google berichtete sogar von Ergebnissen mit einer Fehlerquote von unter 4,8 Prozent.

Aber nicht nur in der Bilderkennung wurden Fortschritte gemacht. Die relativ jungen Deep Neural Networks haben bis heute die besten Text-to-Speech-Ergebnisse produziert, sagt Gartner Vice President Tom Austin kürzlich in einem Webinar über den Stand der Dinge bei KI.

Die neuen Deep-Neural-Netzwerkmodelle laufen auf Hochleistungs-CPUs und verwenden sehr große Datenmengen. Seit 2014 verwenden so gut wie alle Hersteller dieses Modell. Der „Big Bang von 2012“ führt laut Austin auch zu einer Kombination von CPUs – die im letzten Jahrzehnt erheblich verbessert wurden – mit großen Deep-Neural-Netzwerkmodellen und damit zur Möglichkeit, mehr Daten aufzunehmen.

Darüber hinaus gab es einen gewaltigen Vorwärtssprung bei dialogbasierten Benutzerschnittstellen. Sie ermöglichen die Verwendung von Dialogen mit natürlicher Sprache, um einen Bot zu steuern oder Informationen zu erhalten – ohne die „Zauberworte“ zu kennen, die für frühere Systeme der Sprachverarbeitung erforderlich waren. Die jüngsten Versionen der Konversationsplattformen von Google und IBM sind das Ergebnis jahrelanger Forschung zu Konversationssystemen.

Künftig wird sich KI auch an Arbeitsplätzen ausbreiten, die die Fähigkeit erfordern, zu lesen, zu suchen, sich zu erinnern und Antworten auf komplizierte Fragen zu finden. Ein weiteres Anwendungsfeld ist die schnelle Verarbeitung von riesigen Datenmengen, um Fachleute zu unterstützen, Antworten auf komplizierte Fragen zu finden.

„Für diese Szenarien gibt es eine Killer-Anwendung, die nur darauf wartet, gebaut zu werden“, sagt Steve Abrams von IBM. "Wir haben gerade begonnen, nur etwas an der Oberfläche zu kratzen.“

Im zweiten Teil dieses Artikels erfahren Sie, in welchen Bereichen KI nicht in der Lage ist, menschliche Mitarbeiter zu ersetzen.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Januar 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Business-Software

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close