Aufrufe
vor 3 Jahren

Netzwoche 09/2018

28 Technology

28 Technology Fachbeitrag Das Bestbot-Projekt An der Hochschule für Wirtschaft FHNW sind seit 2013 im Kontext der Maschinenethik mehrere Hardware- und Softwareroboter entstanden. 2018 widmet man sich dem Bestbot, einem Chatbot, der Probleme des Benutzers auf unterschiedliche Weise registrieren kann. DER AUTOR Oliver Bendel Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW, mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik 2013 haben wir an der FHNW den Goodbot, einen Chatbot, der moralisch adäquat agiert und reagiert, geschaffen. Er erkannte Probleme des Benutzers, wenn sie sprachlich geäussert wurden, und eskalierte über mehrere Ebenen. Wichtig wären Funktionen des Goodbot beispielsweise im Kontext von sprachbasierten Diensten von Krankenhäusern und Beratungseinrichtungen und innerhalb der Jugendarbeit. Eine seiner Metaregeln, nämlich die, dass er nicht lügen sollte, wurde für das nächste Projekt umgekehrt. Der Lügenbot oder Liebot war geboren, ein Chatbot, der systematisch die Unwahrheit sagte, und damit ein weiteres Artefakt der Maschinenethik, das zu erforschen war. Wir erlangten unter anderem Erkenntnisse darüber, wie man vertrauenswürdige und verlässliche Dialogsysteme baut. 2017 erfolgte der Beschluss, den Goodbot zum Bestbot weiterzuentwickeln. Vorüberlegungen und technische Grundlagen des Bestbot Die Grundüberlegung für den Bestbot war, dass er noch besser als der Goodbot Probleme des Benutzers erkennen und darauf reagieren sollte. Damit liegt nahe, dass er nicht nur textuelle Eingaben bewerten sollte, sondern auch visuelle Eindrücke, gewonnen über die Kamera im Notebook oder Smartphone. Neben der Gesichtserkennung können Stimmerkennung und -analyse eine Rolle spielen. Es werden Ergebnisse aus dem Liebot-Projekt einbezogen, um Verlässlichkeit und Vertrauenswürdigkeit zu steigern. Wie der Liebot (und anders als der Goodbot) soll der Bestbot ein web- beziehungsweise internetbasiertes System sein. Ein Grund dafür ist, dass er damit von Entwicklern getestet werden kann, die im Prinzip wertvolles Feedback geben können. Ein weiterer Grund ist, dass ihn potenzielle Anwender kennenlernen können. Nicht zuletzt liegt er als webbasiertes System in der Form vor, die er später als Produkt haben würde. Wie der Liebot soll der Bestbot in Java programmiert werden, unter Zuhilfenahme der Artificial Intelligence Markup Language (AIML). Mit diesen Sprachen wurden bei uns genügend Erfahrungen gesammelt, und Java steht an der Hochschule für Wirtschaft FHNW auf dem Lehrplan. Die definitive Entscheidung soll aber erst im Verlauf des Projekts fallen. Der Bestbot soll auf alle möglichen Anfragen und Herausforderungen reagieren können, auch auf solche, die in der Person des Benutzers liegen. Deshalb sollte er wie der Liebot stark vernetzt sein mit Systemen wie Suchmaschinen, mit öffentlich verfügbaren Thesauri, Ontologien und Lexika (und natürlich muss er schon deshalb internetbasiert sein). Der Goodbot war ein geschlossenes System mit einer im eigenen Haus aufgebauten Wissensbasis und konnte nur begrenzt auf Probleme des Benutzers eingehen. Die Offenheit des Bestbot ist allerdings auch ein Problem, denn dadurch wird er weniger gut kalkulierbar; dem muss, anders als beim Liebot, mit geeigneten Massnahmen begegnet werden. Ansatz der Gesichtserkennung Der Bestbot kann, wie gesagt, Gesichtserkennung verwenden, um sich optimal auf sein Gegenüber einzustellen. Beim Goodbot musste man sein Alter angeben. Der Bestbot hat die Möglichkeit, dieses auf technischem Wege zu eruieren (Falschangaben werden so vermieden, wohingegen Fehleinschätzungen auftreten mögen), und kann dann entsprechend darauf reagieren, etwa indem er bei einem Kind eine einfachere Sprache benutzt als bei einem Erwachsenen oder vorsichtiger und rücksichtsvoller agiert und bestimmte Begriffe und Themen vermeidet. Das Geschlecht kann ebenfalls eine interessante Information sein, wieder mit Blick auf Themen, aber auch auf Befindlichkeiten und Empfindlichkeiten, wobei insgesamt die Gefahr besteht, dass man in Stereotype verfällt. Der Bestbot soll Gesichtserkennung auch im Sinne von Emotionserkennung nutzen. Er kann die Gefühlslage des Benutzers erfassen und sie wiederum ins Verhältnis zu dessen Aussagen setzen. Er kann die Übereinstimmung feststellen, sodass er auf einer niedrigen Eskalationsstufe verbleiben beziehungsweise der Chat seinen normalen Gang gehen kann, oder einen Widerspruch, sodass er eskalieren oder deeskalieren muss. Emotionserkennung kann zu einem ausgewogenen, vollständigen Bild des Benutzers führen, wenn ein selbstlernendes System verwendet wird. Ethische Überlegungen Grundsätzlich ist die Frage, ob ein Gesicht oder eine Stimme einfach mit informationstechnischen Mitteln erfasst und analysiert werden darf. Die personenbezogenen Daten, so könnte man argumentieren, gehören der Person. Natürlich werden auch bei jedem zwischenmenschlichen Kontakt bestimmte Daten erfasst und im Gehirn über kurze oder lange Zeit gespeichert sowie Informationen über- 09 / 2018 www.netzwoche.ch © netzmedien ag

Technology Fachbeitrag 29 mittelt, aber bei einer maschinellen Verarbeitung ergeben sich andere Aspekte und Möglichkeiten. So können auf die gespeicherten Daten und die vollzogenen Analysen womöglich viele unterschiedliche (auch unbekannte) Personen zugreifen, die Daten können verknüpft und verbreitet werden, und die Schlüsse, die von den Systemen gezogen werden, können aufgrund fehlerhafter Sensoren oder Algorithmen falsch sein oder von technisch Unkundigen falsch interpretiert werden. Ein weiteres Problem ist ein Ungleichgewicht, das sich auf verschiedenen Ebenen ausdrückt. Der Betroffene verfügt nicht über die Technologie, die der Betreiber hat, er kennt die Funktionsweisen nicht im Detail, und er weiss nicht, an wen die Daten transferiert werden. Bei Gesichtserkennung wird in vielen Fällen meist nur oberflächlich informiert, etwa mit dem Hinweis, dass eine Kamera zugegen ist. Fordern kann man aus ethischer und rechtlicher Perspektive, dass die Betreiber einer Bestbot-Lösung über die Analyse aufklären, aber manche werden sich auf den Standpunkt stellen, dass sie damit riskieren, dass der Benutzer die Kamera deaktiviert. Eine Möglichkeit ist auch, den Bestbot selbst zur Informierung einzusetzen. Im Gespräch könnte er die Chancen und Risiken des Einsatzes von Gesichtserkennung und Stimmanalyse darstellen. Wenn der Benutzer vor dem Notebook sitzt, ist er in der Regel in seinem Zuhause, in der Schule oder Hochschule oder im Büro. Damit ist er in einer vertrauten Umgebung, in der üblicherweise eine gewisse Privatheit oder Berechenbarkeit herrscht. Ausgerechnet in diesen Raum dringen Analyseinstrumente ein, die eben mit Unbekannten verbunden sind beziehungsweise von diesen bedient werden. Dies kann in Unsicherheit und Ablehnung münden. Auch der Gebrauch des Smartphones schafft für manche Personen eine Situation der Privatheit, selbst in der Öffentlichkeit. Speziell Emotionserkennung wirft Fragen aus Sicht der Informationsethik auf. Wenn man Gefühle zeigt, erzählt man etwas über sich, kehrt das Innere nach aussen. Je nachdem, ob man eher ein Pokerface ist beziehungsweise hat oder eher das Gegenteil, verrät man etwas über das aktuelle Wohlbefinden, den physischen und psychischen Zustand. Wie bereits angedeutet, kann im Laufe der Zeit ein Persönlichkeitsprofil des Benutzers entstehen. Wenn Gesichts- und Stimmerkennung zusammenkommen, ist enormes Missbrauchspotenzial vorhanden. Vor diesem Hintergrund müssen Verfahren, bei denen die Identität des Benutzers bekannt wird, kritisch betrachtet werden. Ein Nickname, den man mitteilen muss, scheint ein probates Mittel zu sein, ein Log-in mit fiktivem Benutzernamen ebenso; einen Realname zu verlangen, dürfte jedoch nicht zu verantworten sein. Mit Methoden der Gesichtserkennung kann man überdies bereits viele Benutzer identifizieren, weil sie Spuren im Web hinterlassen haben, insbesondere in den sozialen Medien. Ein System mit Stimmerkennung vermag nach einem Training ebenfalls die Identität festzustellen. Ausblick Man muss offensichtlich Wege finden, damit eine weitere Metaregel des Goodbot, nämlich kein Spion zu sein, beim Bestbot nicht verletzt wird. Wenn das gelingt, kann dieser eine vielversprechende Weiterentwicklung sein. An der Stanford University wurde das Projekt Ende März 2018 im Rahmen der AAAI Spring Symposia vorgestellt und mit grossem Interesse aufgenommen. Illustration: gmast3r / iStock.com www.netzwoche.ch © netzmedien ag 09 / 2018

Archiv

Specials