Kollege Algorithmus – Artificial Intelligence (AI) und seine Zukunft

Veröffentlicht am: 05.Apr.2018

AI Anwendungen bei Human Resources

Dutzende interessante Qualifizierungsangebote stehen auf dem Firmenportal aufgelistet – allesamt passen aber nicht zum eigenen Berufsprofil. Das Resultat nach längerer Suche: nichts. Zwar hält der Konzern spezielle Weiterbildungskurse bereit, aber oft  gehen sie im Wust der Informationen unter.

Vanessa de Zeeuw beschreibt ein solches Szenario auf der Bühne der  re:publica 2017 – einer angesagten Konferenz zur Digitalgesellschaft in Berlin. De Zeeuw ist Human-Resource (HR) Transformation Consulting Leader bei IBM. „Kollege“ Watson gebe als kognitives System nicht nur einen schnellen Überblick über maßgeschneiderte Weiterbildungsangebote, so die Expertin, was sie persönlich sehr schätze. Er erkenne beispielsweise auch thematische Trends in Mitarbeiterbefragungen – selbst wenn die Antworten in Freitextfelder geschrieben seien.

Bislang beschränken sich solche Befragungen meist auf Multiple-Choice-Fragen und Skalenwerte – was dort nicht abgefragt wird, ist damit auch nicht präsent. Kognitive Systeme ermöglichten nun Auswertungen, die den Blick über den Tellerrand und echte Kritik zuließen, erklärt die IBM-Mitarbeiterin. Das Management könne so umfassender erfahren, was die Belegschaft gerade stört und umtreibt.

Darüberhinaus funktionierten Watson-Systeme im HR-Bereich auch als eine Art Frühwarnsystem, weil sie beispielsweise auf zu wenig geförderte oder unterbezahlte Mitarbeiter hinweisen könnten, die möglicherweise über eine Kündigung nachdenken, beschreibt de Zeeuw. Wer das Problem rechtzeitig erkenne, sei auch in der Lage gegenzusteuern.

Hier einige griffige Anwendungen für kognitive Systeme im HR-Alltag:

  • Reden an die Belegschaft auf unpassende Formulierungen checken.
  • Chatbots, die durch Standardsituationen des Personalmanagements führen.
  • Ein Ton-Analyser im Callcenter, der bei einer Flut von Anrufern schnell herausfindet, ob es sich im Gros um Anrufer mit Beschwerden handelt oder nicht.

Dabei steht die Entwicklung der künstlichen Intelligenz – auf Englisch: artificial intelligence (AI) – erst am Anfang.

Von „mobile first“ hin zu „AI first“

Auf der diesjährigen Google I/O, ein beliebtes Event, auf dem Google hauseigene Innovationen vorstellt, erklärte CEO Sundar Pichai: Die Welt wechsele aktuell von „mobile first“ hin zu „AI first“ – und dieser Wandel sei für die Zukunftsfähigkeit von Unternehmen sehr wichtig.

Damit werden auch lernende Algorithmen gehörig mehr Arbeit bekommen – denn sie sind sozusagen das Herz eines jeden kognitiven Systems: Was Letztere an digitalen Informationen aus Netzen und Sensordaten herausziehen, verarbeiten lernende Algorithmen zu Empfehlungen, Entscheidungen und Handlungen, wobei sie diesen Output im Austausch mit der Umgebung fortwährend verifizieren und optimieren. Das System wird also mit der Zeit immer smarter.

Und genau das macht viele Unternehmer und Bürger nervös: Alles entwickelt sich so rasend schnell – wer kann da noch verstehen, wie diese Systeme im Detail funktionieren? Kann man ihnen vertrauen? Sind lernende Algorithmen nun Freund oder Feind?

Die Leistungen der kognitiven Systeme werden in der Tat immer komplexer, vielschichtiger und damit undurchsichtiger. Warum genau wurde ein Kredit nicht gewährt? Der Bankangestellte wie auch der Kunde wird es nur erraten können.

Auch Ingenieure und Informatiker straucheln, wenn sie erklären sollen, wie ihr kognitives System exakt diese oder jene Entscheidung getroffen hat – vor allem, wenn es um die Königsdisziplin der Datenverarbeitung geht: um das sogenannte Deep Learning. Dabei handelt es sich um ein mehrschichtiges künstliches neuronales Netz, das für hochkomplexe Datenverarbeitung erdacht wurde.

Mehr Licht ins Dunkle bringen

Und dieses Netz orientiere sich bei der Arbeit in abstrakter Form tatsächlich an den Informationsverarbeitungsprozessen des menschlichen Gehirns, beschreibt die Fraunhofer-Gesellschaft auf ihrer Informationsseite zu Kognitiven Maschinen: Man füttere gewissermaßen eine Blackbox mit Werten und erhalte „überraschend“ gut verwendbare Ergebnisse. Ein Team um Wojciech Samek, Leiter der Forschungsgruppe für Maschinelles Lernen am Fraunhofer-Institut für Nachrichtentechnik am Heinrich-Hertz-Institut HHI, will mehr Licht ins Dunkle bringen: Es entwickelte gemeinsam mit der TU Berlin eine Software, mit der neuronalen Netzen nun sozusagen beim Denken zugesehen werden kann.

Warum ist Durchsicht ein Vorteil? Speise man beispielsweise Erbgutdaten von Patienten und Patientinnen in ein solches Netz ein, erklärt Wojciech Samek, könne es analysieren, mit welcher Wahrscheinlichkeit der Patient eine bestimmte genetische Erkrankung habe: „Noch interessanter wäre es aber zu wissen, an welchen Merkmalen das Programm seine Entscheidungen festmacht.“ Das könne ein bestimmter Gendefekt sein, der Hinweise für eine individuell auf den Patienten zugeschnittene Krebstherapie liefere.

Nicht zuletzt würde Durchsicht auch Vertrauen in die Systeme schaffen – ob es sich nun um schlichte Algorithmen handelt, die Supermärkte mit Ware bestücken, oder aber um das Deep Learning, das zukünftig komplexe, autonome Verkehrsströme simulieren soll. Wäre da nicht die nächste Hürde: Algorithmen sind in der Regel Firmengeheimnisse, auf denen zentral wichtige Geschäftsmodelle aufbauen. Man stelle sich vor, Google würde seinen Suchalgorithmus offen legen – wer würde da nicht versuchen, sich mit seinem Unternehmen ganz nach oben zu ranken?

Fluch oder Segen

Während Politiker die Offenlegung von Algorithmen fordern, raten Informatiker, wie Katharina Zweig von der TU Kaiserslautern, zu einer wahrscheinlich gangbareren Praxis: zu Wirtschaftsprüfern für Algorithmen. Also einen neuen Berufszweig mit hoher Berufsethik, der Algorithmen-Systeme bewerten kann, ob diese bestehende Gesetze und Regelungen einhalten – oder eben nicht. Wenn undurchsichtige künstliche Systeme Menschen in Kategorien einteilten, sei für sie persönlich eine Grenze überschritten, erklärt Katharina Zweig in der Veranstaltungsreihe „Forscher fragen“ der Körber Stiftung, beispielsweise wenn Jugendliche eingeschätzt würden, ob sie zukünftig straffällig werden oder nicht. Algorithmen seien eigentlich harmlos. Was der Mensch aus den Ergebnissen der Systeme ableite, sei es dann nicht mehr unbedingt harmlos. Professorin Zweig nennt ein Beispiel: Wenn man errechnen könne, ob ein Straftäter gefährdet ist, rückfällig zu werden – sperrt man ihn dann weg oder hilft man ihm noch intensiver, dass dies nicht passiert?

Was uns AI in der Zukunft bringt, können wir heute wohl noch nicht beurteilen, aber vielleicht liefert uns der Film EX MACHINA aus dem Jahr 2015 einen Vorgeschmack, was die Menschheit erwarten könnte. „Ex Machina“ ist ein Beweis dafür, dass großartige Science-Fiction auch heute keinesfalls auf exorbitante Budgets angewiesen ist

Schreiben Sie einen Kommentar