Bild
Code

13.01.2021 | Blog Wird Künstliche Intelligenz zur Commodity?

AI-Experte Breno Faria über den Aufwand von Machine Learning-Projekten und wie er die Entwicklung von Künstlicher Intelligenz in Unternehmen sieht.

Auf dem Gebiet des Machine Learning gibt es mittlerweile unzählige OpenSource Frameworks - Spark, TensorFlow, PyTorch und viele mehr. Durch diese Entwicklungen im Bereich OpenSource wird es immer einfacher, State-of-the-art Machine Learning-Verfahren auszuprobieren, was grundsätzlich zu begrüßen ist. Damit stellt sich aber auch die Frage, ob AI nun zur Commodity wird und man Machine Learning bald „von der Stange“ bekommen kann.

Der Weg dahin ist jedoch noch weit. In der echten Welt fehlen oft Daten und die Daten, die man hat, sind meist weit davon entfernt „sauber“ zu sein oder sogar in das angedachte Datenmodell zu passen. Der Großteil des Aufwands in einem Machine Learning-Projekt besteht darin, das Problem formal zu spezifizieren, anschließend die Daten dafür zu gewinnen und zu bereinigen und dann natürlich auch eine nützliche Evaluation der Ergebnisse zu bekommen.

Zudem ist die Integration der Machine Learning-Komponente, sobald sie dann fertig geschrieben bzw. fertig trainiert ist, äußerst komplex. So sind die Formalisierung des Problems und die Vorbereitung für die Arbeit der lernenden Maschine sowie die Integration des Ergebnisses in einen Workflow innerhalb der Firma die wichtigsten und aufwendigsten Punkte eines ML-Projekts. Die Produktivnahme eines ML-Modells ist dann der allerletzte und am wenigsten aufwendige Schritt.

Das heißt, die Technologie ist nur die halbe Miete in solchen Projekten. Erfolgreiche Machine Learning-Projekte brauchen vor allem erfahrene Expert*innen, die wissen, wie man diese Technologie anwendet, um aus den Daten, die man zur Verfügung hat, das Beste zu ziehen.

AI im Unternehmen

Aus dem privaten Umgang mit Technologieprodukten sind wir es längst gewohnt mit vortrainierten Systemen/Modellen umzugehen. Dazu gehört beispielsweise der Spracherkenner im Handy, ein automatischer Übersetzer oder eine Foto-App, die erkennt, dass eine Person fotografiert wird und die Einstellungen der Kamera entsprechend anpasst.

Diese Anwendungen, die mit Machine Learning erstellt werden, bauen auf großen und vor allem verfügbaren Datenmengen und Ressourcen auf. Dabei handelt es sich um vortrainierte Modelle, die eine eng definierte Aufgabe lösen. Die große Menge an Trainingsdaten, die dahintersteckt, wird den App-Anbietern oft auch durch unsere eigene Nutzung als Kunden geliefert.

Wieso scheint jedoch AI, wie wir es aus dem privaten Umfeld kennen, nicht im gleichen Maße in der Arbeitswelt anzukommen? Die Antwort lautet: Weil man nicht für jeden Workflow in unterschiedlichen Firmen perfekte vortrainierte Modelle haben kann. Künstliche Intelligenz wird aus unserer Sicht nicht so schnell in der Lage sein, anhand einer eingehenden Bestellung in beliebiger Form - sei es in einem einfachen E-Mail-Text, als Word- oder PDF-Anhang - bei allen Firmen dieser Welt den jeweils folgenden Prozess, wie z.B. einen SAP-Workflow, in Gang zu bringen. Es gibt dafür nicht genügend Trainingsdaten, weil jede Firma ihre eigenen Prozesse und maßgeschneiderten Systeme hat. Es ist daher schwierig, für solche Use Cases ein Modell zu erstellen.

Was den Unternehmen hier aber helfen kann, sind nicht die fertig trainierten Maschinen, sondern Maschinen, die lernen können. Um AI im Unternehmen stärker zu demokratisieren, brauchen wir zusätzlich Maschinen, die mit den wenigen Datenmengen lernen, die vorhanden sind. Hier kann man Transfer Learning nutzen, eine aktuelle Entwicklung aus dem Bereich Deep Learning, um auch mit geringen Datenmengen schnell zu lernen.

Die IntraFind Software AG beispielsweise beherrscht klassisches Machine Learning und setzt aber auch auf Transfer Learning oder eine Kombination aus beidem, je nach zu lösender Aufgabe. Damit kann der Software-Anbieter Unternehmen dabei unterstützen, einer Maschine beizubringen, was von ihr gebraucht wird. Ein Beispiel für eine solche Maschine, die lernen kann, ist der Contract Analyzer. Hier ist die Software vortrainiert, bestimmte Klauseln und Datenpunkte in Verträgen zu erkennen und zu extrahieren. Das Tool kann aber von den Usern mühelos für ihre individuellen Zwecke auf andere Datenpunkte weitertrainiert werden.

AI bei IntraFind

Seit fast 20 Jahren beschäftigt sich IntraFind damit, wie man aus Text strukturiertes Wissen gewinnen kann. Als es den Hype um das Thema Künstliche Intelligenz noch gar nicht gab – nämlich bereits im Jahr 2005 - entwickelte das Unternehmen den Topic Finder, ein Machine Learning-Produkt für Textklassifikation, das heute immer noch eingesetzt wird. Ein Jahr später kam die Entitätenerkennung zum ersten Mal zum Einsatz. Dabei ging es darum, die iFinder-Suche mit inhaltlichen Metadaten, wie zum Beispiel Personennamen oder E-Mail-Adressen, anzureichern. Mit dem Einsatz dieser Software führte ein großes deutsches Verlagshaus bereits 2011 eine Verschlagwortung des gesamten Archivs und neuer Artikel ein. In den letzten Jahren beschäftigt sich der Spezialist für Such- und Analysesoftware zudem mit dem Thema Legal Tech/Legal AI und unterstützt Kanzleien bei der Analyse von Verträgen und anderen Dokumenten. Auch der Einsatz von KI zur Optimierung von Prozessen, z.B. bei der Bearbeitung von Anträgen, ist ein gefragter Use Case.

Der Autor

Breno Faria
Team Lead NLP
Breno Faria beschäftigt sich schon seit mehr als 10 Jahren mit dem Thema Suche und Verarbeitung natürlicher Sprachen. Seit 2012 ist er für die IntraFind Software AG tätig und leitet dort den Bereich Natural Language Processing (NLP).
Bild
Breno Faria