Potenziale von künstlicher Intelligenz in der Produktentwicklung

11/06/2020

Ein Fachartikel in Kooperation mit datanizing GmbH

Künstliche Intelligenz (KI) gilt als eine der Schlüsseltechnologien der Digitalisierung und ihr werden viele Potenziale zu Effizienz- und Effektivitätsgewinnen zugesprochen – auch im Bereich der Forschung & Entwicklung (F&E). Auch die Entwicklung ganz neuer datengetriebener Services und Geschäftsmodelle wird durch KI ermöglicht. In diesem Insight finden Sie einen Einstieg in die Technologie, einen Überblick der Anwendungsmöglichkeiten, zwei Anwendungsbeispiele aus unseren Projekten sowie einen Ausblick in die Zukunft der Produktentwicklung.

Aktuelle Entwicklungen in der F&E

Insgesamt steht die F&E vor unterschiedlichen sich ändernden Rahmenbedingungen. Der Wandel in Technologie, Markt und Gesetzgebung passiert in unterschiedlichen Geschwindigkeiten. Während im Bereich der Digitalisierung die Technologie weite Sprünge macht und neue Geschäftsmodelle beispielsweise beim autonomen Fahren ermöglicht, hinkt die Gesetzgebung mit einem Rechtsrahmen hinterher. Hinzu kommen immer kürzere Lebenszyklen von digitalen Technologien und sich rasant ändernde Kundenanforderungen. Im Rahmen dieser Komplexität, verspricht die künstliche Intelligenz Lösungen, welche die F&E zukunftsfähig machen und nachhaltig stärken sollen.

Was ist KI?

Von der Bilderkennung über Sprach- und Textverstehen bis hin zu Robotik und virtueller Realität – die Technologien, die der Künstlichen Intelligenz zugerechnet werden, haben vielfältige Ausprägungen.
Grundsätzlich kann die Terminologie des Begriffes der künstlichen Intelligenz vereinfacht als Technik verstanden werden, welche Computer dazu befähigt, Leistungen des menschlichen Gehirns zu erlernen und anzuwenden. Hierbei spielt die Art und Weise des Lernens eine zentrale Rolle. Als Teilbereich der künstlichen Intelligenz existieren mehrere Teil- / Subbereiche, die sich mit Lernen befassen (z.B. Machine Learning und Deep Learning).

Machine Learning beschreibt, wie Algorithmen aus Daten Erfahrungen abstrahieren können. Hierzu finden unterschiedliche Techniken Anwendung. Diese lassen sich in überwachtes und unüberwachtes Lernen einteilen. Überwachtes Lernen nutzt vorhandene Input- und Output-Daten, um damit ein Modell zu trainieren, welches anschließend Vorhersagen machen soll. Beim unüberwachten Lernen werden nur Inputdaten benötigt. Der Algorithmus sucht innerhalb der Daten nach vorhandenen Mustern oder Zusammenhängen, ohne vorher aus einem vorklassifizierten Datenset Wissen abstrahiert zu haben.

Abbildung 1: Unterscheidung zwischen künstlicher Intelligenz, Machine Learning und Deep Learning.

KI im Produktentwicklungsprozess

Der Produktentwicklungsprozess beschreibt Tätigkeiten, die von einer Idee bis zum Markteintritt eines serienreifen Produktes angewendet wurden. Als Kernprozess der F&E bietet der Produktentwicklungsprozess mit flankierenden Prozessen viele Einsatzmöglichkeiten für KI. Die folgende Grafik gibt eine Übersicht eines beispielhaften Produktentwicklungsprozesses. Zusätzlich werden einige der bereits bekannten Anwendungsfälle der KI dargestellt.

Abbildung 2: Mögliche Anwendungsfälle für KI in der Produktentwicklung.

Im Rahmen von Pilotprojekten wurde die KI Technologie in unterschiedlichen Bereichen eingesetzt. Hierzu baut die 3DSE den Bereich der datengetriebenen F&E Beratung weiter aus und arbeitet mit dem Unternehmen datanizing zusammen. datanizing spezialisiert sich auf die automatisierte Analyse großer Textmengen mittels KI. Das Unternehmen macht Software, die Menschen dabei hilft, effizienter in großen Textmengen zu recherchieren und dabei die wichtigen Erkenntnisse darin einfach zu identifizieren. Ihre eigens dafür entwickelte Softwarelösung heißt NIZE. Die Fachexperten der 3DSE bewerten die durch die Künstliche Intelligenz ermittelten Ergebnisse und interpretieren sie im Kontext des jeweiligen Kunden. Auch die Steuerung der Change Management Prozesse hin zu datengetriebenen Prozessen und Denkweisen beim Kunden erfolgt durch die 3DSE Experten.
Innerhalb der im Folgenden vorgestellten Pilotprojekte kam Künstliche Intelligenz für zwei ganz unterschiedliche Fragestellungen innerhalb des Produktentwicklungsprozesses zum Einsatz:

  • Große Datenmengen zur Anforderungs- und Potenzialanalyse in Lastenheften
  • Drei Millionen Kommentare aus Foren, Blogs und sozialen Netzwerken (User Generated Content – UGC)

Technologisch kam für beide Projekte die automatisierte Textanalysepipeline NIZE zum Einsatz, u.a. mit Verfahren aus dem Bereich des überwachten Lernens (Klassifikation) und des unüberwachten Lernens (Clustering und Dimensionsreduktion) sowie semantische Verfahren.

Praxisbeispiel: Lastenheftqualität mit Anforderungs-/ Potenzialanalyse

Im Produktentwicklungsprozess stellt das Lastenheft ein zentrales Dokument dar, welches die Anforderung an das Produkt sammelt und hierarchisiert. Das Lastenheft bildet zusammen mit dem Pflichtenheft intern und extern die Basis für das Entwicklungsobjekt. Bei der Erstellung des Dokuments werden hohe Qualitätsmaßstäbe angesetzt, um drohende Fehler und damit potenzielle hohe Kosten im weiteren Projektverlauf zu vermeiden. Aufgrund der gestiegenen Komplexität von Produkten ist auch der Umfang von Lastenheften gestiegen. Künstliche Intelligenz verspricht hier eine bessere Bewältigung der großen Datenmengen.

Ein Beispiel aus dem Unternehmensalltag: Um die wichtigen Unterschiede von Lastenheften zu entdecken, muss ein Ingenieur heute oft bis zu 600 Seiten an Dokumenten sehr aufmerksam von vorne bis hinten durchlesen, denn Details können für den Ingenieur den entscheidenden Unterschied machen.

Die heutigen Anforderungen sind umfangreicher, komplexer, stärker vernetzt und ändern sich auch noch häufiger. Selbst unter diesen Bedingungen schaffen es die Unternehmen, den Überblick zu behalten. Aber der dazu notwendige Aufwand ist immens.
Mit KI können Unternehmen ihren internen Aufwand beim Requirement Management signifikant reduzieren und gewinnen dadurch neue Ressourcen: Sie sparen bei der Einarbeitungszeit neuer Personen genauso, wie beim täglichen Managen von Anforderungen.

Herausforderungen

Die im Pilotprojekt vorliegenden Lastenhefte weisen Interdependenzen mit mehreren Lastenheften und mitgeltenden Dokumenten auf. Diese Komplexität stellt die Erstellung von Lastenheften als sehr aufwandsintensiv dar. Folgende Herausforderungen kommen hinzu:

  • Hoher Aufwand bei der Dokumentenerstellung
  • Ungenutzte Synergien zwischen Systemen
  • Viel händische Suchleistung bei bestehenden Dokumenten
  • Geringe Qualität der Dokumente
  • Hohe Copy-Paste Fehlerquote
  • Feature Creep kann unentdeckt stattfinden

Ziel

Mit Hilfe des Einsatzes von Machine Learning soll das System automatisiert Unterschiede und Ähnlichkeiten erkennen. Zusätzlich sollen relevante Informationen identifiziert und die große Menge an Informationen auf Ihren Kern verdichtet werden. Im Anschluss sollte der Algorithmus Verbesserungspotenziale bei der Anforderungsqualität feststellen.

Vorgehen

Bevor die Lastenhefte und mitgeltenden Dokumente analysiert wurden, wurden verschiedene Prozessschritte angewendet. Hierbei wurde das „Rauschen“ innerhalb der Dokumente reduziert, ein Überblick über die Dokumente über Wortstatistiken und aggregierte Wortfelder erstellt und mit Hilfe von Differenzanalysen und Heatmaps eine Einordnung der Textpassagen ermittelt.

Im letzten Schritt wurde die Analyse der Unterkapitel mit einem Copy-Paste-Score ermittelt. Hiermit konnten die Anforderungsunterschiede in den unterschiedlichen Dokumenten herausgefunden werden. Anschließend wurden die Ergebnisse mit Hilfe von Experten bewertet.  Sie gaben Ihr Feedback zu Verifikation und Relevanz der Unterschiede, Bewertung von Kostenpotenzialen und die weitere Definition von Maßnahmen.

Abbildung 3: Automatisierte Analyse von Lastenheften mit Ausweisung (teil-)automatisierter Potenziale.

Ergebnisse

Innerhalb des Pilotprojektes konnte eine Methodik entwickelt werden, die automatisiert eine Analyse von Lastenheften realisiert und auf Basis der automatisierten Ergebnisse (teil-) automatisiert Potenziale identifiziert. Neben der erarbeiteten Methodik zum Herausarbeiten von Potenzialen wurden im Rahmen des Pilotprojektes mehrere Ergebnisse erarbeitet:

  • Durch den Einsatz der Algorithmen wird der Lastenhefterstellungsprozess effizienter gestaltet, seine Abläufe verbessert und somit Kostenpotenziale gehoben.
  • Ebenfalls wurde im Projekt eine Steigerung der Lastenheftqualität erreicht.
  • Die Ingenieure können wichtige Unterschiede innerhalb zweiter Lastenhefte um 70% schneller erkennen und verstehen.
  • Sowohl bei der Erstellung der Lastenhefte als auch bei der Überprüfung von bereits erstellten Lastenheften konnten Anforderungen reduziert und dadurch Kosten gespart werden.

Um die Software im Operativen einzusetzen und dabei bei der Lastenhefterstellung und Analyse zu unterstützen, stellt die folgende Grafik ein mögliches User-Interface dar.

Abbildung 4: Mögliches User-Interface zur Lastenheft-Analyse.

Das Dashboard teilt sich in zwei Bereiche auf. Im oberen Bereich ist der Analyse Modus dargestellt, im unteren Bereich der Änderungsmodus.
Der Analysemodus analysiert den Lastenheft Text und hebt unterschiedliche Textpassagen vor. Hierbei können fehlerhafte Anforderungen, Dopplungen, Formfehler und Bad Words hervorgehoben werden. Im Änderungsmodus können Anpassungen vorgenommen werden und somit die Qualität des Dokuments gesteigert werden.

Ausblick

Neben der automatisierten Identifikation von Ähnlichkeiten und Unterschieden in Lastenheften derselben Baureihe, gibt es viele weitere Use Cases, wie KI wertstiftend im Bereich des Anforderungsmanagements eingesetzt werden kann.
Spannend ist die Frage, wie die Anforderungen Baureihen-übergreifend aussehen. Wenn dort identische Textpassagen verwendet werden, könnten dies Kandidaten für einen Unternehmensstandard sein, der auf Dauer den Umfang der Lastenheft erheblich reduzieren kann und für eine Vereinheitlichung und Kostenersparnis sorgt.
Ein strategisches Ziel ist die systematische Ermittlung von Gemeinsamkeiten derselben Komponenten in unterschiedlichen Baureihen. Dadurch werden weniger Fehler gemacht, weniger Dinge vergessen und es muss weniger Zeit in die Erstellung neuer LHs investiert werden.
Auch eine interaktive Applikation zum Schreiben von Lastenheften, die Duplikate zu Unternehmensstandards erkennt ist möglich.

  • Die Analyse der Überschneidung von Lastenheften mit Unternehmensstandards (inhaltlich) und Vorschläge zur Konsolidierung
  • Review des gesamten Erstellungsprozesses von Unterlagen (Unternehmensstandards, Lastenhefte etc.)
  • Hinzunahme von Normen, Feststellung von Überschneidungen

Praxisbeispiel: Forenanalyse

In der Automobilindustrie wandelt sich das traditionelle Kundenbild. Neue Antriebstechnologien schaffen neue Rahmenbedingungen für den Kunden.
Trotzdem erfolgt der Reality Check für viele Produzenten erst beim Verkauf – also lange nach der Produktentwicklung. Die großen Fragen bleiben bis dahin:

  • Welche Features beeinflussen die Verkaufsentscheidungen?
  • Welche Features nimmt meine Zielgruppe gar nicht wahr?
  • Unterscheiden sich die Präferenzen bei den unterschiedlichen Zielgruppen?
  • Welche Wünsche haben meine Zielgruppen?

Um herauszufinden, was Kunden wollen, muss man ihnen zuhören. In Zeiten von Künstlicher Intelligenz muss man dafür keine Interviews mehr führen, sondern kann Meinungen analysieren, die schon ohne unsere aktiven, ggf. beeinflussenden Fragen mit der Welt geteilt wurden.
Elektromobilität-Interessierte äußern sich in einer Vielzahl von Beiträgen in sozialen Netzwerken im Internet. Um Kundenwünsche aus der Masse der Informationen besser zu verstehen, wurden die Informationen mit Hilfe von künstlicher Intelligenz aufgearbeitet und strukturiert.

Insbesondere Unternehmen im B2B Business ist oft gar nicht klar, wie rege online über ihre Produkte und Markttrends, die ihre Branche maßgeblich beeinflussen, diskutiert wird. Damit verpassen Unternehmen die Chance, für sie relevante Themen, Trends und deren Verbindungen untereinander zu nutzen.
KI zusammen mit neuartigen Analysen und Visualisierungen, die Kundenbedürfnisse, Trends und Themen in großen Textmengen greifbar machen, bringt Struktur in das Text-Durcheinander: Beispielsweise durch die automatisierte Ermittlung von Stereotypen (sog. data-driven Personas) aus einer Menge an Online-Kommentaren und die interaktive Exploration von semantischen Themen-Zusammenhängen.

Herausforderungen

Das Internet bietet mit nutzergenerierten Inhalten, das heißt Konversationen in Foren, Blogs und Social Media, einen zu großen Teilen ungehobenen wertvollen Datenschatz. Die erste Herausforderung bestand darin, relevante Online Diskussionen rund um das Thema E-Mobility zu identifizieren. Im zweiten Schritt sollte die automatisierte Analyse und Aufbereitung der Texte in einem Dashboard erfolgen, um die interaktive Exploration der Texte und schlussendlich die einfache Ableitung von Insights zu ermöglichen.

Ziel

Ziel des Pilotprojektes war eine automatisierte Herausarbeitung und Analyse von Kundenanforderung in Bezug auf Elektromobilität mit Hilfe von Machine Learning. Die gewonnen Informationen sollen dabei helfen Kundengruppen, ihre Anforderungen und Hauptinteressen besser zu verstehen. Zusätzlich wird ein Monitoring und die kontinuierliche Beobachtung von Kundengruppen und ihren Wünschen ermöglicht.
Im zweiten Schritt sollen die gewonnenen Erkenntnisse bei der kundenzentrierten Produktentwicklung durch die Ideation neuer relevanter Produkte, der Priorisierung von Anforderungen sowie dem Abgleich der bereits dokumentierten Anforderungen mit den Kundenwünschen eingesetzt werden.

Vorgehen

Innerhalb des Projektes wurden automatisiert Datenquellen wie Online Blogs und User Generated Content in Foren und Netzwerken auf Relevanz analysiert. Die datanizing Algorithmen sammelten automatisiert relevante Inhalte zum Thema Elektro-Mobilität und rankten diese nach Relevanz. Mit diesem Verfahren wurden mehr als 1 Mio. deutschsprachiger Beiträge zum Thema Elektromobilität von ca. 12.000 Personen identifiziert. Diese Konversationen enthielten Anforderungen, Problemstellungen und Wünsche der Zielgruppe.

Millionen Posts von Elektromobilitätsbegeisterten nach versteckter Struktur und Trends zu analysieren – das geht nicht ohne fortgeschrittene Technik. Deswegen erfolgte anschließend die Veredelung der Daten mit Machine Learning. Hierzu wurden mit einem Set von Machine Learning Methoden die vorhandenen Datenmengen analysiert und verarbeitet. Dabei wurden unter anderem die KI Methodik des Topic Modelings eingesetzt. Hier werden Topics erstellt, welche die Anhäufung von Wörtern zu einem Thema darstellen. Auch semantische Analysen wurden angewendet.
Die Ergebnisse wurden intuitiv in Dashboards angezeigt. So wurde die Insight Ableitung aus einer Million deutschsprachiger Beiträge Elektromobilitätsbegeisterter für die Fachexperten der 3DSE einfach möglich.

Abbildung 5: Texte automatisch mit KI analysieren.

Ergebnisse

Durch den Einsatz der KI konnten zwei Hauptergebnisse erarbeitet werden: Die Analyse der Onlinebeiträge ergaben einerseits Daten-getriebene Personas sowie Semantische Karten zu den wichtigen Themen der Kunden.
Insbesondere wenn man ganz neue Produkte/Services für Elektromobil-Fans entwickeln möchte, sollte man zunächst wissen, in welche Stereotypen sie zerfallen. Wir müssen verstehen, welche Themen die Menschen bewegen, um die richtigen Produkte für sie zu entwickeln. Dabei können data-driven Personas helfen. Persona Modelle stellen Stereotypen dar. In diesem Fall also, welche Stereotypen sich hinter den Diskussionsteilnehmern aus den einschlägigen Foren verbergen.

Um datengetriebene Personas zu ermitteln, aggregiert ein Verfahren aus unüberwachten Machine Learning Algorithmen eine Millionen Meinungen elektromobil-interessierter Deutscher zu sechs data-driven Personas.
Die folgende Grafik gibt eine Übersicht der ermittelten Personas. Mit Hilfe von Wortwolken werden die Themenschwerpunkte innerhalb der Personas dargestellt. Zusätzlich stellt das Pie-Chart die Häufigkeit und den Anteil der Themen an der gesamten Online-Diskussion dar. So wird die Segmentation der Zielgruppe möglich. Den größten Anteil an der Diskussion hat die Persona 1, die Themen rund um das Finden und Benutzen von Ladesäulen bewegt.

Abbildung 6: Data-driven E-Mobility Personas.

Um herauszufinden, über was diese Personen im Kontext Ladesäulen sprechen, benötigen wir andere Verfahren der Künstlichen Intelligenz und andere Arten der Visualisierung.

Mit Hilfe des durch datanizing entwickelten Verfahrens, das u.a. auf semantischen Embeddings beruht, wurden semantische Karten generiert. Diese Karten stellen einen zentralen Begriff seinen Kontextinformationen in Form einer Mindmap gegenüber. Entlang der Äste wird auf einer metrischen Skala der Zusammenhang zweier Begriffe dargestellt.
Die Darstellung der semantischen Karte zum Thema „Säule“ zeigt einen Überblick, welche Informationen den Menschen in diesem Kontext wichtig sind. Die semantische Karte liefert uns erste Erkenntnisse über Situationen, in der Personen eine Ladesäule benötigen – sie wollen Restaurants besuchen, Einkaufsbummel oder Wanderungen machen und auch bei der Arbeit einen Stellplatz für ihr Elektrofahrzeug vorfinden.

Die nachfolgende Grafik zeigt einen Ausschnitt der semantischen Karte zum Thema Ladesäule.

Abbildung 7: Semantische Karte zum Thema „Ladesäule“.

Online-Quellen bieten eine sehr gute Datengrundlage, um potenzielle Zielgruppen mit deren Erwartungen und Pain Points besser zu verstehen – und die eigenen Produkte darauf auszurichten.
Ehemals nur statische und nur einmal (oder gar nicht) durchgeführte Analysen großer Textmengen können heute dank KI automatisch, regelmäßig und auf Basis noch größerer Datenmengen durchgeführt werden.

Diskussionsthemen und Bedürfnisse ändern sich im Laufe der Zeit. Durch kontinuierliche Beobachtung von Kundengruppen und Hauptinteressen in Online-Quellen wird es möglich frühzeitig zu erkennen, wann welche Themen relevant werden.

Fazit

Künstliche Intelligenz wird seinen Stellenwert als Technologie in Zukunft weiter ausbauen. Dient sie heute als Assistenzfunktion, wird sie in Zukunft als autonomer Entscheider eingesetzt werden können. Zum heutigen Zeitpunkt spricht man von Assisted Intelligence, der Bereitstellung von unterstützender Intelligenz und Automatisierung von sich wiederholenden oder zeitaufwändigen Prozessen. Hierbei kann speziell die Analyse großer Textmengen oder Simulationsprogramme angeführt werden.

Mittelfristig wird die Augmented Intelligence auf uns zukommen. Hier werden Mensch und Maschine noch enger zusammenarbeiten und Entscheidungen treffen. Beispielsweise durch digitale Engineering Assistenten mit generativem Design oder die automatisierte Auswertung von Live Daten und dem Ableiten von Maßnahmen für die Produktentwicklung.

Langfristig gehen Experten davon aus, dass adaptive, kontinuierliche, intelligente Systeme die Entscheidungsfindung übernehmen. Hierbei können als Beispiele autonome Finanz- und Handelsassistenten oder selbstfahrende Systeme angeführt werden.

Jetzt zur F&E Insight einloggen oder registrieren.

Sie haben sich bereits registriert, dann können Sie sich hier direkt einloggen. Oder Sie registrieren sich, falls Sie noch keinen Login haben.

Autor

Marc Fritzen

Marc Fritzen ist Partner bei der 3DSE Management Consultants GmbH in München. Mit mehr als 9 Jahren Erfahrung in der F&E-Beratung treibt er derzeit das Thema agile Skalierung und Transformation von Technologieunternehmen mit. Mit seiner breiten Branchenexpertise in den Bereichen Automotive, Transportation, Industrial, Aerospace & Defence sowie Chemical Tech liegen seine Kernkompetenzen in den Bereichen F&E-Optimierung, Systems Engineering, Requirements Engineering sowie agile Tools und Methoden.