Software Engineering

Im Internet der Dinge – IoT Conference 2019

Aus meiner stetig wachsenden Begeisterung für Data Science mache ich keinen Hehl. Und obwohl ich bereits seit geraumer Zeit integrative Lösungen für meine Kunden in ihren Projekten umsetze, war ich mir sicher irgendwann dem Kreuzprodukt der Disziplinen zu landen: dem Internet of Things, Internet der Dinge, das IoT – wo alles mit allem vernetzt ist und miteinander kommuniziert.

Um mir einen besseren Einblick zu verschaffen, was aktuell im Trend ist und welche Fragestellungen die Branche dominieren, begab ich mich nach München, um ein Stück vom vernetzten Kuchen zu erhaschen. Über drei Tage hinweg tauchte ich in IoT-spezifischen Themen und wurde dafür mit einigen interessanten Facts überrascht.

Von Containern und Bienenstöcken

Wie so oft führte auch hier der schnellste Weg zum Lernerfolg das Kennenlernen der Technologie über die Praxis. Der erste Tag war ein Workshop zur Orchestrierung von MQTT Clients über den HiveMQ Broker, welcher mit RedHats MiniShift verheiratet wird. Dadurch ermöglichen wir eine über ein Versionierungssystem getrackte Entwicklungsumgebung und können templatebasierte Applikationen erzeugen. Dies gibt uns nicht nur einen automatisch skalierbaren MQTT Broker, sondern auch Optionen für das Monitoring.

Das einzige Problem bestand hier in der Installation von Minishift selbst. Auf meinem Macbook Pro hatte ich als Supervisor mit hyperkit dann doch schnelle(re) Erfolge erzielen können. Wie man generell OpenShift in der abgespeckten Variante (MiniShift) zum Laufen bekommt, kann hier nachgelesen werden.

Im Mittelpunkt stand HiveMQ, der seit Frühjahr diesen Jahres in einer Open Source Variante verfügbar ist (Community Edition). Die zwei größten Features, die man zum Vergleich zur kommerziellen Variante vermissen würde, wären unter anderem das HiveMQ Control Center (zuständig für Logging & Monitoring) sowie das Elastic Clustering (Skalierbarkeit und Hochverfügbarkeit). Als MQTT Broker hat es sich in der Community etabliert und wurde auch in vielen Vorträgen auf der Konferenz als Mittel zur Wahl beschrieben.

Die KI als Moralapostel

Der zweite Tag begann gleich mit einer äußerst spannenden und altbekannten Frage, welche künstliche Intelligenz im Allgemeinen betrifft: wie können wir bei selbst lernenden Maschinen sichergehen, dass ihnen auch unsere moralischen und ethischen Wertvorstellungen antrainiert werden?

Wenn wir im Begriff sind eine KI zu bauen, die mit uns in den Dialog gehen kann, dann ist unsere Anforderung an sie, dass sie in der Lage ist, Emotionen (korrekt) zu verarbeiten. Wie sieht es jedoch um die Bildung einer eigenen Meinung bei KI aus? Diktieren wir nun diesen Bildungsprozess, so entziehen wir der Maschine das Recht auf freie Meinungsbildung – ein Recht, dem wir in unserer modernen Gesellschaft einen enormen Wert beimessen. Daraus ließe sich nun schlussfolgern, dass ebendiese Erfahrungen der Maschine antrainiert werden sollen. Ein Beispiel dafür, was jedoch ohne festgesetzte Grenzen geschehen kann, ließ sich zuletzt an Microsofts Chatbot Tay beobachten.

Der darauffolgende Vortrag war ein Erfahrungsbericht des IoT aus höchst technischer Seite. Der Vortrag hat überraschenderweise aufgezeigt, das MQTT im IoT Umfeld nicht immer die einzige Lösung ist. Je nach Umfeld und Anwendungsfall sind auch klassische REST basierte Nachrichten oder über PubNub denkbar. Ein zentrales Problem lässt sich in der Bereitstellung der Datenübertragung feststellen. Unterschiedliche Funktechnologien und – Anbieter, die in Sachen Energieverbrauch, Abdeckung, Reichweite, Overhead oder Geschwindigkeit konkurrieren und teilweise bereits wieder dem Trend neuer Funktechnologien (beispielsweise Narrowband-IoT, auch NB-IoT genannt) weichen müssen. War letztes Jahr beim letzten großen Test nur etwa 35% des deutschlandweiten Netzes mit NB-IoT abdeckbar, so ermöglichen die großen Funkanbieter – geschätzt bis Ende 2019 – eine 90%-ige Abdeckung. Und selbst dann sind Funktechnologien für Sensoren oft mit laufenden Kosten verbunden – der initiale Preis der SIM Karte ist nicht ausreichend, da auch jährliche laufende Kosten je Sensor berücksichtigt werden müssen – Je nach Anbieter und Technologie 5 bis 40 Euro jährlich je Sensor. Dies verdeutlicht, dass eine Entscheidung zur Strategie und technischem Vorgehen nicht pauschalisiert getroffen werden kann und für unterschiedliche Szenarien und ggf. Branchen separat betrachtet werden muss.

In der Industrie hat sich in der M2M Kommunikation ein Standardmodell etabliert – das OPC UA (Open Platform Communications Unified Architecture). Diese Technologie beschreibt eine Objektmodellierung und -Transport zwischen Maschinen, und ermöglicht untereinander eine schnellere Kommunikation. Bis zu 80% der Zeit wurde für die Datenbereinigung aufgewandt, was nun eingespart wird, da die Daten nun direkt in die Machine Learning Algorithmen eingespeist werden können.

Reden ist Silber, Assistance ist Gold

Wie geht man vor, wenn Digitalisierung erforderlich ist und seit Jahrzehnten nicht angegangen wurde? So erging es einem Unternehmen, welches eines Tages einen Anruf bekam mit der Bitte, ein System aus den 90er Jahren zu vernetzen und von außen messbar zu machen. Der Prozess, proprietäre Technologie in einem geschlossenen System mit moderner Technologie zu vernetzen, wird Retrofitting genannt. Der Aufwand hierfür ist jedoch oft immens: man arbeitet in einer Black Box nach dem altbewährten „Trial and Error“ Verfahren. Diese Herausforderung kann nur bewältigt werden, indem durch ausreichende Vorarbeit (Beschaffung von notwendigen Messgeräten, Handbücher zu Endgeräten, Kabeln, Forenanalysen, etc.) die Hürde auf ein absehbares Maß reduziert werden kann. Somit lässt es sich auch verhindern, dass der Zeitraum zwischen zwei Testfällen nicht auf mehrere Tage resultiert.

Ein sich deutlich abzeichnender Trend liegt im Edge Computing – bis 2025 soll laut Gartner 75% der Daten außerhalb der Cloud erstellt und verarbeitet werden. Daten werden nicht nur lokal generiert, sondern auch lokal gehalten und weiterverarbeitet. Bei Netzwerkproblemen lässt sich auf herkömmlichen Wege eine Verarbeitung der Daten nicht gewährleisten, die Rechenleistung der lokalen Systeme wird nicht vollends ausgeschöpft. Durch diesen Ansatz ist auch bei einem Verbindungsabbruch zur Cloud eine Vollfunktionalität der Endsysteme gewährleistet. Auch Google lagert die Spracherkennung auf lokale Endgeräte aus, um die Performance von Google Assistant um das zehnfache zu verbessern.

Ein erfrischender Impuls kam hier auch zum Internet of Voice mit digitalen Sprachassistenten als prägendes Medium der Kommunikation zwischen Mensch und Netz. Ein Medium, dessen Mehrwert noch nicht komplett erfasst, geschweige denn genutzt wird. Wenn Nutzer mit einem Sprachassistenten in den Dialog treten, so steckt oft ein Intent, also eine Absicht, dahinter. In Zukunft muss es Sprachassistenten möglich sein, diese Absicht zu erfassen und innerhalb des richtigen Kontext mit dem Nutzer interagieren zu können. Dies geht weit mehr hinaus über das simple Text-To-Speech hinaus, da der Assistent nicht nur Dinge suchen und erklären können soll, sondern ebenfalls auch Dinge erledigen. Dies setzt jedoch voraus, dass die Sprechbarkeit der Texte, welche dem Sprachassistenten als Grundlage dienen, auch entsprechend hoch ist. Auch wenn Sprachassistenten bereits vielerorts Einzug in unseren Alltag gefunden haben, so werden sie in naher Zukunft einen disruptiven Einfluss auf andere Eingabequellen nehmen und weitere Geschäftsfelder erschließen können.

Lessons Learned

Trotz einer Vielzahl spannender Vorträge leider nicht das Potenzial zu den innovativen Impulsen für den Endnutzersektor, die ich mir erhofft habe. Wie wird IoT bei uns zu Hause spürbar gemacht – auf der Straße, im Büro, im Supermarkt? Eines lässt sich mit Gewissheit sagen: das IoT ist nach dem World Wide Web das nächste logische Kettenglied der digitalen Evolution, und so schleichend es auch von uns adaptiert wird, so selbstverständlich wird es für die nachkommende Generation der Digital Natives sein, ein überwiegend digital bestimmtes Leben zu führen. In größeren Kreisen gedacht, besitzen wir technologisch mehr Möglichkeiten als je zuvor, mit einer gerade erst zum Leben erwachten Technologie, und Anwendungs- sowie Lösungsfälle, die der menschliche Verstand erst im Begriff zu erfassen ist.