The illusion of simplicity is the magic inside
Good software and good architecture are for me like a symphony. You listen to one great harmonic masterpiece, woven together out of a dens carpet of tones. Nevertheless, is it played by many different musicians and their instruments. It is their duty to have their instrument tuned well and to stay in the conductor beat. They are the experts of their instrument but not the conductor. In my job as a senior principal enterprise architect I strive for the maximum degree of freedom, loose coupling, domain segregation and concentrated expertise within a companies framework.
Johannes Höhne
My name is Johannes Höhne. I am senior principal architect at MT AG which is a software
consultancy agency in the heart of Germany.
My main profession is to help companies with their digital transformation. I see the digitalization
in the first place as an enablement to provide new features to your users or customers as fast as
possible. For this
it is my core believe to limit the number of processes as fare as possible and to foster and
federate the responsibility of the domain experts so that they can work as independent and fast as
possible: Freedom within a framework - This is how symphonies are played.
Whenever you have the feeling that you are stuck in too many meetings, not able to get decisions
fast and have your implementations always late and weak, I would be happy to have a cup of coffee
with you.
Find here some of my blogs I have written out of enthusiasm. Most of them are about my
hobby AI but not enterprise architecture.
As I have written them for fun and with fast fingers, they are in German.
In diesem Blog möchte ich zeigen, dass in einem frustrierten Kunden große Chancen stecken und wie die Deutschen Post den Ball dennoch an die Latte haut.[…]
Enterprise Architecture – das ist doch sowas von 90’er Auf der einen Seite haben Enterprise Architekten im Augenblick keinen guten Ruf. Da gibt es Kosenamen wie: „Architekten im Elfenbeinturm“, „UML Junkies“, „Besserwisser“ oder „Nacheilende Dokumentatoren“. Und dann gibt es auch noch den Traum aller Enterprise Architekten, einmal alle Systeme, deren Use Cases, Interfaces und implementierten […]
Der Betrieb muss aufrecht erhalten bleiben, auch wenn Teile nicht mehr richtig funktionieren. Wenn beispielsweise der Paymentservice eines Online Shops nicht mehr funktioniert, muss der Kunde dennoch in der Lage sein, sich einzuloggen, Produkte zu suchen, sie in seinen Warenkorb zu legen und nachher zu Bestellen. […]
Ein Talk, den ich auf der Data2Day 2019 gehalten habe:
Keras ist ein Python Framework, mit dem
man neuronale Netze zusammenstecken kann. Dafür bietet Keras eine aufgeräumte und fokussierte
API. Die eigentlichen Berechnungen für das neuronale Netz finden dann im unter Keras liegenden
TensorFlow statt. Die Kombination aus Keras und TensorFlow ist so erfolgreich, dass beide
Projekte seit dem Release 1.4 von TensorFlow verschmolzen wurden. Somit ist es Zeit, sich Keras
einmal genauer anzuschauen. Höhne zeigt in seinem Talk den Einstiegspunkt in Keras und
implementiert dazu ein Convolutional Neuronal Network (CNN), das handgeschriebene Ziffern
erkennt. […]
Die KI, die selbständig Bilder, Texte und Musik gestalten kann, nennt sich GAN. Das steht für __G__enerative __A__dversarial __N__etworks, also quasi Kreativität durch sportlichen Ehrgeiz. Obwohl die Erfindung der GAN noch nicht sehr alt ist (2014), hat sie dennoch bereits eine breite Variation von Spezialisierungen auf bestimmte zu generierende Aspekte vorzuweisen. Auch der Generator für das obige Bild wurde nicht „mal eben aus dem Handgelenk geschüttelt“. In ihm stecken sehr viel gesammelte Erfahrung und Wissen. […]
Nachdem ich im ersten Teil den grundlegenden Trick der GAN beschrieben habe, möchte ich hier ein einfaches GAN bauen, das in der Lage ist, die handschriftlichen Ziffern aus der MNIST Datenbank täuschend echt nachzumachen. Ich verwende für diesen „Zaubertrank“ nur die elementaren Zutaten aus der Speisekammer der neuronalen Netze, um mich auf die GAN Spezifika konzentrieren zu können […]
In diesem Blog wird es sehr mathematisch. Wir werden eine Menge ableiten und herleiten. Wenn Du also Freude am Formelnreiten hast, solltest Du Dich an die gute alte Zeit aus dem Mathe LK erinnert fühlen. Mir hat diese Fingerübung so viel Spaß bereitet, dass ich beschlossen habe, diesen kleinen Blog zu schreiben. […]
Eine kuriose Geschichte: Atari Spiele sind Klassiker und ziemlich einfach zu spielen. Doch es ist selbst für Menschen schwer, diese Spiele zu spielen, ohne sie je gesehen zu haben, geschweige denn das Ziel oder die Regeln zu kennen. Genau das kann jedoch mit künstlicher Intelligenz erreicht werden: Die Firma DeepMind hat es geschafft, mithilfe der Bellman Gleichung eine KI zu programmieren, die das Spiel nach einiger Zeit sogar besser spielt als der Mensch. […]
In meinen letzten Blogs habe ich die einzelnen Bausteine eines Convolutional Neuronal Networks beschrieben, das designtechnisch im Jahre 2018 angekommen ist. Auf der Plattform Kaggle.com fand in den letzten Jahren ein Wettstreit statt, handgeschriebene Ziffern per Machine Learning zu erkennen. Der Rekord bei der Trefferrate liegt im Augenblick jenseits der 99,7% aber knapp unter 99,8%.[…]
In diesem kleinen Blog möchte ich zeigen, warum man Bilder augmentieren sollte, und wie man das in Keras macht. […]
Ich habe in meinen letzten Blogs Einstieg in neuronale Netze mit Keras zwei verschiedene Architekturen neuronaler Netzte auf die Sammlung handschriftlicher Ziffern von MNIST losgelassen. Ich möchte hier in diesem Mini Blog einen interessanten Unterschied im Ergebnis der beiden Modelle aufzeigen, nämlich die Trennschärfe […]
In meinem letzten Blog Einstieg in neuronale Netze mit Keras habe ich recht umfassend beschrieben, wie man sich eine „Werkbank“ für die Arbeit mit einfachen neuronalen Netzen zusammen baut. Als Beispiel habe ich die MNIST Datenbank für handschriftliche Ziffern verwendet. Die Genauigkeit der Vorhersage war mit ungefähr 96,5% zwar schon beeindruckend, für die Realität aber völlig unbrauchbar. Die Vorhersagegenauigkeit von Menschen liegt bei diesem Datensatz etwa bei 99,7%. Somit gibt es also noch viel Luft nach oben. Ich will in diesem Blog versuchen mit sehr einfachen Mitteln auf 99,1% Genauigkeit zu kommen. Dies schafft man mit etwas Glück mit einer CNN Netzarchitektur. […]
Hier möchte ich zeigen, wie man einfach und strukturiert in die Welt der neuronalen Netze einsteigt. Im Laufe dieses Blogs werde ich die typischen Schritte von der Datenbeschaffung, deren Bereinigung und Vorbereitung bis hin zum Trainieren und Finalisieren eines DNN (Deep Neuron Network) durchschreiten. […]
Um große Verformungen algorithmisch abbilden zu können, kann man auf die geometrische Nichtlinearität unmöglich verzichten. Der Cauchy-Greensche Verzerrungstensor scheint ein Mittel zu sein, um große Verzerrungen gut beschreiben zu können. Bei sehr großen Verformungen kann ein Zustand angenähert werden, bei dem Dimensionen verloren gehen würden. Man kann einen Würfel beispielsweise so stark zusammendrücken, dass er wie ein zweidimensionaler Gegenstand erscheint. Der Cauchy-Greensche Verzerrungstensor schließt diesen Zustand allerdings per Definition aus und reagiert mit exponentialen Verhalten. Dadurch erhält man Gleichungssysteme mit sehr großen Koeffizienten. Diese Arbeit soll beweisen, dass es dieses Verhalten geben muss und dass die Gruppe der direkten numerischen Gleichungslöser große Schwierigkeiten dabei hat, diese Systeme zu lösen. […]
I'd love your feedback!