Prof. Dr. Bernd Ulmann lehrt an der FOM Hochschule. (Foto: Serdar Dogan/FOM)

Prof. Dr. Bernd Ulmann lehrt an der FOM Hochschule. (Foto: Serdar Dogan/FOM)

Prof. Dr. Bernd Ulmann über die Zukunft analoger Computer

„Die Digitalisierung stößt bei KI an ihre Grenzen“

24.10.2023 | Frankfurt a. M.

Der Siegeszug des Digitalen scheint unaufhaltbar. Dabei könnte der „Digital-Hype“ bald vorbei sein. Die Gründe dafür erläutert Prof. Dr. Bernd Ulmann, der an der FOM Hochschule in Frankfurt lehrt. Der Experte für Analog Computing spricht im Interview über die Grenzen digitaler KI-Algorithmen und wie diese mit einer eingerollten Katze und einem Bagel zusammenhängen. 

Bei Computern denken wir automatisch an digitale Technologien und das Zusammenspiel von Nullen und Einsen. Sie aber beschäftigen sich seit Jahrzehnten mit Analogcomputern. Worin besteht der Unterschied?

Digitalrechner arbeiten einen Algorithmus ab, das heißt, sie folgen einer Reihe von Instruktionen Schritt für Schritt. Prozessor und Speicher sind dabei voneinander getrennt. Das ist etwas, das man in der Natur so nicht findet. Ein Gehirn beispielsweise hat keinen Speicher, sondern ein Netz aus vielen kleinen Rechenelementen namens Neuronen, die schlau miteinander verschaltet sind und parallel arbeiten. Und genau diese Idee verfolgt ein Analogrechner: Die meist elektronischen Analogrechner bilden über miteinander verschaltete Rechenelemente ein Modell, mit dessen Hilfe ein Problem gelöst wird.


Die Digitalisierung umfasst mittlerweile so gut wie jeden Lebens- und Arbeitsbereich. Sie aber sagen: Die Zukunft ist analog. Warum?

Große Unternehmen wie IBM oder Microsoft haben bereits erkannt, dass das digitale Rechnen an physikalische Grenzen stößt. Schaltkreise auf immer kleiner werdenden Chips unterzubringen, wird bald nicht mehr möglich sein, da wir in Größenbereichen von Atomen angekommen sind. Analogrechnen ist technologisch viel einfacher. Aus Sicht des Mathematikers oder Physikers sind die elektrischen Vorgänge sehr viel anschaulicher als das, was wir mit den Digitalrechnern machen. Analogrechner ermöglichen zudem irrsinnig hohe Rechenleistungen mit erstaunlich wenig Energieaufwand.


Insbesondere die Verwendung Künstlicher Intelligenz etwa für Trainingseinheiten von Sprachmodellen verbraucht viel Energie durch Rechenleistung. Welche Rolle spielt KI bei einer Renaissance der Analogcomputer?

Die Digitalisierung stößt bei KI an ihre Grenzen. Die derzeitigen Sprachmodelle kreieren nette Zirkuskunststücke, aber diese enden bereits bei einfachen Rechenanforderungen. ChatGPT versteht nicht, was es tut, es wendet nur Statistik an und fabuliert dann. Wir sind also weit davon entfernt zu verstehen, wie biologische Intelligenz wirklich funktioniert. Eine KI braucht hunderttausende Trainingssätze, um eine eingerollte Katze von einem Bagel zu unterscheiden. Das ist Quatsch, nichts in der Natur lernt auf diese Weise. Mit analogen Implementationen sind wir viel näher dran nachzubilden, was ein Gehirn wirklich ausmacht.



Wo könnten analoge Technologien konkret einen Mehrwert schaffen?

Neben Anwendungen in der Künstlichen Intelligenz werden es solche Technologien beispielsweise möglich machen, medizinische Implantate zu entwickeln, die ihre Energie direkt aus dem Körper des Trägers gewinnen. Denkbar sind Herz- und Hirnschrittmacher, aber auch Tumor-Monitoring-Systeme. Andere Anwendungen sehe ich im Maschinenbau, wo solche Technologien es ermöglichen, entstehende Schäden zu erkennen, lange bevor sie katastrophale Auswirkungen nach sich ziehen. Über akustische Signaturen lassen sich beispielsweise Ermüdungserscheinungen an Großmaschinenteilen wie Getrieben oder Rotorblättern von Windkraftanlagen erkennen.


Wie wird sich das Analog Computing in Zukunft weiterentwickeln?

Mit moderner Technik können Analogrechner all das, was Digitalrechner groß gemacht hat. Jetzt gilt es, diesen Vorsprung der vergangenen Jahrzehnte aufzuholen. Wir brauchen keine Grundlagenforschung mehr, die Theorie ist längst vorhanden. Jetzt muss das Wissen in Technologien einfließen. Es lohnt sich, in Analog- und Quantencomputer zu investieren, weil sie die Zukunft sind. Wir sind jetzt an dem Punkt, an dem wir fragen müssen: Auf welche Technologie wollen wir künftig setzen? Wir brauchen neue Ansätze, um einen großen Schritt nach vorne zu machen.

 

Gut zu wissen

Mit dem Mechanismus von Antikythera wurde im antiken Griechenland schon um 150 vor Christus der vermutlich erste analoge Rechner genutzt. Das Gerät konnte zur Ermittlung von Mond- und Sonnenfinsternissen eingesetzt werden. Digitale Technologien setzten sich dagegen erst in den 1970ern entscheidend durch. Laut Prof. Ulmann lag das damals vor allem in den geringeren Kosten digitaler Chips begründet.

Zur Person

Seinen ersten Lötkolben bekam Prof. Dr. Bernd Ulmann zu seinem sechsten Geburtstag geschenkt. An und zu Analogcomputern tüftelt und forscht er seit seinen Teenagerjahren. Inzwischen zählt er zu den renommiertesten Stimmen im Bereich Analog Computing. An der FOM Hochschule lehrt Professor Ulmann im Hochschulbereich IT Management. Neben seiner Lehrtätigkeit gründete er zusammen mit Freunden das Unternehmen Anabrid, das analoge und hybride Computersysteme entwickelt.