13 empfang reception KI? Mehr Daten und größere Modelle. Und es ist passiert – nicht in Europa, aber in den USA und teilweise in China. Die Entwicklung von Language Models startete 2018 mit meinem Beitrag: LSTM – Long short-term memory (Anm.: langes Kurzzeitgedächtnis). Dann ist man auf Transformer-Technologie umgestiegen. Je- des Jahr kam eine neue Version von Chat- GPT dazu – 2022 waren wir bei GPT-4. Hatte GPT-1 noch 4,6 GB an Daten und 117 Millionen Parameter, waren es 2020 bei GPT-3 nur mehr 753 GB, aber schon 175 Milliarden Parameter. Bei GPT-5 gibt es dazu gar keine Informationen mehr… Das ist eine enorme Entwicklung. In der Phase wurden auch immer mehr Daten mit diesen Modellen bearbeitet. Diese Pha- se ist vorbei und die haben wir in Europa verloren. Wo liegt die Zukunft? Für die nächste Phase haben wir in Linz uns überlegt, was wir tun können. Wir haben eine Firma gegründet, weil wir glauben, dass es wieder eine Opportunity gibt in Europa, die KI zu industrialisieren. Denn das Hochskalieren hat ein Ende – es gibt dann nicht mehr Daten, keine größe- ren Modelle, die Performance-Zuwachs geben. Wir möchten mit der Firma dann KI für Simulationen anbieten. Weitere Anwen- dungen für die Industrie wären dann in den Bereichen Engineering, Robotik, Konstruktion, Design, Automation, Pro- zesskontrolle und Optimierung. Auch xLSTM als neue Scaling-Technologie und europäisches LLM (large language model) sind geplant. Die Gruppe von Johannes Brandstetter arbeitet an Grundlagen-Modellen für Sprache, Vorhersagen von Überflutun- gen und Wetter sowie Protein Design. Da steht eine disruptive Revolution im Bereich von Simulationen im Industrie- Maßstab an. Es geht um Hochskalieren von deep learning models für alltägliche Engineering- und Design-Prozesse. Um Partikel zu simulieren, wird die dis crete element method (DEM) einge- setzt. Mit computational fluid dynamics (CFD) können Flüssigkeiten und Gase (Luft) simuliert werden. Neuronale (KI) Methoden sind 1.000 bis 10.000mal Abbildung 1: Also bitte der KI nicht alles glauben. GPT nach Sepp Hochreiter, also mir suchen lassen. Das Ergebnis hat mich überrascht. Ich sei am 4. Juni in Schär- ding geboren worden. Ich hatte einen Schock und habe sofort meine Mutter angerufen, was sie mir bisher für einen Blödsinn erzählt habe, denn Chat-GPT sagt was anderes. Meine Mutter hat mir hoch und heilig versprochen, dass das, was auch in meinem Pass steht, schon stimmt. Ich soll Chat-GPT nicht glau- ben. Ich habe ein paar andere Sachen rot markiert, die auch nicht stimmen. Da hätte ich ein paar Awards bekommen – leider aber nicht. Inzwischen hoffe ich stark darauf, wenn das irgendwelche Leute sehen und mir diese dann noch verleihen. Sehen Sie selbst. Phasen der Entwicklung Ich glaube, dass es drei Phasen gibt: • Grundlagenforschung • Hochskalierung • Industrialisierung (Industrial KI) Die Abbildung 2 verdeutlicht diese Ent- wicklung. Ausgehend von der Grundla- genforschung gibt es entlang der Linie, die die Zeit darstellt, zuerst sehr viele Metho- den. Dann geht man in das Hochskalie- ren, das heißt, man hat mehr Daten und größere Modelle. Dann schränkt man die Methoden ein. Wenn man dann diese gro- ßen Systeme, sprich Chat-GPT, gebaut hat, dann geht man in die Anwendung. Das ist die Industrialisierung. Wir sind meiner Meinung nach im Mo- ment an der Grenze vom Hochskalieren zur Industrialisierung. Die Individualisie- rung wird dann später kommen. Bei der Industrialisierung gibt es mehr Methoden, weil ich für die verschiedenen Branchen auch verschiedene Aspekte beachten muss, verschiedene Methoden brauche und un- terschiedliche Richtlinien etc. habe. Chat-GPT ist eine Spielerei, damit kann man in der Industrie nichts anfangen. Das ist nicht am Core, am Kerngeschäft. Aber es wird sich ändern. Ein Blick zurück und nach vorne Die Geschichte der Dampfmaschine zeigt mit den drei Phasen eine ähnliche Entwick- lung. Auch der Haber-Bosch-Prozess ist ein Beispiel dafür. Der hat durch die Herstel- lungsmöglichkeit für Kunstdünger die Welt verändert. Denn nur deshalb können wir so viel Lebensmittel produzieren und so viele Menschen in den Städten leben. Nach der Grundlagenforschung, wie man mit Che- mikalien den Boden düngen kann, kam die Hochskalierung durch Fritz Haber. Er hat dafür den Nobelpreis bekommen. Carl Bosch war bei BASF beschäftigt und hat auch einen Nobelpreis bekommen – dann für die Industrialisierung. Ich sehe das gleiche Muster heute bei der KI. Ausgehend von der Grundlagenfor- schung durch Leibniz, Legendre, Gauss und Cauchy über Turing, Rosenblatt und Kelley bis zu Ivakhnenko, Lapa, Amari, Linnain- maa bis zu Fukushima, um nur einige zu nennen. Dann kommt das Scaling up. Wie ich ge- sagt habe, werden die Methoden weniger – hier ist die Konzentration auf die Trans- former-Technologie erfolgt, weil die sehr gut dafür geeignet ist. Was heißt das bei der volume 49 | 01. 2025 ERNÄHRUNG | NUTRITION