Eine weiße Tafel und ein grüner Stift. Zwei zutiefst analoge Dinge reichen Christian Weber aus, um das Wesen einer Künstlichen Intelligenz (KI) zu erklären. Und so beginnt der Mitgründer des auf KI spezialisierten steirischen Start-ups Leftshift One Kreise aufzuzeichnen. Als ersten Begriff schreibt Weber „AI“ auf die Wand.

AI[Artificial intelligence] Spricht man im englischen Sprachraum und auch unter Entwicklern von AI, hat sich im Deutschen das Kürzel KI für Künstliche Intelligenz durchgesetzt. „KI in Form von regelbasierten Expertensystemen ist mehrere Jahrzehnte alt“, sagt Weber. Technologisch „spannend“ sei KI aber erst mit ihrer Subkategorie „Machine Learning“ geworden.

ML[Machine Learning] Maschinelles Lernen versetzt Computersysteme in die Lage, aus großen Datensätzen selbstständig zu lernen und besser zu werden. Mustererkennung und mathematische Methoden sind zentrale Bausteine. Damit ML funktioniert, muss der Algorithmus zuvor trainiert werden. Entweder mit minimalem menschlichen Aufwand und ungefilterten Eingabedaten [Unüberwachtes Lernen], oder mit zuvor aufwendig händisch vorbearbeiteten Beispieldaten [Überwachtes Lernen]. Nach dem Lernprozess mit den bekannten Datensätzen wird das Modell auf unbekannte Daten angewandt. Um Ergebnisse mit Qualität zu erreichen, finden immer wieder Entwicklungsschleifen statt. Ein Mensch bewertet dabei die Ergebnisse der KI.

Gründer von Leftshift One: Christian Weber und Patrick Ratheiser
Gründer von Leftshift One: Christian Weber und Patrick Ratheiser © KLZ/Richard Großschädl

DL[Deep Learning] Ein Teilbereich von „Machine Learning“ nennt sich „Deep Learning“. Möglich wurde diese Technologie erst dank modernster und besonders leistungsstarker Grafikkarten, wie Christian Weber schildert. Funktioniert bei unstrukturierten Datensätzen deutlich besser als „klassisches“ maschinelles Lernen. DL sucht sich selbst Strukturen. Voraussetzung sind große Datenmengen – und damit einhergehend große Rechenleistungen. Das Training kann Monate dauern. Erst dann werden gute Vorhersagen und Entscheidungen möglich. Liegt die Datenaufbereitung bei klassischem ML überwiegend in Menschenhand, ist das bei DL nicht der Fall. Verwendet wird DL heute primär für aufwendige Bild- und Spracherkennung.

Generative AI[KI, die erschafft] Der populäre Begriff meint eine Anwendung, die auf KI basiert, und Dinge schafft. Egal ob Text, Audio oder Video. Der Chatbot ChatGPT fällt ebenso in diese Kategorie wie Midjourney oder Stable Diffusion, Programme zum Kreieren von Bildern.
LLM [Large Language Model] Das LLM, ein großes Sprachmodell, basiert meist auf Deep-Learning-Technologie. Lernt von großen Datensätzen im Hintergrund und ist final in der Lage, Inhalte zu verstehen. Ein LLM kann Zusammenfassungen schreiben oder auch Vorhersagen treffen. Ein besonders großes und mit extrem viel Ressourcen ausgestattetes Modell ist GPT-4 – das technologische Rückgrat von ChatGPT. Google setzt auf PaLM, der Facebook-Konzern Meta auf LLaMA.

Foundation Model[Die Basis] Am Beginn eines starken KI-Systems steht ein „Basismodell“, wie Christian Weber, bei Leftshift One heute Technikchef, erklärt. Das Start-up selbst greift dabei auf frei zugängliche Open-Source-Modelle zurück und kombiniert diese [Composite AI]. Sprachmodelle etwa greifen im Hintergrund auf Abermillionen, wahlweise mehrere Milliarden, eingespeiste Texte zurück. Dadurch beginnen sie, ein Gefühl für Semantik zu entwickeln. Und wissen statistisch, welche Wörter am wahrscheinlichsten aufeinanderfolgen.

Instruction Training[Frage-Antwort-Paare] „Menschliche Kommunikation ist bei KI der Goldstandard“, sagt Leftshift-One-Chef Patrick Ratheiser. Und: „Man muss mit der KI lernen wie mit einem kleinen Kind“. Gemeint sind damit die Schritte, die auf die Auswahl der Basismodelle folgen und einer KI-Anwendung erst wirklich Kraft verleihen. So kann man KI für spezielle Anwendungsfälle optimieren oder sie fit für den Einsatz in einem bestimmten Unternehmen machen. Einen dieser Schritte der Nachbearbeitung nennt Leftshift One „Instruction Training“. Dabei werden Frage-Antwort-Paare näher analysiert.

RLHF[Reinforcement Learning from Human Feedback] „Bestärkendes Lernen aus menschlicher Rückmeldung“ ist eine weitere Möglichkeit, KI-System zu verbessern. ChatGPT lernt durch menschliche Rückkoppelung etwa, unwahre oder voreingenommene Antworten zu minimieren. Bei Leftshift One werden zurzeit alle „sechs bis acht Wochen“ die Basismodelle nachjustiert oder ausgetauscht.

ChatGPT[Chatbot] Am Ende von derlei Prozessen steht ein Tool á la ChatGPT. „ChatGPT ist ein guter Imitator“, sagt Christian Weber – „der vorgibt, menschlich zu sein“. Wirklich empathisch sei ein Chatbot aber zum jetzigen Stand nicht.

Prompt[Aufforderung] Bei Chatbots wie ChatGPT hängt die Qualität des Ergebnisses stark an der genauen Formulierung der Anfrage, dem Prompt. Populäre Prompts finden sich heute in Online-Sammlungen wie Snackprompt.com wieder.