Large Language Modelle, was die meisten unter Künstlicher Intelligenz (KI) verstehen, haben ein tiefes Verlangen danach, auf Eingaben mit passenden Ausgaben zu reagieren. „Verlangen“ mag übertrieben klingen, aber es ist die Natur der Sache: Ein riesiger Wissensspeicher, der auf nahezu jede Eingabe eine Antwort generieren kann. Und das in unzähligen Formen – sei es Text, Bilder, Videos oder sogar Programmcode und maschinenlesbare Daten.
Warum spielt das plötzlich eine so große Rolle?
Wir verbringen immer mehr Zeit damit, KI-Systemen den bestmöglichen Kontext zu liefern, damit sie die bestmögliche Antwort liefern. Das hat sogar zur Entstehung neuer Berufsgruppen wie dem „Prompt-Engineering“ geführt. Dabei gilt stets die Faustregel: Guter Input rein, guter Output raus.
Aber wenn wir von KI sprechen, denken die wenigsten an die Buchhaltungssoftware, den Social-Media-Manager, die Musiksoftware oder gar den Backofen. Und doch sind sie alle auf ihre Weise „intelligent“ – denn sie kennen ihren Kontext oft besser als der Mensch selbst.
Der Wert von Kontext in der Intelligenz
Das Entscheidende ist nicht die Intelligenz an sich, sondern die Fähigkeit, in einem bestimmten Kontext sinnvoll zu agieren. Eine spezialisierte Buchhaltungssoftware kennt steuerliche Vorschriften und Buchungsregeln, ein Social-Media-Manager weiß, wann welcher Content am besten performt, und ein smarter Backofen erkennt, welche Temperatur für welches Gericht optimal ist. Diese Systeme müssen nicht allgemeine Fragen beantworten oder abstrakte Konzepte verstehen – sie sind in ihrem jeweiligen Bereich kontextualisiert intelligent. Deshalb sind Softwarehersteller gefragt, ihre Anwendungen so zu gestalten, dass sie den spezifischen Kontext ihrer Nutzer optimal erfassen und KI passend für intelligente Verarbeitung nutzen können.