Glossar
C
Copilots sind fortschrittliche Tools, die Benutzer bei einer Vielzahl von Aufgaben unterstützen, um Produktivität und Effizienz zu verbessern. Sie setzen auf maschinelles Lernen und große Sprachmodelle, um Nutzeranforderungen zu prognostizieren und fundierte Empfehlungen zu geben. Auf diese Weise werden Interaktionen über eine dialogorientierte Schnittstelle optimiert. KI-Copilots können mit einer breiten Palette von Systemen interagieren. Diese Tools sind nicht auf eine einzige Funktion beschränkt, sondern werden in verschiedenen Bereichen wie Kundenservice, persönliche Assistenz oder Datenanalyse eingesetzt.
D
Decision Intelligence (DI) ist ein computergestützter Prozess, der die Schnelligkeit und Genauigkeit von Entscheidungen auf der Grundlage von Fakten erhöht, statt sich ausschließlich auf Intuition oder Instinkt zu verlassen. Sie integriert eine Vielzahl von Entscheidungsfindungsmethoden mit Operations Research (OR), kontextbezogenem Verständnis und Automatisierung, um präzise und umsetzbare Empfehlungen für Unternehmen zu geben. Diese Empfehlungen sind so konzipiert, dass sie sofort umgesetzt werden können, um Mehrwert zu schaffen.
G
Generative KI bezieht sich auf eine Untergruppe von Technologien und Modellen der künstlichen Intelligenz, die in der Lage sind, auf der Grundlage von Mustern und Informationen, die sie aus bestehenden Datensätzen gelernt haben, neue Inhalte wie Text, Bilder, Musik und sogar Code zu erzeugen. Im Gegensatz zu herkömmlichen KI-Modellen, die für Aufgaben wie Klassifizierung oder Prognosen konzipiert sind, können generative KI-Modelle neue, originelle Ergebnisse erzeugen, die den Stil, die Struktur oder das Format der Eingabedaten, auf denen sie trainiert wurden, nachahmen. sind.
L
Large Language Models (LLM)sind fortschrittliche Systeme der künstlichen Intelligenz, die die menschliche Sprache interpretieren, erzeugen und bearbeiten können. Sie werden anhand großer Textdatenmengen aus dem Internet oder anderen Quellen trainiert, um Muster, Strukturen und Nuancen der Sprache zu lernen. LLMs können eine breite Palette sprachbasierter Aufgaben wie Übersetzung, Zusammenfassung, Beantwortung von Fragen und Erstellung von Inhalten mit einem Grad an Kompetenz ausführen, der manchmal das menschliche Verständnis imitieren kann. Diese Modelle, wie z. B. die GPT-Serie von OpenAI, nutzen Techniken des Deep Learning und verfügen über Milliarden oder sogar Billionen von Parametern, die es ihnen ermöglichen, auf der Grundlage der empfangenen Eingaben kohärente, kontextbezogene Texte zu generieren.
M
Maschinelles Lernen ist ein Bereich der künstlichen Intelligenz, der sich auf die Entwicklung von Algorithmen konzentriert, die in der Lage sind, aus Daten zu lernen und Vorhersagen oder Entscheidungen zu treffen. Dies ermöglicht es Maschinen, Aufgaben auszuführen, ohne dass sie für jeden Schritt explizit programmiert werden müssen. Der Kern des maschinellen Lernens liegt in der Fähigkeit, von vergangenen Daten auf ungesehene, zukünftige Daten zu schließen und so die Leistung bei Aufgaben wie der Verarbeitung natürlicher Sprache, maschineller Bilderkennung oder der prädiktiven Analyse ohne direktes menschliches Eingreifen zu verbessern. Modelle des maschinellen Lernens lassen sich in folgende Kategorien einteilen: überwachtes Lernen, bei dem die Modelle aus gekennzeichneten Daten lernen; unüberwachtes Lernen, bei dem Muster in nicht gekennzeichneten Daten identifiziert werden; und verstärkendes Lernen, bei dem die Modelle durch Trial and Error lernen und für richtige Entscheidungen belohnt werden. Diese Modelle stützen sich auf verschiedene Algorithmen, darunter neuronale Netze zur Mustererkennung und Entscheidungsbäume zur Klassifizierung und Vorhersage von Daten.
N
Neuronale Netze sind fortschrittliche Computermodelle, die von der Architektur und Funktionsweise des Gehirns inspiriert und darauf ausgelegt sind, Muster zu erkennen und Entscheidungen zu treffen. Sie sind in Schichten von Knoten oder Neuronen aufgebaut, die miteinander verbunden sind, um die synaptischen Verbindungen in einem menschlichen Gehirn zu simulieren. Durch einen Prozess, der als „Lernen“ bezeichnet wird, passen diese Netze die Stärke ihrer Verbindungen auf der Grundlage von Eingabedaten an, so dass sie komplexe Aufgaben wie Spracherkennung, Sprachübersetzung und Bildklassifizierung im Laufe der Zeit mit zunehmender Genauigkeit durchführen können. Diese Lernfähigkeit macht neuronale Netze zu einem Eckpfeiler der künstlichen Intelligenz und der Anwendungen des maschinellen Lernens.
O
Operations Research (OR) ist eine akademische Disziplin, die fortschrittliche analytische Methoden zur Verbesserung der Entscheidungsfindung einsetzt. Es befasst sich mit der optimalen Entscheidungsfindung und der Modellierung deterministischer und probabilistischer Systeme und setzt Techniken aus den mathematischen Wissenschaften wie Modellierung, Statistik und Optimierung ein, um optimale oder nahezu optimale Lösungen für komplexe Entscheidungsprobleme zu finden. Durch die Analyse komplexer Situationen zur Ermittlung der besten Vorgehensweise hilft Operations Research Unternehmen bei der effizienten Zuweisung von Ressourcen, der Optimierung der Logistik, dem Risikomanagement und der Verbesserung der betrieblichen Effizienz, wodurch die Produktivität gesteigert und Kosten und Risiken in verschiedenen Sektoren gesenkt werden. Heutzutage wird es in verschiedenen Branchen eingesetzt.
P
Process AI ist die Anwendung von künstlicher Intelligenz zur Optimierung von Geschäftsprozessen. Bei INFORM bedeutet dies in den meisten Fällen die Erweiterung der bewährter entscheidungsintelligenter (Decision Intelligence) Lösungen um lernende, kontextualisierende, interaktive und adaptive KI-Funktionalitäten. Der Begriff ist allerdings keine Wortschöpfung von INFORM allein, sondern schickt sich an, ein Begriff für KI-Lösungen zur Verbesserung und Optimierung von Geschäftsprozessen zu werden, wie zum Beispiel angewandt von SAP signavio, celonis, PEGA Systems oder process.st. Auch engere Definitionen für beschränktere Anwendungen sind im Internet zu finden. Doch selbst in diesen Gruppen gibt es noch keinen Konsens über die Semantik des Begriffs, so dass wir uns herausnehmen, den Begriff mit einer für INFORM passenden Semantik zu belegen. Währen in den letzten Jahren z. B. Bilderkennung (z. B. der Materialprüfung) und Prognose (z. B. von Absatzmengen) zu den typischen Einsatzgebieten von künstlicher Intelligenz gehörten und generative KI intensiv z. B. im Marketing und Controlling verprobt wird, eröffnen die Technologien der künstlichen Intelligenz Möglichkeiten in der Steuerung operativer und taktischer Geschäftsprozesse, die darüber weit hinausgehen.
Process Mining bezeichnet eine Reihe von Techniken zur Analyse von Ereignisdaten mit dem Ziel, betriebliche Geschäftsprozesse zu verstehen und zu verbessern. Bei diesem datengesteuerten Ansatz werden Ereignisprotokolldaten aus IT-Systemen eines Unternehmens in eine aussagekräftige Darstellung („digitaler Zwilling“) der tatsächlichen Geschäftsprozesse umgewandelt. Durch die Untersuchung der Aufzeichnungen von Start- und Endzeiten von Aktivitäten innerhalb eines Prozesses werden die tatsächlichen Abläufe dieser Prozesse rekonstruiert, um Abweichungen, Engpässe und Optimierungspotenziale aufzudecken. Auf diese Weise können Unternehmen erkennen, wie ihre Prozesse tatsächlich ablaufen und nicht nur, wie sie glauben, dass sie ablaufen. Es gibt drei Hauptkategorien von Process-Mining-Techniken: Prozessentdeckung (Erstellung eines Prozessmodells aus Ereignisprotokollen), Konformitätsprüfung (Vergleich eines Ereignisprotokolls mit einem Prozessmodell) und Prozessverbesserung (Erweiterung oder Verbesserung eines bestehenden Prozessmodells). Damit können Unternehmen die betriebliche Effizienz steigern, Compliance sicherstellen und Prozessverbesserungen auf der Grundlage von Fakten statt von Annahmen implementieren, um die Lücke zwischen theoretischen Prozessmodellen und der tatsächlichen Leistung zu schließen.
