KI Glossar

Einige der wichtigsten KI-Begriffe erklärt.
scifi datacentre image
Eine N3XTCODER-Serie

Implementierung von KI für soziale Innovation

Willkommen zur N3XTCODER-Reihe zum Thema „Implementierung von KI für soziale Innovation“.

In dieser Reihe befassen wir uns mit Möglichkeiten, wie künstliche Intelligenz zum Nutzen der Gesellschaft und unseres Planeten eingesetzt werden kann – insbesondere mit dem praktischen Einsatz von KI für soziale Innovationsprojekte.

Überblick

B

Bias einer KI

KI-Algorithmen werden auf Daten trainiert. Wenn diese Daten in irgendeiner Weise verzerrt und nicht vollständig repräsentativ sind, kann dies zu Verzerrungen bei der Ausgabe oder Leistung des Algorithmus führen, einem sogenanntem Bias.

C

Computer Vision

Computer Vision ist ein Bereich der KI, in dem Maschinen visuelle Daten genauso interpretieren und verarbeiten wie Menschen. Das Programm lernt, Muster, Objekte und Szenen in Bildern und Videos zu erkennen. Die Entschlüsselung menschlicher Handschriften auf alten Dokumenten ist ein Beispiel für angewandte Computer Vision. Bilderkennung ist eine Teilmenge der Computer Vision. Es ist neben anderen Aufgaben wie der Objekterkennung, Bildsegmentierung und Mustererkennung eine der Schlüsselanwendungen des Computer Vision.

D

Deep Learning

Deep Learning ist eine Teilmenge des maschinellen Lernens, bei der künstliche neuronale Netze den Lernansatz des menschlichen Gehirns nachahmen. Im Gegensatz zu Shallow Learning, das einfachere Algorithmen verwendet, umfasst Deep Learning komplexe Strukturen mit vielen Schichten, um Daten tiefgreifend zu verarbeiten.

G

Generative KI

Generative KI bezieht sich auf KI, die darauf trainiert wird, neue Ergebnisse zu erzeugen: neue Inhalte, neue Ideen oder neue Datenmuster. Dies steht im Gegensatz zur analytischen KI, die sich auf das Verstehen und Interpretieren vorhandener Informationen konzentriert, anstatt neue Ergebnisse zu generieren.

H

Halluzinationen

Große Sprachmodelle können sehr überzeugende Antworten auf Fragen oder „Eingabeaufforderungen“ generieren, aber manchmal können diese Antworten sachlich falsch sein. Diese falschen Antworten werden oft als „Halluzinationen“ bezeichnet.

Dies liegt daran, dass ein LLM eine Frage nicht auf die gleiche Weise beantwortet wie eine Person. Ein LLM sucht nicht nach einer „richtigen“ Antwort in seinem Datensatz, sondern nach Daten mit ähnlichen Sprachmustern wie die Eingabeaufforderung und kann daraus die Sprachmuster in seinen Daten erkennen, die höchstwahrscheinlich korrekt sind.

Das bedeutet, dass LLMs oft eine Antwort liefern, die einer richtigen Antwort sehr ähnlich ist, aber nicht die richtige Antwort selbst.

Viele KI-Entwickler arbeiten derzeit an verschiedenen Methoden, um die Genauigkeit von LLM-Ergebnissen automatisch zu überprüfen. Das Problem ist jedoch von grundlegender Bedeutung für die Funktionsweise von LLMs und daher sehr schwer zu lösen.

Wenn Sie LLMs verwenden, stellen Sie in der Zwischenzeit sicher, dass eine Person alle Fakten in einer LLM-Antwort auf Fehler überprüft.

I

Inferenz

Inferenz ist der Begriff für die Abfrage von KI. Unter Schlussfolgerung versteht man „eine Schlussfolgerung, die auf der Grundlage von Beweisen und Überlegungen gezogen wird“. Oder wie es der IBM-Blog treffend ausdrückt: „Inferenz ist der Prozess, bei dem Live-Daten durch ein trainiertes KI-Modell laufen gelassen werden, um eine Vorhersage zu treffen oder eine Aufgabe zu lösen.“ Inferenz ist der Moment der Wahrheit eines KI-Modells, ein Test, wie gut es während des Trainings gelernte Informationen anwenden kann, um eine Vorhersage zu treffen oder eine Aufgabe zu lösen“ (https://research.ibm.com/blog/AI-inference-explained)

K

Künstliche Intelligenz (KI)

Künstliche Intelligenz beschreibt eine Reihe fortschrittlicher Computerprozesse, die sich in einem oder mehreren Aspekten wie menschliche Intelligenz zu verhalten scheinen. Ein präziserer Begriff für die meisten KI-Technologien der aktuellen Generation ist „Machine Learning“.

Maschinelle Lernsysteme, oft auch Modelle genannt, werden mit sehr großen Datenmengen, sogenannten Datensätzen, „trainiert“. Bei diesen Datensätzen kann es sich praktisch um jede Art digitaler Informationen handeln – Bilder, Text, Statistiken, Videos.

Maschinelles Lernen funktioniert dabei anders als herkömmliche Computer, bei denen Algorithmen Computern eine Reihe von Anweisungen geben, die sie ausführen müssen. Mit einem maschinellen Lernmodell findet der Computer Zusammenhänge und Muster in den Daten selbst und generiert damit eigene Lösungen für Probleme und Fragen.

Ein Modell für maschinelles Lernen wird normalerweise von Menschen trainiert, die einige der Daten im Datensatz kennzeichnen, damit das Modell verwandte Muster in ihren eigenen Datensätzen und anderen Daten erkennen kann. Wenn beispielsweise ein Modell für maschinelles Lernen trainiert wird, indem Tausende von Fotos von Hunden in seinem Datensatz gekennzeichnet werden, findet es Hunde in anderen Bildern in seinem Datensatz und in jedem anderen mit ihm geteilten Foto eines Hundes.

Modelle für maschinelles Lernen nutzen sehr leistungsstarke Computernetzwerke, die große Datenmengen verarbeiten können, sodass sie fast sofort Muster in Daten finden können, die Menschen allein niemals erkennen könnten.

KI-Detektor-Tools

KI-Detector-Tools identifizieren und analysieren von KI generierte Inhalte. Diese Tools helfen dabei, zwischen von Menschen erstellten und KI-generierten Texten zu unterscheiden und bieten so Einblicke in die digitale Kommunikation in Bezug auf Authentizität und Transparenz.

KI-Textwerkzeuge

KI-Textwerkzeuge ist eine zusammenfassende Bezeichnung für Tools wie chatGTP, Bard und Bing AI, die künstliche Intelligenz nutzen, um nach Aufforderung Text in menschlicher Sprache zu generieren.

L

LLMs

Die neueste Generation textbasierter KI- oder maschineller Lerntechnologien wie ChatGPT und Google Bard werden oft als „Large Language Models“ (LLMs) bezeichnet.

LLMs werden mit riesigen Textmengen aus Büchern, sozialen Medien und dem Internet geschult.

Um ein LLM zu verwenden, stellen Sie normalerweise eine Frage – oder eine „Eingabeaufforderung“ – und es wird eine Antwort generiert. Bis vor kurzem waren LLMs beeindruckend, aber die Antworten, die sie gaben, wurden offensichtlich immer noch von einem Computer generiert.

Das änderte sich mit der Einführung von ChatGPT, schnell gefolgt von Google Bard und einigen anderen LLMs Ende 2022. Diese LLMs können ihre riesigen Datensätze durchsuchen, um aufschlussreiche Antworten zu geben, oft in hervorragender Schriftsprache, sodass es schwierig sein kann, die Antwort zu erkennen wird von einem Computer erzeugt.

LLMs können äußerst nützlich sein, um Texte zu schreiben, Informationen zu recherchieren und zu strukturieren – zum Beispiel Artikel oder E-Mails –, um Pläne und Reiserouten zu erstellen, Recherchen durchzuführen und um Computercode zu schreiben, neben vielen anderen Zwecken.

Aufgrund der Funktionsweise von LLMs können die Antworten, die sie geben, jedoch oft sachlich falsch sein, selbst wenn sie überzeugend aussehen. Diese falschen Antworten werden manchmal „Halluzinationen“ genannt.

M

Maschinelles Lernen

Eine Teilmenge der KI, die es Systemen ermöglicht, automatisch aus Erfahrungen zu lernen und sich zu verbessern, ohne explizit programmiert zu werden.

Multi-Purpose Modelle

Multi-Purpose Modelle sind vielseitige Algorithmen, die für die Bewältigung einer Vielzahl von Aufgaben entwickelt wurden.

Modelle

Modelle in der KI sind algorithmische Strukturen, die darauf trainiert sind, Daten auf eine Weise zu verarbeiten, zu interpretieren und darauf zu reagieren, die die menschliche Entscheidungsfindung nachahmt.

P

Prädiktive Analytik

Die Verwendung von Daten, statistischen Algorithmen und Techniken des maschinellen Lernens, um die Wahrscheinlichkeit zukünftiger Ergebnisse auf der Grundlage historischer Daten zu ermitteln.

Prompt

Um eine Antwort von einem LLM zu generieren, müssen Sie eine Eingabeaufforderung eingeben. Dies erfolgt häufig in Form einer Frage im Klartext. Möglicherweise möchten Sie jedoch spezifische Informationen hinzufügen, z. B. was ein- und ausgeschlossen werden soll, in welchem ​​Stil die Antwort erfolgen soll, wie lang sie sein soll und für wen die Antwort gedacht ist gerichtet ist. Ihre Eingabeaufforderung könnte auch viel größer sein – zum Beispiel ein ganzer Artikel mit 1500 Wörtern, den Sie in einem Tweet zusammenfassen möchten.

Ein wesentlicher Teil der effektiven Nutzung von LLMs besteht darin, Eingabeaufforderungen zu erstellen, die die Reaktion genau auf Ihre Anforderungen zuschneiden. Dies wird oft als „promptes Engineering“ bezeichnet und entwickelt sich schnell zu einer gefragten eigenständigen technischen Fähigkeit.

T

Task Specific Modelle

Task Specific Modelle sind Modelle in der KI, die für die Ausführung einer bestimmten Aufgabe programmiert wurden.

Transferlernen

Transfer Learning ist ein maschineller Lernansatz, bei dem ein für eine Aufgabe entwickeltes Modell als Ausgangspunkt für ein Modell für eine andere Aufgabe wiederverwendet wird.

Z

Zero-shot

Die Fähigkeit eines maschinellen Lernmodells, Daten zu erkennen und zu klassifizieren, die es noch nie zuvor gesehen hat.

War dieser Artikel hilfreich? ja nein