KI-Lexikon

Künstliche Intelligenz verstehen!

Die Welt der Künstlichen Intelligenz ist komplexer denn je. Wir helfen Ihnen dabei, KI zu verstehen und die Begriffe richtig einzuordnen. Dieses KI-Lexikon entwickelt sich stets weiter und wird regelmäßig durch aktuelle Themen erweitert. Schauen Sie deshalb gerne öfter vorbei, um immer auf dem neuesten Stand zu sein.

KI Lexikon

Sie möchten mehr über die KI-Projekte erfahren, die wir bereits erfolgreich umgesetzt haben?

Entdecken Sie viele spannende Blogbeiträge zum Thema Künstliche Intelligenz und Data Science!

Sie interessieren Sich für die individuelle Entwicklung Ihres KI-Projektes? Wir freuen uns auf Ihre Kontaktaufnahme!

Künstliche Intelligenz (KI)

Künstliche Intelligenz (Artificial Intelligence/AI) nutzt Methoden der Mathematik, Statistik, und Informatik, um Maschinen und Software menschenähnliche Fähigkeiten wie das Wahrnehmen von visuellen oder auditiven Reizen, das Erkennen von Mustern und Anomalien, dem Treffen von Entscheidungen, Erstellen von Texten und Prognosen oder das Lösen von komplexen Problemen zu ermöglichen. 

Dabei gibt es unterschiedliche Ansätze und Technologien, von regelbasierten Systemen über maschinelles Lernen zu tiefen künstlichen neuronalen Netzen. Die Anwendungsbereiche sind extrem vielfältig. In der Industrie, im Gesundheitswesen, in Online-Shops oder im Kundenservice – überall werden heutzutage KI-Modelle verwendet. 

Unternehmen nutzen häufig Technologien, die Daten analysieren, Muster erkennen und darauf basierend autonome Entscheidungen treffen oder Empfehlungen geben können. KI kann dazu beitragen, Geschäftsprozesse zu optimieren, die Kundenerfahrung zu verbessern, neue Marktchancen zu erkennen und Kosten zu reduzieren. Es handelt sich um eine transformative Technologie, die, wenn sie richtig eingesetzt wird, Unternehmen einen erheblichen Wettbewerbsvorteil verschaffen kann.

Schwache KI

Schwache KI bezeichnet Systeme, die für eine bestimmte Aufgabe entworfen und entwickelt wurden. Sie besitzen jedoch kein Selbstbewusstsein oder Empathie und können ihre Fähigkeiten nicht auf andere Problembereiche übertragen. Typische Beispiele sind Chatbots, Bilderkennungssysteme oder Sprachassistenten. Diese Systeme können ihre zugewiesenen Aufgaben sehr gut ausführen, sind jedoch außerhalb ihrer Kernaufgabe nicht anpassungsfähig. Diese Art von KI wird durch ein von Menschen bestimmtes Verfahren auf festgelegten Daten trainiert.

Starke KI

Starke KI, auch als allgemeine künstliche Intelligenz (AGI) bezeichnet, beschreibt ein Maschinensystem, das die Fähigkeit besitzt, jegliche geistige Aktivität auszuführen, die ein menschlicher Verstand vollbringen kann. Es handelt sich dabei um eine Form der KI, die nicht nur für spezifische Aufgaben programmiert ist, sondern die Fähigkeit zur autonomen Lernfähigkeit, Problemlösung und Entscheidungsfindung in beliebigen Domänen besitzt. Starke KI wäre in der Lage, unabhängig zu denken, zu lernen und sich anzupassen, ähnlich wie ein Mensch. Im Gegensatz zur schwachen KI, die nur für bestimmte, eng definierte Aufgaben ausgelegt ist, soll starke KI universelle kognitive Fähigkeiten besitzen. Zum aktuellen Stand existiert starke KI noch nicht, bleibt jedoch ein Ziel und eine Herausforderung in der KI-Forschung. 

Die Frage nach dem Zeitpunkt der Entwicklung einer starken KI ist umstritten und bleibt spekulativ.
Experten in der KI-Forschung und verwandten Disziplinen haben unterschiedliche Ansichten und Prognosen variieren stark:

  • Einige glauben, dass AGI innerhalb der nächsten paar Jahrzehnte realisiert werden könnte.
  • Andere sind skeptisch und glauben, dass es viele Jahrzehnte oder sogar länger dauern könnte, bis AGI entwickelt ist.
  • Wieder andere sind der Meinung, dass eine echte AGI möglicherweise nie erreicht wird oder dass die Vorstellung von AGI grundlegend überdacht werden muss.

Generative KI

Generative Künstliche Intelligenz (KI) ist ein fortschrittlicher Zweig des maschinellen Lernens, der darauf spezialisiert ist, neue Daten zu erzeugen, die den echten Daten ähnlich sind. Anwendungsbeispiele sind die Erzeugung neuer Bilder (wie bei DALL-E), Musik, Texte (wie GPT-3), oder sogar die Synthese von Medikamentenstrukturen.

Im Gegensatz zur klassischen KI, die Daten analysiert und Vorhersagen trifft, lernt die generative KI die zugrundeliegenden Muster und Verteilungen der Trainingsdaten und nutzt dieses Wissen, um neue, realistische Daten zu erzeugen. Diese Technologie wird häufig eingesetzt, um Bilder, Texte, Musik und sogar komplexe Datenstrukturen wie Medikamentenformeln zu kreieren, die nicht von menschengemachten Erzeugnissen zu unterscheiden sind. Generative KI-Modelle wie Generative Adversarial Networks (GANs) und Variational Autoencoders (VAEs) spielen eine Schlüsselrolle in dieser Entwicklung.

Im Gegensatz zur klassischen KI, die auf Entscheidungsfindung und Mustererkennung ausgerichtet ist, eröffnet die generative KI kreative und innovative Anwendungsmöglichkeiten, indem sie einzigartige Inhalte erzeugt. Ein wesentlicher Vorteil der generativen KI ist ihre Fähigkeit, die Grenzen der Datenverfügbarkeit zu erweitern, indem sie realistische Daten für Trainingszwecke generiert, wo echte Daten nicht verfügbar oder zu sensibel sind.

Generative KI-Modelle können allerdings auch unerwartete oder unerwünschte Ergebnisse erzeugen, was eine kontinuierliche Überwachung und Feinabstimmung erforderlich macht. Wenn die Trainingsdaten verzerrt oder voreingenommen sind, können die von der generativen KI erstellten Ausgaben diese Verzerrungen widerspiegeln, was zu unfairen oder diskriminierenden Ergebnissen führen kann.

Data Science

Data Science ist ein interdisziplinärer Bereich, der sich mit der Extraktion, Analyse und Interpretation von Daten beschäftigt. Das Ziel von Data Science ist es, nützliche Erkenntnisse aus Daten zu gewinnen, um fundierte Entscheidungen zu treffen und Prozesse zu optimieren. Der Prozess der Datenanalyse umfasst das Sammeln, Bereinigen, Transformieren, Visualisieren und Modellieren von Daten.

Data Science ist ein wichtiger Bestandteil vieler Branchen, von der Finanzindustrie bis zur Medizin. Unternehmen nutzen Data Science, um Kundenbedürfnisse besser zu verstehen, Marketing-Kampagnen zu optimieren, Risiken zu bewerten und Prozesse zu automatisieren. Auch im Bereich der Künstlichen Intelligenz spielt Data Science eine wichtige Rolle.

Ein Data Scientist verfügt über Kenntnisse in Mathematik, Statistik, Programmierung und Datenvisualisierung. Darüber hinaus ist es wichtig, sich umfassendes Domänenwissen in dem Anwendungsbereich anzueignen. Es gibt viele Werkzeuge und Technologien, die von Data-Science-Experten verwendet werden, wie zum Beispiel Python, R, SQL, relationale Datenbanken, Python Packages wie Pandas, Scikit Learn, PyTorch und Visualisierungshilfen wie Ploty oder Tableau. Abzugrenzen ist Data Science von dem sogenannten Data Engineering.

Data Engineering

Der Aufbau und die Wartung von Datenspeicher- und  Datenmanagement-Infrastruktur  sind wichtige Aufgaben eines Data Engineers. Sie entwickeln Schnittstellen und kümmern sich um Datenschutz und Datensicherheit. 

Data Engineers haben meistens einen Hintergrund in der Softwareentwicklung und verfügen über gute Kenntnisse von Datenbanken, Software Architektur und Cloud Computing. Data Engineering bildet die Grundlage für die Analyse von Datensätzen und Data Science sowie die Operationalisierung von KI-Anwendungen.

Data Science vs
Data Analysis vs
Data Engineering

Data Science, Data Analysis und Data Engineering sind eng miteinander verwandte Disziplinen, die jeweils verschiedene Aspekte der Datenanalyse und -verarbeitung abdecken.

Hier sind die wichtigsten Unterschiede zwischen diesen drei Bereichen:

  1. Data Science: Data Science ist eine interdisziplinäre Disziplin, die sich auf die Extraktion von Wissen aus Daten konzentriert. Data Scientists nutzen Techniken und Tools aus Bereichen wie Mathematik, Statistik und Informatik, um komplexe Datenprobleme zu lösen. Darüber hinaus ist spezifisches Domänenwissen für die richtige Interpretation der Daten und Ergebnisse  erforderlich.
  2. Data Analysis: Data Analysis konzentriert sich darauf, Muster mit Hilfe von Daten zu identifizieren. Datenanalysten nutzen statistische Methoden, um sie zu untersuchen und Erkenntnisse zu gewinnen. Die Ergebnisse der Analyse können verwendet werden, um Geschäftsprozesse zu optimieren und fundierte Entscheidungen zu treffen.
  3. Data Engineering: Data Engineering befasst sich mit der Speicherung, Verarbeitung und Verwaltung von Daten. Data Engineers entwerfen und verwalten Daten-Infrastrukturen, die in der Lage sind, große Mengen an Daten effizient zu verarbeiten. Sie arbeiten eng mit Data Scientists und Data Analysts zusammen, um sicherzustellen, dass die Daten in einer geeigneten Form vorliegen.

Jede Disziplin hat ihre eigenen Techniken, Werkzeuge und Anwendungen. Ein erfolgreiches Datenmanagement erfordert ein tiefes Verständnis aller drei Disziplinen.

Data Mining

Data Mining beschäftigt sich mit dem Erkennen von bisher unbekannten Strukturen und Mustern in Daten, die der Mensch nicht mehr durch herkömmliche Analysen erkennen kann, weil die Datenmenge zu groß und unübersichtlich oder die Abhängigkeiten innerhalb der Datenpunkte zu komplex sind.

Machine Learning (Maschinelles Lernen/ML)

Maschinelles Lernen (ML) ist ein Teilbereich der künstlichen Intelligenz (KI), der sich darauf konzentriert, Systemen das Erlernen von Mustern und  Zusammenhängen aus Daten zu ermöglichen, ohne dass die zugrundeliegenden Regeln explizit programmiert werden müssen. Durch den Einsatz von Algorithmen und statistischen Modellen kann ein ML-System, basierend auf einer großen Anzahl historischer Daten, Vorhersagen  oder Entscheidungen für neue Daten, die es noch nie zuvor gesehen hat, treffen.

Ziel des maschinellen Lernens ist es, die Generalisierung von Daten zu ermöglichen, sodass das System in der Lage ist, auf unbekannte Daten sinnvoll zu reagieren. Es stellt den Kern vieler moderner KI-Anwendungen dar, von der Bild- und Spracherkennung bis hin zu Empfehlungssystemen und autonomem Fahren.

Deep Learning

Deep Learning ist ein spezialisiertes Gebiet des maschinellen Lernens, das tiefe neuronale Netzwerke verwendet. „Tief“ bezieht sich hier auf die Anzahl der Schichten im Netzwerk. Mit Deep Learning können komplexe Muster erkannt werden. Allerdings werden für das Training auch sehr große Datenmengen benötigt. Es treibt viele fortschrittliche KI-Anwendungen an, einschließlich autonomer Fahrzeuge und Echtzeit-Sprachübersetzung. Wichtige Grundlage liefert dabei die immer größeren Rechenleistungen von Computern und weitverbreiteter Cloudlösungen.

Künstliche
neuronale Netze

Neuronale Netzwerke sind ML-Modelle, inspiriert von der Struktur des menschlichen Gehirns. Sie bestehen aus Schichten von Neuronen, die miteinander verbunden sind. Diese Netzwerke können sehr komplexe Muster in großen Datenmengen erkennen. Sie sind die Grundlage für Deep Learning und werden in vielen Anwendungen wie Bild- und Spracherkennung eingesetzt.

Algorithmen

Ein Algorithmus ist eine festgelegte Reihe von Anweisungen zur Lösung eines Problems. Im Kontext von KI und ML sind Algorithmen die „Rezepte“, die Maschinen folgen, um Daten zu verarbeiten, Muster zu erkennen und Vorhersagen oder Entscheidungen zu treffen.

Datenanalyse

Datenanalyse bezieht sich auf den Prozess, Daten zu sammeln, zu verarbeiten und daraus nützliche Informationen zu gewinnen. In der KI wird Datenanalyse oft verwendet, um Trainingsdaten für KI-Methoden vorzubereiten oder um die Qualität eines KI-Modells zu überprüfen.

Robotik

Robotik ist das interdisziplinäre Studienfeld, das sich mit dem Entwurf, der Herstellung und dem Einsatz von Robotern beschäftigt. Roboter sind automatisierte Maschinen, die Aufgaben in einer Vielzahl von Umgebungen und Anwendungen ausführen können. Dieses Fachgebiet kombiniert Elemente der Elektrotechnik, Mechanik, Informatik und Künstlichen Intelligenz. Ziel der Robotik ist es, Maschinen zu entwickeln, die den Menschen in verschiedenen Tätigkeiten unterstützen oder seinen Tätigkeitsbereich erweitern können. Wenn Roboter mit KI-Techniken ausgestattet werden, können sie autonomer agieren, ihre Umgebung besser wahrnehmen und komplexe Entscheidungen treffen. Ein gutes Beispiel dafür sind selbstfahrende Autos, die sowohl Robotik (Bewegung, Sensoren) als auch KI (Bilderkennung, Entscheidungsfindung) verwenden.

KI erweitert die Anwendungsmöglichkeiten von Robotern erheblich. Während ein einfacher Roboter vielleicht nur in der Lage ist, eine spezifische, wiederholbare Aufgabe in einer kontrollierten Umgebung auszuführen, kann ein KI-gesteuerter Roboter in variablen Umgebungen arbeiten, menschliche Interaktionen verstehen und auf unvorhersehbare Hindernisse reagieren.

Zusammenfassend lässt sich sagen, dass die Robotik die „physische“ Seite der Automatisierung darstellt, während die KI die „kognitive“ Seite repräsentiert. Zusammen bieten sie das Potenzial, Maschinen zu schaffen, die sowohl physisch als auch kognitiv in der Lage sind, eine Vielzahl von Aufgaben in komplexen Umgebungen autonom auszuführen.

Computer Vision

Computer Vision, zu Deutsch „Maschinelles Sehen“, ist ein Fachgebiet der Künstlichen Intelligenz und Informatik, das darauf abzielt, Computern die Fähigkeit zu verleihen, Informationen aus visuellen Daten zu extrahieren und zu interpretieren – sei es aus Bildern, Videos oder in Echtzeit erfassten visuellen Szenen.

Das Hauptziel von Computer Vision ist es, Maschinen zu ermöglichen, ähnliche visuelle Wahrnehmungsfähigkeiten zu entwickeln wie Menschen, um Objekte zu erkennen, Szenen zu analysieren und Entscheidungen basierend auf diesen visuellen Daten zu treffen. Anwendungen von Computer Vision reichen von Gesichts- und Objekterkennung über medizinische Bildanalyse bis hin zu autonomen Fahrzeugen und Augmented Reality. Häufig werden auch Problemstellungen aus der Bildverarbeitung zu diesem Fachgebiet gezählt, wie zum Beispiel Rauschunterdrückung, Inpainting oder die Bestimmung von optischem Fluss.

Predictive Analytics

Predictive Analytics (Vorausschauende Analyse) bezeichnet den Prozess des Einsatzes statistischer Algorithmen und maschinellen Lernens, um basierend auf historischen Daten Vorhersagen über zukünftige Verläufe zu machen. Das Ziel von Predictive Analytics ist es, über das, was in der Vergangenheit geschehen ist, hinauszugehen und eine bestmögliche Einschätzung darüber abzugeben, was in der Zukunft geschehen wird. Es wird in vielen Branchen verwendet, um Risiken und Chancen zu erkennen und Entscheidungsprozesse zu unterstützen, beispielsweise in der Finanzbranche, im Gesundheitswesen, im Marketing und im Einzelhandel.

Prescriptive Analytics

Prescriptive Analytics (Vorschreibende Analyse) geht über Predictive Analytics hinaus und befasst sich nicht nur mit der Vorhersage von zukünftigen Ereignissen, sondern auch mit der Empfehlung von Handlungsweisen, um diese vorhergesagten Ereignisse zu nutzen oder möglichen negativen Ergebnissen entgegenzuwirken. Es nutzt Algorithmen, maschinelles Lernen, Geschäftsregeln und computergestützte Modelle, um Entscheidungsträger bei der Auswahl der besten Handlungsalternative zu unterstützen.

Während Predictive Analytics also sagt: „Basierend auf diesen Daten wird wahrscheinlich X passieren“, sagt Prescriptive Analytics: „Basierend auf diesen Daten wird wahrscheinlich X passieren, und das sollten Sie tun, um das gewünschte Ergebnis Y zu erzielen oder unerwünschte Folgen zu vermeiden.“

Prescriptive Analytics kann in einer Vielzahl von Bereichen, einschließlich Finanzen, Gesundheitswesen, Einzelhandel und Logistik, eingesetzt werden, um komplexe Entscheidungsprozesse zu optimieren und die bestmöglichen Ergebnisse zu erzielen.

Big Data

Big Data, auch Massendaten genannt, ist ein Begriff, der sich auf Datensätze bezieht, die so groß und komplex sind, dass sie nicht mehr mit traditionellen Softwareanwendungen zur Datenanalyse verarbeitet werden können.

Cloud-Computing

Cloud-Computing ermöglicht das Speichern und Verarbeiten von Daten in entfernten Rechenzentren. Viele KI-Anwendungen nutzen Cloud-Computing, um auf große Mengen an Rechenleistung und Speicher flexibel zuzugreifen.

Chatbots

Chatbots sind Programme, die eine Konversation mit Menschen simulieren können, oft durch Text oder Spracheingabe. Sie nutzen Methoden des Natural language processing (NLP), um Fragen zu verstehen und darauf zu antworten.

Bias in KI

Bias (Voreingenommenheit) in KI tritt auf, wenn ein Modell ungenaue oder verzerrte Vorhersagen macht. Dies tritt häufig auf, wenn die Trainingsdaten nicht repräsentativ für die Realität sind und beispielsweise etwas über- oder unterrepräsentieren, oder der Datensatz sogar unvollständig ist. Dies kann zu ungerechten oder diskriminierenden Ergebnissen führen.

Python

Ist eine Programmiersprache, die bei Anwendungen im Bereich von KI sehr häufig verwendet wird und die eine große Auswahl an Open-Source Bibliotheken bietet. Die Kombination aus einfacher Syntax, Vielseitigkeit und einer starken Community hat Python zu einer der beliebtesten Programmiersprachen der Welt gemacht.

Zeitreihenvorhersage

Eine Zeitreihe ist eine Folge von Daten, die zu bestimmten Zeitpunkten gemessen und chronologisch angeordnet werden. Für die Analyse dieser Zeitreihen werden Methoden verwendet, die bei ihrer Interpretation helfen und die es ermöglichen, repräsentative Informationen über die zugrunde liegenden Beziehungen zwischen den Daten der Reihe oder mehrerer Reihen zu gewinnen und die Daten für die Zukunft vorherzusagen.

Natural Language Processing

Die Verarbeitung natürlicher Sprache (Natural Language Processing) ist ein Teilgebiet der Künstlichen Intelligenz und der Linguistik, das sich mit der Interaktion zwischen Computern und menschlicher Sprache beschäftigt, um Schlüsse aus gesprochener oder geschriebener Sprache zu ziehen.

NLP ermöglicht Maschinen, menschliche Sprache zu verstehen und darauf zu reagieren. Dies umfasst sowohl das geschriebene als auch das gesprochene Wort. Anwendungen von NLP sind Chatbots, Übersetzungssoftware und Sprachassistenten.

Objekterkennung

Objekterkennung ist die Fähigkeit eines Computerprogramms, ein bestimmtes Objekt, Muster oder Lebewesen innerhalb eines Bildes zu erkennen und teilweise darüber hinaus auch zu lokalisieren. Es geht darum, maschinellen Systemen die Fähigkeit zu verleihen, verschiedene Objekte innerhalb eines Bildes zu „sehen“, ihre Positionen zu bestimmen und sie bestimmten Kategorien zuzuordnen.

Typischerweise liefert ein Objekterkennungssystem nicht nur die Klassifizierung des Objekts (z.B. „Hund“, „Auto“, „Person“), sondern auch Informationen über dessen Position im Bild, häufig in Form eines umgebenden Rechtecks (Bounding Box) oder einer Segmentierungs Maske, die alle zum Objekt gehörenden Bereiche im Bild markiert. Dies unterscheidet die Objekterkennung von der reinen Bildklassifikation, bei der lediglich das Vorhandensein oder Fehlen eines Objekts in einem Bild bestimmt wird, ohne dessen genaue Position zu lokalisieren.

Topic Modeling

Wenn Computersysteme durch probabilistische Modelle abstrakte Themen oder Schlüsselbegriffe in einer Rede, Text, Dokument oder einer anderen Form von natürlicher Sprache ableiten, spricht man von Topic Modeling.

Trainingsdaten

KI-Trainingsdaten sind spezifische Datensätze, die dazu verwendet werden, Modelle des maschinellen Lernens zu trainieren. Diese Daten ermöglichen es dem Modell, Muster und Zusammenhänge zu erkennen, sodass es später in der Lage ist, Vorhersagen zu treffen oder bestimmte Aufgaben auszuführen.

Einige Schlüsselpunkte zu KI-Trainingsdaten:

  • Art des Trainings: Trainingsdaten können für supervised (überwachtes), unsupervised (unüberwachtes) oder semi-supervised  (halb überwachtes) Lernen verwendet werden. Beim überwachten Lernen beinhalten die Daten sowohl Eingabevariablen als auch die korrekten Zielwerte, sog. Label, während beim unüberwachten Lernen nur die Eingabevariablen vorhanden sind.
  • Qualität: Die Qualität der Trainingsdaten ist entscheidend für die Leistungsfähigkeit eines ML-Modells. Unvollständige, fehlerhafte oder verzerrte Daten können zu fehlerhaften oder verzerrten Modellen führen.
  • Datenbereinigung: Es ist oft notwendig, die Daten zu bereinigen und vorzubereiten, bevor sie für das Training verwendet werden. Dies kann das Entfernen von Duplikaten, das Füllen von fehlenden Werten oder das Umwandeln von Daten in ein geeignetes Format beinhalten.
  • Diversität: Für eine umfassende Modellleistung ist es wichtig, dass die Trainingsdaten eine gute Abdeckung der möglichen Eingabevarianten bieten. Ein Modell, das nur auf einer eingeschränkten oder einseitigen Datenmenge trainiert wurde, kann in realen Anwendungen schlecht abschneiden.
  • Datenschutz: Bei der Verwendung von personenbezogenen Daten für das Training ist es entscheidend, Datenschutzbestimmungen und -ethik zu beachten.

In vielen KI-Projekten stellt das Sammeln, Vorbereiten und Verwalten von Trainingsdaten einen bedeutenden Aufwand dar, da die Qualität und Relevanz dieser Daten direkt die Effektivität und Genauigkeit des trainierten Modells beeinflusst.

Testdaten

Daten, die ein trainierter Algorithmus noch nicht verarbeitet hat und mit deren Hilfe man die Güte des Algorithmus testet.

Supervised learning (Überwachtes Lernen)

Beim überwachten Lernen werden Algorithmen mit einem Datensatz trainiert, der sowohl Eingabedaten als auch die korrekten Zielwerte (Label) enthält. Der Algorithmus lernt, einen Zusammenhang zwischen Eingangsdaten und Zielwerten herzustellen und Vorhersagen basierend auf diesen Daten zu machen.

Unsupervised learning (Unüberwachtes Lernen)

Im Gegensatz zum überwachten Lernen gibt es beim unüberwachten Lernen keine vorgegebenen Antworten. Stattdessen versucht der Algorithmus Muster oder Strukturen in den Daten selbstständig zu erkennen, z.B. durch Clustering.

Semi-supervised learning (Halbüberwachtes Lernen)

Bei dieser Mischform zwischen supervised und unsupervised learning kommen sowohl gelabelte als auch ungelabelte Daten zum Einsatz. Diese Form des Lernens bietet den Vorteil, dass nur relativ wenige, der häufig schwierig zu beschaffenden, gelabelten Daten benötigt werden. Eine mögliche Technik des semi-supervised learning ist es, das Modell zunächst nur auf dem gelabelten Teil der Daten zu trainieren, und es im Anschluss seine Kenntnisse mithilfe der ungelabelten Daten verfeinern zu lassen. Dies wird umgesetzt indem das Modell zuerst Label für diesen neuen Teil der Daten vorhersagt, und die Beispiele bei denen es sich besonders sicher ist, als neue Trainingsdaten verwendet werden.

Reinforcement Learning (Bestärkendes Lernen)

Bestärkendes Lernen ist ein Ansatz, bei dem Modelle mit einer Simulation oder der echten Welt interagieren und durch Belohnungen (oder Strafen) lernen, eine Aufgabe zu erfüllen. Es wird oft in der Robotik und der Spieltheorie verwendet. Hier finden Sie einen Blogbeitrag zur Anwendung von Reinforcement Learning.

Modellvalidierung

Nach dem Training des Algorithmus wird mithife von Daten, die im Training nicht genutzt wurden (sog. Testdaten), die Güte des fertigen Modells beurteilt, indem dessen Genauigkeit auf den Testdaten bestimmt wird.

Mean Absolute Error (MAE)

ist eine statistische Messgröße, mit der man die Genauigkeit von Prognosen bestimmen kann, indem man die durchschnittliche absolute Abweichung der Vorhersagen von den tatsächlichen Beobachtungen berechnet.

Mean Absolute Percentage Error (MAPE)

ist eine statistische Messgröße, mit der man die Genauigkeit von Prognosen bestimmen kann, indem man die durchschnittliche prozentuale Abweichung der Vorhersagen von den tatsächlichen Beobachtungen berechnet.

Overfitting

Ein KI-Modell ist beim Overfitting so sehr auf die Trainingsdaten angepasst, dass es nicht auf andere Datenbeispiele übertragbar ist und somit eine Verallgemeinerung auf die Realität nicht möglich ist.

Underfitting

Dabei handelt es sich um das Gegenteil von Overfitting. Das trainierte Modell ist zu generalisierend und weist deshalb eine große Fehlerrate bei Trainingsdaten und unbekannten Daten auf.

Sie interessieren Sich für die individuelle Entwicklung Ihres KI-Projektes?
Kontaktieren Sie uns gerne. Wir freuen uns von Ihnen zu hören.

Bringen Sie Ihr Unternehmen auf die nächste Stufe!

Wir entwickeln KI-Lösungen für den innovativen Mittelstand.