Algorithmen für maschinelles Lernen

Algorithmen für maschinelles Lernen sind Rechenmodelle, die es Computern ermöglichen, Muster zu verstehen und auf der Grundlage von Daten Vorhersagen zu treffen oder Urteile zu fällen, ohne dass eine explizite Programmierung erforderlich ist. Diese Algorithmen bilden die Grundlage moderner künstlicher Intelligenz und werden in einer Vielzahl von Anwendungen eingesetzt, darunter Bild- und Spracherkennung, Verarbeitung natürlicher Sprache, Empfehlungssysteme, Betrugserkennung, autonome Autos usw.

Das Algorithmen für maschinelles Lernen Der Artikel behandelt alle wesentlichen Algorithmen des maschinellen Lernens Unterstützungsvektormaschine, Entscheidungsfindung, Logistikregression, Naive-Bayees-Klassifikator, Random Forest, K-Mean-Clustering, Reinforcement Learning, Vektor, hierarchisches Clustering, xgboost, adaboost, Logistik usw.

Arten von Algorithmen für maschinelles Lernen

Es gibt drei Arten von Algorithmen für maschinelles Lernen.

  1. Überwachtes Lernen
    • Rückschritt
    • Einstufung
  2. Unbeaufsichtigtes Lernen
  3. Verstärkungslernen

Arten von Algorithmen für maschinelles Lernen

1. Überwachter Lernalgorithmus

Überwachtes Lernen ist eine Art maschineller Lernalgorithmus, bei dem wir beschriftete Datensätze zum Trainieren des Modells oder der Algorithmen verwenden. Das Ziel des Algorithmus besteht darin, eine Zuordnung der Eingabedaten zu den Ausgabebezeichnungen zu erlernen, die es ihm ermöglicht, Vorhersagen oder Klassifizierungen für neue, unsichtbare Daten zu treffen.

Überwachte Algorithmen für maschinelles Lernen

  1. Lineares Modell:
    • Rückschritt
      • Gewöhnliche Regression der kleinsten Quadrate
      • Einfache lineare Regression
      • Multiple lineare Regression
      • Polynomielle Regression
      • Orthogonal Matching Pursuit (OMP)
      • Bayesianische Regression
      • Quantilregression
      • Isotonische Regression
      • Schrittweise Regression
      • Kleinste-Winkel-Regression (LARS)
    • Einstufung:
    • Regulierung :
      • Lasso (L1-Regularisierung)
      • Ridge (L2-Regularisierung)
        • Ridge-Regression
        • Ridge Classifier
      • Elastisches Netz
      • LARS Lasso
  2. K-Nächste Nachbarn (KNN):
    • Brute-Force-Algorithmen
    • Ballbaum- und KD-Baum-Algorithmen
    • K-Nearest Neighbors (KNN)-Klassifikator
    • K-Nearest Neighbors (KNN)-Regressor
  3. Support-Vektor-Maschinen:
    • Unterstützt Vector Machines Regressor
    • Verschiedene Kernelfunktionen in SVM
  4. Stochastischer Gradientenabstieg
    • Stochastischer Gradientenabstiegsklassifikator
    • Stochastischer Gradientenabstiegsregressor
    • Verschiedene Verlustfunktionen in SGD
  5. Entscheidungsbaum:
    • Entscheidungsbaum-Algorithmen
      • Iterative Dichotomiser 3 (ID3)-Algorithmen
      • C5. Algorithmen
      • Klassifizierungs- und Regressionsbaum-Algorithmen
    • Entscheidungsbaumklassifikator
    • Entscheidungsbaum-Regressor
  6. Ensemble-Lernen:
    • Bagging (Bootstrap-Aggregation)
    • Erhöhen
      • AdaBoost
      • XGBoost
      • CatBoost
      • Gradient Boosting Machines (GBM)
      • LightGBM
    • Stapeln
  7. Generatives Modell
    • Naiver Bayes
      • Gaußscher naiver Bayes
      • Multinomiale Naive Bayes
      • Bernoulli Naive Bayes
    • Gaußsche Prozesse
      • Gaußsche Prozessregression (GPR)
      • Gaußsche Prozessklassifikation (GPC)
    • Gaußsche Diskriminanzanalyse
      • Lineare Diskriminanzanalyse (LDA)
      • Quadratische Diskriminanzanalyse (QDA)
    • Bayesianische Glaubensnetzwerke
    • Hidden-Markov-Modelle (HMMs)
  8. Zeitreihenprognose:
    • Visualisierung und Analyse von Zeitreihen:
      • Zeitreihenkomponenten: Trend, Saisonalität und Rauschen
      • Techniken zur Zerlegung von Zeitreihen
      • Saisonale Anpassung und Differenzierung
      • Autokorrelation und partielle Autokorrelationsfunktionen
      • Erweiterter Dickey-Fuller-Test
      • Saisonale Zerlegung von Zeitreihen (STL-Zerlegung)
      • Box-Jenkins-Methodik für ARIMA-Modelle
    • Algorithmen zur Zeitreihenvorhersage:
      • Gleitender Durchschnitt (MA) und gewichteter gleitender Durchschnitt
      • Exponentielle Glättungsmethoden (einfach, doppelt und dreifach)
      • Autoregressive (AR) Modelle
      • Modelle mit gleitendem Durchschnitt (MA).
      • Autoregressive Integrated Moving Average (ARIMA)-Modelle
      • Saisonale Zerlegung von Zeitreihen nach Löss (STL)
      • Saisonale autoregressive integrierte gleitende Durchschnittsmodelle (SARIMA).
      • ARIMAX- und SARIMAX-Modelle
  9. Überwachte Dimensionsreduktionstechnik:
    • Lineare Diskriminanzanalyse (LDA)

Einige der überwachten maschinellen Lernalgorithmen können mit ein wenig Modifikation sowohl für die Klassifizierung als auch für die Regression verwendet werden

  • Multiclass- und Multioutput-Algorithmen:
    • Klassifizierung mehrerer Klassen
      • OneVsRest-Klassifikator
    • Multilabel-Klassifizierung
    • Multioutput-Regression

Metriken für Klassifizierungs- und Regressionsalgorithmen:

  • Regressionsmetriken:
    • Mittlerer quadratischer Fehler (MSE)
    • Mittlerer quadratischer Fehler (RMSE)
    • Mittlerer absoluter Fehler (MAE)
    • R-Quadrat
    • Bereinigtes R-Quadrat
  • Klassifizierungsmetriken:
  • Wahrscheinlichkeitskalibrierung
    • Kalibrierungskurven
    • Kalibrieren eines Klassifikators

Kreuzvalidierungstechnik:

  • K-fache Kreuzvalidierung
  • Geschichtete k-Fold-Kreuzvalidierung
  • Weglassen einer einmaligen Kreuzvalidierung
  • Shuffle-Split-Kreuzvalidierung
  • Zeitreihen-Kreuzvalidierung

Optimierungstechnik:

  • Gradientenabstieg
    • Stochastischer Gradientenabstieg
    • Mini-Batch-Gradientenabstieg
    • Impulsbasierter Gradientenabstieg
  • Newton-basierte Optimierungstechniken
    • Newtons Algorithmus
    • Quasi-Newton-Methoden (BFGS, L-BFGS)
    • Konjugierter Farbverlauf
  • Techniken zur Optimierung der lokalen Suche
    • Berg steigen
    • Tabu-Suche

2. Unüberwachter Lernalgorithmus

Unbeaufsichtigtes Lernen ist eine Art maschineller Lernalgorithmus, bei dem die Algorithmen verwendet werden, um die Muster, Strukturen oder Beziehungen innerhalb eines Datensatzes mithilfe eines unbeschrifteten Datensatzes zu finden. Es untersucht die inhärente Struktur der Daten ohne vordefinierte Kategorien oder Beschriftungen.

Unbeaufsichtigte Algorithmen für maschinelles Lernen

  • Clustering
    • Schwerpunktbasierte Methoden
    • Verteilungsbasierte Methoden
    • Konnektivitätsbasierte Methoden
      • Hierarchisches Clustering
        • Agglomeratives Clustering
        • Spaltendes Clustering
      • Affinitätsausbreitung
    • Dichtebasierte Methoden
      • DBSCAN (Density-Based Spatial Clustering of Applications with Noise)
      • OPTIK (Ordnungspunkte zur Identifizierung der Clusterstruktur)
  • Verbandsregel-Mining
    • Apriori-Algorithmus
    • FP-Wachstum (Häufiges Musterwachstum)
    • ECLAT (Äquivalenzklassen-Clustering und Bottom-up-Gitterdurchquerung)
  • Anomalieerkennung:
    • Z-Score
    • Lokaler Ausreißerfaktor (LOF)
    • Isolationswald
  • Technik zur Dimensionsreduktion:
    • Hauptkomponentenanalyse (PCA)
    • t-verteilte stochastische Nachbareinbettung (t-SNE)
    • Nichtnegative Matrixfaktorisierung (NMF)
    • Unabhängige Komponentenanalyse (ICA)
    • Faktorenanalyse
    • Latente Dirichlet-Zuordnung (LDA)
    • Isokarte
    • Lokal lineare Einbettung (LLE)
    • Latente semantische Analyse (LSA)

3. Verstärkungslernen

Verstärkungslernen ist eine Art maschineller Lernalgorithmus, bei dem ein Agent lernt, aufeinanderfolgende Entscheidungen zu treffen, indem er mit seiner Umgebung interagiert. Der Agent erhält das Feedback in Form von Anreizen oder Strafen basierend auf seinen Handlungen. Der Zweck des Agenten besteht darin, durch Versuch und Irrtum optimale Taktiken zu entdecken, die den kumulativen Nutzen im Laufe der Zeit maximieren. Reinforcement Learning wird häufig in Szenarien eingesetzt, in denen der Agent lernen muss, wie man sich in einer Umgebung zurechtfindet, Spiele spielt, Roboter verwaltet oder in unsicheren Situationen Urteile trifft.

Verstärkungslernen

  • Modellbasierte Methoden:
    • Markov-Entscheidungsprozesse (MDPs)
    • Bellman-Gleichung
    • Wertiterationsalgorithmus
    • Monte-Carlo-Baumsuche
  • Modellfreie Methoden:
    • Wertbasierte Methoden:
      • Q-Learning
      • SOSSE
      • Monte-Carlo-Methoden
    • Richtlinienbasierte Methoden:
      • REINFORCE-Algorithmus
      • Schauspieler-kritischer Algorithmus
    • Schauspielerkritische Methoden
      • Asynchronous Advantage Actor-Critic (A3C)

Liste beliebter Algorithmen für maschinelles Lernen

Hier ist eine Liste der 10 beliebtesten Algorithmen für maschinelles Lernen.

1. Lineare Regression

Die lineare Regression ist ein einfacher Algorithmus, der verwendet wird, um die lineare Beziehung zwischen Eingabemerkmalen und einer kontinuierlichen Zielvariablen abzubilden. Dabei wird eine Linie an die Daten angepasst und dann mithilfe der Linie neue Werte vorhergesagt.

2. Logistische Regression

Die logistische Regression ist eine Erweiterung der linearen Regression, die für Klassifizierungsaufgaben verwendet wird, um die Wahrscheinlichkeit abzuschätzen, dass eine Instanz zu einer bestimmten Klasse gehört.

3. SVM (Support Vector Machine)

SVMs sind überwachte Lernalgorithmen, die Klassifizierungs- und Regressionsaufgaben ausführen können. Es findet eine Hyperebene, die Klassen im Merkmalsraum am besten trennt.

4. KNN (K-nächster Nachbar)

KNN ist eine nichtparametrische Technik, die sowohl zur Klassifizierung als auch zur Regression verwendet werden kann. Es funktioniert, indem es die k Datenpunkte identifiziert, die einem neuen Datenpunkt am ähnlichsten sind, und dann die Bezeichnung des neuen Datenpunkts anhand der Bezeichnungen dieser Datenpunkte vorhersagt.

5. Entscheidungsbaum

Entscheidungsbäume sind eine Art überwachter Lerntechnik, die sowohl zur Klassifizierung als auch zur Regression verwendet werden kann. Dabei werden die Daten in immer kleinere Gruppen segmentiert, bis jede Gruppe mit einem hohen Maß an Genauigkeit klassifiziert oder vorhergesagt werden kann.

6. Zufälliger Wald

Random Forests sind eine Art Ensemble-Lernmethode, die eine Reihe von Entscheidungsbäumen verwendet, um Vorhersagen zu treffen, indem sie Vorhersagen einzelner Bäume aggregieren. Es verbessert die Präzision und Belastbarkeit einzelner Entscheidungsbäume. Es kann sowohl für Klassifizierungs- als auch für Regressionsaufgaben verwendet werden.

7. Naive Bayes

Naive Bayes ist ein probabilistischer Klassifikator, der auf dem Satz von Bayes basiert und für Klassifizierungsaufgaben verwendet wird. Dabei wird davon ausgegangen, dass die Merkmale eines Datenpunkts unabhängig voneinander sind.

8. PCA (Hauptkomponentenanalyse)

PCA ist eine Technik zur Dimensionsreduktion, die verwendet wird, um Daten in einen niedrigerdimensionalen Raum umzuwandeln und dabei so viel Varianz wie möglich beizubehalten. Dabei werden die Richtungen in den Daten ermittelt, die die größte Variation aufweisen, und die Daten dann auf diese Richtungen projiziert.

9. Apriori-Algorithmen

Der Apriori-Algorithmus ist eine traditionelle Data-Mining-Technik zum Mining von Assoziationsregeln in Transaktionsdatenbanken oder Datensätzen. Es soll Zusammenhänge und Muster zwischen Dingen aufdecken, die bei Transaktionen regelmäßig gleichzeitig auftreten. Apriori erkennt häufige Artikelgruppen, bei denen es sich um Gruppen von Artikeln handelt, die zusammen in Transaktionen mit einem bestimmten Mindestunterstützungsniveau erscheinen.

10. K-Means-Clustering

K-Means-Clustering ist ein unbeaufsichtigter Lernansatz, der zum Gruppieren von Datenpunkten verwendet werden kann. Dabei werden k Cluster in den Daten gefunden, sodass die Datenpunkte in jedem Cluster einander so ähnlich wie möglich sind und sich gleichzeitig so weit wie möglich von den Datenpunkten in anderen Clustern unterscheiden.

Entdecken Sie die grundlegenden Konzepte, die maschinelles Lernen vorantreiben, indem Sie das lernen Top 10 Algorithmen , wie lineare Regression, Entscheidungsbäume und neuronale Netze.

Algorithmus für maschinelles Lernen – FAQs

1. Was ist ein Algorithmus beim maschinellen Lernen?

Algorithmen für maschinelles Lernen sind Techniken, die auf statistischen Konzepten basieren und es Computern ermöglichen, aus Daten zu lernen, Muster zu entdecken, Vorhersagen zu treffen oder Aufgaben zu erledigen, ohne dass eine explizite Programmierung erforderlich ist. Diese Algorithmen werden grob in drei Typen eingeteilt: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen.

2. Welche Arten von maschinellem Lernen gibt es?

Es gibt hauptsächlich drei Arten des maschinellen Lernens:

  • Überwachter Algorithmus
  • Unbeaufsichtigter Algorithmus
  • Verstärkungsalgorithmus

3. Welcher ML-Algorithmus eignet sich am besten für die Vorhersage?

Die ideale Methode des maschinellen Lernens zur Vorhersage wird durch a bestimmt Anzahl der Kriterien , einschließlich der Art des Problems, der Art der Daten und der besonderen Anforderungen. Support-Vektor-Maschinen, Random Forests und Gradient Boosting-Ansätze sind für Vorhersage-Workloads beliebt. Die Auswahl eines Algorithmus hingegen sollte auf der Prüfung und Bewertung des spezifischen Problems und des vorliegenden Datensatzes basieren.

4. Was sind die zehn beliebten Lernalgorithmen?

Nachfolgend finden Sie eine Liste der zehn am häufigsten verwendeten Algorithmen für maschinelles Lernen (ML):

  1. Lineare Regression
  2. Logistische Regression
  3. SVM (Support Vector Machine)
  4. KNN (K-nächster Nachbar)
  5. Entscheidungsbaum
  6. Zufälliger Wald
  7. Naiver Bayes
  8. PCA (Hauptkomponentenanalyse)
  9. Apriori-Algorithmen
  10. K-Means-Clustering