NearestNeighbor

Klassifikationsprobleme zählen zu gängigen Aufgaben, die es beim maschinellen Lernen zu lösen gilt. Neben neuronalen Netzen ist die Nächste-Nachbarn-Klassifikation eine weitere (vergleichsweise einfache) Methode, um derartige Aufgaben zu lösen: Unter Verwendung von Trainingsdaten mit bekanntem Klassifikationsergebnis wird bei zu testenden Daten geprüft, welche Trainingsdaten in der Nähe liegen und welches Klassifikationsergebnis diese besitzen. Um genauer zu sein: Es werden die k nächsten Nachbarn untersucht, sodass die Methode häufig auch als k-Nearest-Neighbor-Algorithmus bezeichnet wird.

Darüber hinaus kann das Verfahren auch zur Nächste-Nachbarn-Bestimmung eingesetzt werden, um Ähnlichkeiten innerhalb von Datensätzen zu identifizieren. Dies führt (neben der Lösung von Klassifikationsaufgaben) zu weiteren interessanten Anwendungsfällen.

Übersicht
Das NearestNeighbor-Paket stellt folgende Funktionen zur Verfügung:
Beispiel
Zur Durchführung einer Nächste-Nachbarn-Klassifikation werden zunächst Trainingsdaten im dafür benötigten Format definiert. Anschließend wird die Klassifikation eines zu testenden Objekts durchgeführt, wobei Nachbarn untersucht werden.
Beispiel
Es werden Trainings- und Testdaten unter Verwendung des ClassificationData-Pakets erzeugt. Anhand dieser Daten wird eine Nächste-Nachbarn-Klassifikation durchgeführt.