Data Mining erklärt

Data mining is everywhere. Learn what it is, how it’s used, benefits, and current trends. This article will also cover leading data mining tools and common questions.

Was ist Data Mining?

Data Mining ist die Untersuchung und Analyse großer Daten, um aussagekräftige Muster und Regeln zu ermitteln. Es gilt als Disziplin im Bereich Data Science und unterscheidet sich von Predictive Analytics insofern, als dass Predictive Analytics historische Daten beschreibt, während Data Mining zukünftige Ergebnisse vorhersagen soll. Darüber hinaus werden Data-Mining-Techniken zum Erstellen von ML-Modellen (Machine Learning) verwendet, die moderne Anwendungen der künstlichen Intelligenz (KI) bzw. Artificial Intelligence (AI) wie Suchmaschinenalgorithmen und Empfehlungssysteme unterstützen.

Anwendungsgebiete des Data Mining

Data Mining Applications

Datenbank Marketing und Targeting

Einzelhändler nutzen Data Mining, um ihre Kunden besser zu verstehen. Data Mining ermöglicht es ihnen, Marktgruppen besser zu segmentieren und die Werbeaktionen so anzupassen, dass sie effektiver auf die verschiedenen Konsumenten zugeschnitten werden können.

Kreditrisikomanagement und Bonitätsbewertung

Banken setzen Data-Mining-Modelle ein, um die Fähigkeit eines Kreditnehmers, Schulden aufzunehmen und zurückzuzahlen, vorherzusagen. Mit einer Vielzahl von demografischen und persönlichen Informationen wählen diese Modelle automatisch einen Zinssatz, basierend auf der dem Kunden zugewiesenen Risikostufe, aus. Bewerber mit besseren Kreditpunkten erhalten im Allgemeinen niedrigere Zinssätze, da das Modell diese Bewertung als Faktor bei der Beurteilung verwendet.

Betrugserkennung und Prävention

Finanzinstitute implementieren Data-Mining-Modelle, um betrügerische Transaktionen automatisch zu erkennen und zu stoppen. Diese Form der Computerforensik findet bei jeder Transaktion im Hintergrund statt und manchmal, ohne dass der Konsument davon Kenntnis hat. Durch die Verfolgung der Ausgabengewohnheiten kennzeichnen diese Modelle abweichende Transaktionen und halten Zahlungen sofort zurück, bis die Kunden den Kauf bestätigen. Data-Mining-Algorithmen können autonom arbeiten, um Konsumenten vor betrügerischen Transaktionen zu schützen. Sie senden eine E-Mail- oder Textbenachrichtigung an den Konsumenten, die dieser dann vor dem Kauf bestätigen muss.

Gesundheitswesen Bioinformatik

Gesundheitsexperten verwenden statistische Modelle, um die Wahrscheinlichkeit eines Patienten für verschiedene Gesundheitszustände, basierend auf Risikofaktoren, vorherzusagen. Demographische, familiäre und genetische Daten können modelliert werden, um Patienten dabei zu helfen, Änderungen vorzunehmen, um das Auftreten negativer Gesundheitszustände zu verhindern. Diese Modelle wurden kürzlich in Entwicklungsländern eingesetzt, um bei der Diagnose und Priorisierung der Patienten zu helfen, bevor die Ärzte zur Behandlung vor Ort sind.

Spam-Filterung

Data Mining wird auch zur Bekämpfung von E-Mail-Spam und Malware eingesetzt. Systeme können die gemeinsamen Merkmale von Millionen bösartiger Nachrichten analysieren, um die Entwicklung von Sicherheitssoftware zu informieren. Neben der Erkennung kann diese spezielle Software noch einen Schritt weiter gehen und diese Nachrichten entfernen, bevor sie den Posteingang des Benutzers erreichen.

Empfehlungssysteme

Empfehlungssysteme werden heute häufig von Online-Händlern eingesetzt. Die vorausschauende Verhaltensmodellierung von Konsumenten ist mittlerweile ein zentraler Fokus vieler Organisationen und wird als wesentlich für den Wettbewerb angesehen. Unternehmen wie Amazon und Macy’s haben ihre eigenen proprietären Data-Mining-Modelle entwickelt, um die Nachfrage vorherzusagen und die Kundenerfahrung an allen Berührungspunkten zu verbessern. Netflix bot bekanntlich einen Preis von einer Million Dollar für einen Algorithmus, der die Genauigkeit des Empfehlungssystems erheblich verbessern würde. Das Siegermodell verbesserte die Empfehlungsgenauigkeit um über 8 %.

Sentiment-Analyse

Die Sentiment-Analyse aus Social-Media-Daten ist eine häufige Anwendung von Data Mining, bei der eine Technik namens Text-Mining verwendet wird. Dies ist eine Methode, um zu verstehen, wie sich eine Gruppe von Personen einem Thema gegenüber fühlt. Text-Mining umfasst die Eingabe aus Social-Media-Kanälen oder einer anderen Form von öffentlichen Inhalten, um wichtige Erkenntnisse als Ergebnis der statistischen Mustererkennung zu erhalten. Um einen Schritt weiter zu gehen, können Techniken zur Verarbeitung natürlicher Sprache (NLP-Techniken) verwendet werden, um die Kontextbedeutung hinter der menschlichen Sprache zu ermitteln.

Qualitatives Data Mining (QDM)

Qualitative Forschung kann strukturiert und anschließend mithilfe von Text-Mining-Verfahren analysiert werden, um große Mengen unstrukturierter Daten zu verstehen. Ein tiefergehender Einblick, wie dies zur Untersuchung des Wohlergehens von Kindern verwendet wurde, wurde von Berkeley-Forschern veröffentlicht.

Wie funktioniert Data Mining

Der geltende Data-Mining-Prozess umfasst sechs Schritte:

  1. Geschäftsverständnis

    Der erste Schritt besteht darin, die Ziele des Projekts festzulegen und zu definieren, wie Data Mining Ihnen helfen kann, dieses Ziel zu erreichen. In diesem Stadium soll ein Plan entwickelt werden, der Zeitpläne, Aktionen und Rollenzuweisungen enthält.

  2. Datenverständnis

    In diesem Schritt werden Daten aus allen verfügbaren Datenquellen erfasst. In dieser Phase werden häufig Datenvisualisierungs-Tools verwendet, um die Eigenschaften der Daten zu untersuchen und sicherzustellen, dass sie dazu beitragen, die Geschäftsziele zu erreichen.

  3. Datenvorbereitung

    Die Daten werden dann bereinigt und die fehlenden Daten eingefügt, um sicherzustellen, dass sie zum Mining bereit sind. Die Datenverarbeitung kann, je nach analysierter Datenmenge und Anzahl der Datenquellen, enorme Zeit in Anspruch nehmen. Daher werden verteilte Systeme in modernen Datenbankverwaltungssystemen (DBMS) verwendet, um die Geschwindigkeit des Data-Mining-Prozesses zu verbessern, anstatt ein einzelnes System zu belasten. Das ist außerdem sicherer als alle Daten einer Organisation in einem einzigen Datenlager zu haben. Es ist wichtig, umfangreiche Sicherungsmaßnahmen in die Datenmanipulationsphase einzuschließen, damit Daten nicht dauerhaft verloren gehen.

  4. Datenmodellierung

    Es werden mathematische Modelle verwendet, um mit Hilfe komplexer Datenwerkzeuge Muster in den Daten zu finden.

  5. Auswertung

    Die Ergebnisse werden bewertet und mit den Unternehmenszielen verglichen, um zu bestimmen, ob sie unternehmensweit eingesetzt werden sollten.

  6. Bereitstellung

    In der letzten Phase werden die Data-Mining-Ergebnisse im täglichen Geschäftsbetrieb geteilt. Eine Business-Intelligence-Plattform für Unternehmen kann verwendet werden, um eine zentrale Quelle für die Ermittlung von Self-Service-Daten bereitzustellen.

Data Mining Process

Vorteile von Data Mining

  • Automatisierte Entscheidungsfindung

    Data Mining ermöglicht es Organisationen, fortlaufend Daten zu analysieren und routinemäßige sowie kritische Entscheidungen zu automatisieren, ohne die Verzögerungen durch menschliche Einschätzungen. Banken können betrügerische Transaktionen sofort erkennen, Überprüfungen anfordern und sogar persönliche Daten sichern, um Kunden vor Identitätsdiebstahl zu schützen. Diese Modelle werden innerhalb der Betriebsalgorithmen eines Unternehmens eingesetzt und können Daten unabhängig sammeln, analysieren und darauf reagieren, um die Entscheidungsfindung zu rationalisieren und die täglichen Prozesse einer Organisation zu verbessern.

  • Genaue Vorhersage und Prognose

    Planung ist ein kritischer Prozess in jeder Organisation. Data Mining erleichtert die Planung und liefert Managern verlässliche Prognosen, die auf vergangenen Trends und aktuellen Bedingungen basieren. Macy’s implementiert Modelle für die Bedarfsprognose, um die Nachfrage für jede Bekleidungskategorie in jedem Geschäft vorherzusagen und den entsprechenden Bestand zu leiten, damit die Marktanforderungen effizient erfüllt werden.

  • Kostensenkung

    Data Mining ermöglicht eine effizientere Verwendung und Zuordnung von Ressourcen. Organisationen können mit genauen Prognosen automatisierte Entscheidungen planen und treffen, die zu einer maximalen Kostenreduzierung führen. Delta bettete RFID-Chips in das aufgegebene Gepäck von Passagieren ein und implementierte Data-Mining-Modelle, um Lücken in ihrem Prozess zu identifizieren und die Anzahl der unsachgemäß behandelten Gepäckstücke zu reduzieren. Diese Prozessverbesserung erhöht die Zufriedenheit der Passagiere und senkt die Kosten für die Suche und Weiterleitung verlorener Gepäckstücke.

  • Kundenerkenntnisse

    Unternehmen setzen Data-Mining-Modelle aus Kundendaten ein, um wichtige Merkmale und Unterschiede zwischen ihren Kunden aufzudecken. Data Mining kann verwendet werden, um Rollen zu erstellen und jeden Kontaktpunkt zu personalisieren, was die allgemeine Kundenerfahrung verbessert. Im Jahr 2017 investierte Disney über eine Milliarde US-Dollar in die Entwicklung und Implementierung von „Magic Bands“. Diese Bänder haben eine symbiotische Beziehung zu den Konsumenten. Sie arbeiten daran, die allgemeine Erfahrung der Kunden im Resort zu verbessern, während sie gleichzeitig Daten über ihre Aktivitäten sammeln, die Disney analysiert, um das Kundenerlebnis zu verbessern.

Herausforderungen des Data Mining

Data Mining ist zwar ein leistungsstarker Prozess, wird jedoch durch die zunehmende Menge und Komplexität von Big Data behindert. Wo täglich Exabytes an Daten von Unternehmen gesammelt werden, benötigen die Entscheidungsträger eine Möglichkeit, Daten aus ihren umfangreichen Datenbeständen zu extrahieren, zu analysieren und Einsicht zu gewinnen.

  • Big Data

    Die Herausforderungen von Big Data sind vielfältig und dringen in jedes Feld vor, in dem Daten erfasst, gespeichert und analysiert werden. Big Data zeichnet sich durch vier große Herausforderungen aus: Volumen, Vielfalt, Richtigkeit und Schnelligkeit. Das Ziel des Data Mining besteht darin, diese Herausforderungen zu vermitteln und den Wert der Daten zu erschließen.

    Volumen beschreibt die Herausforderung, die enorme Datenmenge, die von Organisationen gesammelt wird, zu speichern und zu verarbeiten. Diese enorme Datenmenge stellt zwei große Herausforderungen dar: Erstens ist es schwieriger, die richtigen Daten zu finden, und zweitens verlangsamt es die Verarbeitungsgeschwindigkeit der Data-Mining-Tools.

    Vielfalt umfasst die vielen verschiedenen Arten von Daten, die gesammelt und gespeichert werden. Data-Mining-Tools müssen so ausgestattet sein, dass sie gleichzeitig eine Vielzahl von Datenformaten verarbeiten können. Wenn sie die Analyse nicht auf strukturierte und unstrukturierte Daten fokussieren können, wird die Wertschöpfung durch Data Mining verhindert.

    Schnelligkeit beschreibt die zunehmende Geschwindigkeit, mit der neue Daten erstellt, gesammelt und gespeichert werden. Während sich Volumen auf steigende Speicheranforderungen bezieht und Vielfalt auf steigende Datentypen, ist Schnelligkeit die Herausforderung, die mit der schnell zunehmenden Datenerzeugungsrate verbunden ist.

    Schließlich bestätigt Richtigkeit, dass nicht alle Daten gleichermaßen genau sind. Daten können unordentlich, unvollständig, unzulässig erfasst und sogar voreingenommen sein. Je schneller Daten erfasst werden, desto mehr Fehler treten in den Daten auf. Die Herausforderung der Richtigkeit besteht darin, die Datenmenge mit ihrer Qualität in Einklang zu bringen.

  • Überanpassung von Modellen

    Eine Überanpassung tritt auf, wenn ein Modell die natürlichen Fehler innerhalb der Stichprobe anstelle der zugrunde liegenden Trends der Grundgesamtheit erklärt. Übermäßig angepasste Modelle sind oft zu komplex und verwenden eine Vielzahl unabhängiger Variablen, um eine Vorhersage zu erstellen. Das Risiko einer Überanpassung wird daher durch die Zunahme des Volumens und der Datenvielfalt erhöht. Durch zu wenige Variablen wird das Modell irrelevant, wohingegen zu viele Variablen das Modell auf die bekannten Beispieldaten beschränken. Die Herausforderung besteht darin, die Anzahl der in Data-Mining-Modellen verwendeten Variablen zu mäßigen und ihre Vorhersagekraft mit Genauigkeit in Einklang zu bringen.

Data Mining Challenges
  • Skaleneffekt

    Da die Datengeschwindigkeit die Datenmenge und -vielfalt weiter erhöht, müssen die Unternehmen diese Modelle skalieren und im gesamten Unternehmen anwenden. Um die vollen Vorteile des Data Mining mit diesen Modellen zu nutzen, sind erhebliche Investitionen in die Datenverarbeitungsinfrastruktur und die Rechenleistung erforderlich. Um die Größenordnung zu erreichen, müssen Unternehmen leistungsstarke Computer, Server und Software erwerben und warten, die für die große Menge und Vielfalt der Daten des Unternehmens konzipiert sind.

  • Datenschutz und Sicherheit

    Der erhöhte Speicherbedarf von Daten hat viele Unternehmen gezwungen, sich in Richtung Cloud-Computing und -Speicher zu bewegen. Während die Cloud viele moderne Fortschritte im Bereich des Data Mining ermöglicht hat, führt die Art des Services zu erheblichen Datenschutz- und Sicherheitsbedrohungen. Unternehmen müssen ihre Daten vor bösartigen Zahlen schützen, um das Vertrauen ihrer Partner und Kunden zu wahren.

    Mit dem Datenschutz müssen Organisationen interne Regeln und Beschränkungen für die Verwendung und Implementierung von Kundendaten entwickeln. Data Mining ist ein leistungsfähiges Instrument, das Unternehmen interessante Einblicke in ihre Konsumenten bietet. An welchem Punkt verletzen diese Einblicke jedoch die Privatsphäre einer Person? Organisationen müssen diese Beziehung zu ihren Kunden abwägen, Richtlinien zum Nutzen der Konsumenten entwickeln und ihnen diese mitteilen, um eine vertrauensvolle Beziehung zu pflegen.

Arten von Data Mining

Data Mining hat zwei Hauptprozesse: überwachtes und unüberwachtes Lernen.

  • Überwachtes Lernen

    Ziel des überwachten Lernens ist die Vorhersage oder Klassifizierung. Der einfachste Weg, diesen Prozess zu gestalten, besteht darin, nach einer einzelnen Ausgangsgröße zu suchen. Ein Prozess wird als überwachtes Lernen betrachtet, wenn das Ziel des Modells darin besteht, den Wert einer Beobachtung vorherzusagen. Ein Beispiel sind Spam-Filter. Sie verwenden das überwachte Lernen, um eingehende E-Mails bezüglich unerwünschten Inhalten zu klassifizieren und diese Nachrichten automatisch aus Ihrem Posteingang zu entfernen.

    Übliche analytische Modelle, die in überwachten Data-Mining-Ansätzen verwendet werden, sind:

    • Lineare Regressionen

      Lineare Regressionen prognostizieren den Wert einer stetigen Variablen mithilfe einer oder mehrerer unabhängiger Eingaben. Immobilienmakler verwenden lineare Regressionen, um den Wert eines Hauses basierend auf Quadratmeterzahl, Bett-zu-Bad-Verhältnis, Baujahr und Postleitzahl vorherzusagen.

    • Logistische Regressionen

      Logistische Regressionen prognostizieren die Wahrscheinlichkeit einer kategorischen Variablen anhand einer oder mehrerer unabhängiger Eingaben. Banken nutzen logistische Regressionen, um die Wahrscheinlichkeit eines Zahlungsausfalls eines Kreditbewerbers, basierend auf Kreditwürdigkeit, Haushaltseinkommen, Alter und anderen persönlichen Faktoren, vorherzusagen.

    • Zeitreihen

      Zeitreihenmodelle sind Prognosewerkzeuge, die Zeit als primäre unabhängige Variable verwenden. Einzelhändler wie Macy’s setzen Zeitreihenmodelle ein, um die Nachfrage nach Produkten als Funktion der Zeit vorherzusagen und die Prognose zur genauen Planung und Bevorratung der Filialen mit dem erforderlichen Lagerbestand zu verwenden.

    • Klassifizierungs- oder Regressionsbäume

      Klassifizierungsbäume sind eine vorhersagende Modellierungstechnik, mit der der Wert von kategorischen und kontinuierlichen Zielvariablen vorhergesagt werden kann. Basierend auf den Daten erstellt das Modell Sätze binärer Regeln, um den höchsten Anteil ähnlicher Zielvariablen zu teilen und zu gruppieren. Nach diesen Regeln wird die Gruppe, in die eine neue Beobachtung fällt, zu ihrem vorhergesagten Wert.

    • Neuronale Netzwerke

      Ein neuronales Netzwerk ist ein analytisches Modell, das sich an der Struktur des Gehirns, seiner Neuronen und ihrer Verbindungen orientiert. Diese Modelle wurden ursprünglich in den 1940er Jahren entwickelt, sind jedoch erst seit kurzem bei Statistikern und Datenwissenschaftlern beliebt. Neuronale Netzwerke verwenden Eingaben und werden, abhängig von ihrem Ausmaß, ihren Knoten basierend auf seiner Schwellenwertanforderung „feuern“ oder „nicht feuern“. Dieses Signal oder dessen Fehlen wird dann mit den anderen abgegebenen Signalen in den verborgenen Schichten des Netzwerks kombiniert, wo sich der Prozess wiederholt, bis eine Ausgabe erstellt wird. Da einer der Vorteile von neuronalen Netzwerken eine nahezu augenblickliche Ausgabe ist, setzen selbstfahrende Fahrzeuge diese Modelle ein, um Daten präzise und effizient zu verarbeiten und kritische Entscheidungen zu treffen.

    • K-Nächster-Nachbar

      Die K-Nächster-Nachbar-Methode wird verwendet, um eine neue Beobachtung basierend auf früheren Beobachtungen zu kategorisieren. Im Gegensatz zu den vorherigen Methoden ist K-Nächster-Nachbar datengesteuert, nicht modellgesteuert. Diese Methode macht keine zugrundeliegenden Annahmen über die Daten und verwendet keine komplexen Prozesse zur Interpretation ihrer Eingaben. Die Grundidee des K-Nächster-Nachbar-Modells besteht darin, dass neue Beobachtungen klassifiziert werden, indem die nächstgelegenen K-Nachbarn identifiziert und dem Mehrheitswert zugewiesen werden. Viele Empfehlungssysteme verschachteln diese Methode, um ähnliche Inhalte zu identifizieren und zu klassifizieren, die später vom größeren Algorithmus gezogen werden.

Types of Data Mining
  • Unüberwachtes Lernen

    Unüberwachtes Lernen konzentriert sich darauf, Daten zu verstehen und zu beschreiben, um die zugrundeliegenden Muster darin aufzudecken. Empfehlungssysteme verwenden das unüberwachte Lernen, um die Benutzermuster zu verfolgen und ihnen personalisierte Empfehlungen zu geben, wodurch die Kundenerfahrung verbessert wird.

    Übliche analytische Modelle, die in unüberwachten Data-Mining-Ansätzen verwendet werden, sind:

    • Clustering

      Clustering-Modelle fassen ähnliche Daten zusammen. Sie eignen sich am besten für komplexe Datensätze, die eine einzelne Einheit beschreiben. Ein Beispiel ist die Ähnlichkeitsmodellierung, um Ähnlichkeiten zwischen Segmenten zu gruppieren, Cluster zu identifizieren und neue Gruppen anzusprechen, die wie eine vorhandene Gruppe aussehen.

    • Assoziationsanalyse

      Die Assoziationsanalyse wird auch als Warenkorbanalyse bezeichnet und dient zur Identifizierung von Elementen, die häufig zusammen vorkommen. Supermärkte verwenden dieses Tool im Allgemeinen, um Produktpaare zu identifizieren und im Laden zu verbreiten, damit Kunden dazu bewegt werden, mehr Waren zu passieren und ihre Einkäufe zu steigern.

    • Hauptkomponentenanalyse

      Die Hauptkomponentenanalyse wird verwendet, um versteckte Korrelationen zwischen Eingabevariablen zu veranschaulichen und neue Variablen zu erstellen, die als Hauptkomponenten bezeichnet werden und dieselben Informationen erfassen, die in den ursprünglichen Daten enthalten sind, jedoch weniger Variablen enthalten. Durch die Verringerung der Anzahl von Variablen, die zum Übertragen der gleichen Informationen verwendet werden, können Analysten den Nutzen und die Genauigkeit der überwachten Data-Mining-Modelle erhöhen.

  • Ansätze des überwachten und unüberwachten Lernens in der Praxis

    Sie können jeden Ansatz unabhängig voneinander verwenden. In der Analyse werden jedoch beide Methoden verwendet. Jeder Ansatz hat einzigartige Vorteile und erhöht die Belastbarkeit, Stabilität und den Nutzen von Data-Mining-Modellen. Überwachte Modelle können von der Verschachtelung von Variablen profitieren, die von nicht überwachten Methoden abgeleitet werden. Mit einer Clustervariablen innerhalb eines Regressionsmodells können Analysten beispielsweise redundante Variablen aus dem Modell entfernen und ihre Genauigkeit verbessern. Da unüberwachte Ansätze die zugrundeliegenden Beziehungen innerhalb von Daten offenlegen, sollten Analysten die Erkenntnisse aus unüberwachtem Lernen nutzen, um ihre überwachte Analyse zu unterstützen.

Data-Mining-Tools

Data-Mining-Lösungen haben sich verbreitet. Daher ist es wichtig, Ihre spezifischen Ziele genau zu verstehen und diese mit den richtigen Tools und Plattformen abzustimmen.

RapidMiner

RapidMiner ist eine in Java geschriebene Open-Source-Software. RapidMiner ist eine der besten Plattformen für die Durchführung von Vorhersageanalysen und bietet integrierte Umgebungen für Deep Learning, Text Mining und Machine Learning. Die Plattform kann entweder lokale oder Cloud-basierte Server verwenden und wurde in einer Vielzahl von Organisationen implementiert. RapidMiner bietet eine hervorragende Kombination aus benutzerdefinierten Codierungsfunktionen und einer benutzerfreundlichen Schnittstelle, mit der die Plattform von Personen mit einer soliden Grundlage in Codierung und Data Mining am effektivsten genutzt werden kann.

Orange

Orange ist eine komponentenbasierte Open-Source-Software, die in Python geschrieben wurde. Orange verfügt über Daten-Vorverarbeitungsfunktionen und ist eine der besten Plattformen für grundlegende Data-Mining-Analysen. Orange hat einen benutzerfreundlichen Ansatz im Data Mining mit einer einzigartigen und benutzerfreundlichen Schnittstelle. Einer der Hauptnachteile ist jedoch der begrenzte Satz externer Datenanschlüsse. Orange ist ideal für Organisationen, die auf der Suche nach einem benutzerfreundlichen Data Mining sind und vor Ort Speicher verwenden.

Mahout

Mahout wurde von der Apache Foundation entwickelt und ist eine Open-Source-Plattform, die sich auf den unüberwachten Lernprozess konzentriert. Die Software zeichnet sich durch die Erstellung von Algorithmen für Machine Learning, Clustering, Klassifizierung und kollaboratives Filtern aus. Mahout richtet sich an Personen mit fortgeschrittenem Hintergrund. Das Programm ermöglicht Mathematikern, Statistikern und Datenwissenschaftlern, eigene Algorithmen zu erstellen, zu testen und zu implementieren. Während Mahout mehrere schlüsselfertige Algorithmen enthält, beispielsweise einen Empfehlungsempfänger, den Organisationen mit minimalem Aufwand implementieren können, erfordert die größere Plattform einen spezielleren Hintergrund, um ihre vollen Fähigkeiten zu nutzen.

Microstrategy

MicroStrategy ist eine Business-Intelligence- und Datenanalyse-Software, die alle Data-Mining-Modelle ergänzt. Mit einer Vielzahl nativer Gateways und Treiber kann die Plattform eine Verbindung zu jeder Unternehmensressource herstellen und ihre Daten analysieren. MicroStrategy zeichnet sich durch die Umwandlung komplexer Daten in barrierefreie Visualisierungen aus, die in einem Unternehmen verteilt werden sollen. Die Software kann die Leistung aller Data-Mining-Modelle in Echtzeit verfolgen und analysieren und diese Erkenntnisse für Entscheidungsträger klar darstellen. Durch die Kombination von MicroStrategy mit einem Data-Mining-Tool können Benutzer erweiterte Data-Mining-Modelle erstellen, sie im gesamten Unternehmen bereitstellen und Entscheidungen aufgrund ihrer Erkenntnisse und ihrer Marktleistung treffen.

FAQ

Was ist die Definition von Data Mining?
Warum führt man Data Mining überhaupt durch?
Was sind einige Beispiele für Data Mining?
Wie sieht der Prozess des Data Mining aus?
Was sind Text- und Data-Mining-Techniken?
Was sind die Vorteile des Data Mining?
Was sind die Herausforderungen von Data Mining?
Was ist der Unterschied zwischen Data Mining und Data Discovery?
Was sind die zukünftigen Trends im Data Mining?
Was ist Web Mining?
Was sind gute Data-Mining-Tools?
Wie bewerte ich Data-Mining-Modelle?
Was ist relationales Data Mining?