Eigenschaften von Big Data Analysis

Große Datenanalyse hat vor kurzem eine Menge Hype bekommen, und das aus gutem Grund. Sie müssen die Eigenschaften von großen Datenanalyse zu wissen, ob Sie ein Teil dieser Bewegung sein wollen. Unternehmen wissen, dass etwas da draußen ist, aber bis vor kurzem nicht in der Lage gewesen, es zu verminen. Dieser Druck des Umschlags auf der Analyse ist ein spannender Aspekt der großen Datenanalyse Bewegung.

Die Unternehmen sind begeistert, der Lage sein, auf Daten zuzugreifen und zu analysieren, die sie habe von der Erhebung oder Einsicht gewinnen wollen, aber nicht in der Lage gewesen, effektiv zu verwalten oder zu analysieren. Es könnte große Mengen an unterschiedlichen Daten beinhalten die Visualisierung, oder es könnte fortgeschritten beinhalten bei Ihnen in Echtzeit analysiert Streaming. Es ist evolutionär in mancher Hinsicht und revolutionär in anderen.

Also, was ist anders, wenn Ihr Unternehmen den Umschlag mit großen Datenanalyse drängen? Die Infrastruktur unterstützen große Datenanalyse ist anders und Algorithmen verändert wurden Infrastruktur bewusst zu sein.

Große Datenanalyse sollte aus zwei Perspektiven betrachtet werden:

  • Entscheidungsorientiertes

  • Handlungsorientiert

Entscheidung orientierte Analyse ist eher zu herkömmlichen Business Intelligence. Schauen Sie sich selektiven Untergruppen und Darstellungen von größeren Datenquellen und versuchen, die Ergebnisse auf den Prozess der Geschäftsentscheidungen zu beantragen. Sicherlich diese Entscheidungen könnten in irgendeiner Art von Handlung oder Prozessänderungen zur Folge haben, aber der Zweck der Analyse ist es, die Entscheidungsfindung zu erweitern.

Handlungsorientierte Analyse ist für die schnelle Reaktion verwendet wird, wenn ein Muster oder bestimmte Arten von Daten entsteht erkannt und Maßnahmen erforderlich sind. Unter Ausnutzung der großen Daten durch die Analyse und verursacht proaktive oder reaktive Verhaltensänderungen bieten ein großes Potenzial für Early Adopters.

früher den Schlüssel zu extrahieren Wert halten kann, anstatt später zu finden, und große Datenmengen unter Verwendung von Analyseanwendungen zu schaffen. Um diese Aufgabe zu erfüllen, ist es effektiver, diese kundenspezifischen Anwendungen von Grund auf neu zu bauen oder durch die Nutzung von Plattformen und / oder Komponenten.

Zuerst schauen Sie einige der zusätzlichen Merkmale von großen Datenanalyse an, die es unterscheidet sich von traditionellen Arten der Analyse machen abgesehen von den drei Vs von Volumen, Geschwindigkeit und Vielfalt:

  • Es kann sein programmatisch. Eine der größten Veränderungen in der Analyse ist, dass Sie in der Vergangenheit mit Datensätzen zu tun hatten Sie manuell in eine Anwendung laden konnte und zu erkunden. Mit großen Datenanalyse, können Sie mit einer Situation konfrontiert werden, wo man mit Rohdaten beginnen könnte, die häufig behandelt werden muss programmatisch jede Art von Untersuchung wegen des Umfangs der Daten zu tun.

  • Es kann sein Daten getrieben. Während viele Daten Wissenschaftler eine Hypothese orientierten Ansatz zur Datenanalyse (eine Prämisse entwickeln und Daten zu sammeln, um zu sehen, ob diese Prämisse richtig ist), können Sie auch die Daten verwenden, um die Analyse zu fahren - vor allem, wenn Sie große Mengen davon gesammelt haben . Zum Beispiel können Sie einen Maschinenlernalgorithmus verwenden diese Art von Hypothese freie Analyse zu tun.

  • Es kann eine Menge verwenden Attribute. In der Vergangenheit haben Sie möglicherweise mit Hunderten von Attributen oder Eigenschaften dieser Datenquelle zu tun gewesen. Nun könnte man mit Hunderten von Gigabyte an Daten zu tun haben, die von Tausenden von Attributen und Millionen von Beobachtungen bestehen. Alles geschieht jetzt in einem größeren Maßstab.

  • Es kann sein iterative. Mehr Rechenleistung bedeutet, dass Sie auf Ihre Modelle laufen kann, bis Sie sie bekommen, wie Sie es wünschen. Hier ist ein Beispiel. Angenommen, Sie ein Modell Gebäude sind, die die Prädiktoren für bestimmte Kundenverhalten assoziiert zu finden versucht. Sie könnten eine angemessene Stichprobe von Daten zu extrahieren oder eine Verbindung zu dem sich die Daten befinden beginnen. Sie könnten ein Modell erstellen, eine Hypothese zu testen.

    Während in der Vergangenheit könnten Sie nicht so viel Speicher gehabt haben Ihr Modell effektiv arbeiten zu machen, müssen Sie eine enorme Menge an physikalischem Speicher durch die notwendigen Iterationen zu gehen erforderlich, um den Algorithmus zu trainieren. Es kann auch erforderlich sein, modernster Computertechnik wie die Verarbeitung natürlicher Sprache oder neuronale Netze zu verwenden, die automatisch das Modell entwickeln basierend auf Lernen, wenn mehr Daten hinzugefügt wird.

  • Es kann sein schnell die Rechenzyklen, um Sie durch die Nutzung einer Cloud-basierten Infrastruktur als Service benötigen. Mit Infrastructure as a Service (IaaS) Plattformen wie Amazon Cloud Services (ACS), können Sie schnell eine Gruppe von Maschinen große Datenmengen aufnehmen und sie schnell zu analysieren.

Menü