So stellen Sie sicher die Gültigkeit, Wahrheits-und Volatilität von Big Data

Hohes Volumen, hohe Vielfalt und hohe Geschwindigkeit sind die wesentlichen Merkmale der großen Daten. Aber auch andere Merkmale der großen Daten sind gleich wichtig, vor allem, wenn Sie große Datenmengen auf betriebliche Prozesse anzuwenden. Dieser zweite Satz von # 147-V # 148- Eigenschaften, die zu operationalisieren große Datenschlüssel sind beinhaltet

  • Gültigkeit: Sind die Daten korrekt und genau für die beabsichtigte Nutzung?

  • Richtigkeit: Sind die Ergebnisse aussagekräftig für die gegebene Problemraum?

  • Volatilität: Wie lange brauchen Sie diese Daten zu speichern?

Große Datengültigkeit

Sie möchten genaue Ergebnisse. Aber in den Anfangsstadien der Petabyte Daten zu analysieren, ist es wahrscheinlich, dass Sie sich nicht um Sorgen macht, wie gültig jedes Datenelement ist. Das anfängliche Strom von großen Daten könnte in der Tat ziemlich schmutzig sein. In der Anfangsphase ist es wichtiger, ob irgendwelche Beziehungen zwischen Elementen innerhalb dieser massiven Datenquelle vorhanden sind, um zu sehen, als um sicherzustellen, dass alle Elemente gültig sind.

Nachdem jedoch eine Organisation bestimmt, dass Teile dieser Anfangsdatenanalyse sind wichtig, diese Teilmenge von großen Daten muss bestätigt werden, da es nun zu einem Betriebszustand angewendet werden. Wenn die Daten von Sondierungs zu umsetzbaren bewegt, müssen die Daten validiert werden. Die Gültigkeit von großen Datenquellen und die anschließende Analyse muss korrekt sein, wenn Sie die Ergebnisse für die Entscheidungsfindung zu verwenden sind.

Gültige Eingabedaten durch korrekte Verarbeitung der Daten folgen sollten genaue Ergebnisse liefern. Mit großen Daten, müssen Sie besonders wachsam sein im Hinblick auf Gültigkeit. Zum Beispiel im Gesundheitswesen, können Sie Daten aus einer klinischen Studie, die zu einem Patienten die Krankheitssymptome in Verbindung stehen könnten. Aber ein Arzt, dass die Person die Behandlung kann nicht einfach nehmen die Ergebnisse der klinischen Studien als ohne sie zu validieren.

Stellen Sie sich vor, dass die Wettersatelliten zeigt an, dass ein Sturm in einem Teil der Welt beginnt. Wie wirkt sich der Sturm Personen? Mit rund einer halben Milliarde Nutzer, ist es möglich, Twitter-Streams zu bestimmen, um die Auswirkungen eines Sturms auf die lokale Bevölkerung zu analysieren. Daher könnte unter Verwendung von Twitter in Kombination mit Daten aus einem Wettersatelliten Forscher helfen, die Richtigkeit einer Wettervorhersage zu verstehen.

Große Daten Volatilität

Wenn Sie gültige Daten und kann die Richtigkeit der Ergebnisse beweisen, wie lange braucht die Daten zu # 147-live # 148- Ihre Bedürfnisse zu befriedigen? In einem Standard-Dateneinstellung können Sie die Daten für Jahrzehnte halten, weil Sie haben, im Laufe der Zeit, ein Verständnis von gebaut, welche Daten ist wichtig für das, was Sie damit machen. Sie haben Regeln für die Datenaktualität und Verfügbarkeit etabliert, die auf Ihre Arbeitsprozesse abzubilden.

Zum Beispiel könnten einige Organisationen halten nur das letzte Jahr ihrer Kundendaten und Transaktionen in ihren Business-Systemen. Dadurch wird eine schnelle Abruf dieser Informationen zu gewährleisten, wenn erforderlich. Wenn sie in einem früheren Jahr suchen müssen, kann das IT-Team muss die Daten aus Offline-Speicher wiederherzustellen die Anforderung zu berücksichtigen. Mit großen Daten wird dieses Problem vergrößert.

Im Falle der Lagerung begrenzt ist, sehen Sie sich die großen Datenquellen zu bestimmen, was müssen Sie sammeln und wie lange brauchen Sie, es zu halten. Bei einigen großen Datenquellen, können Sie nur Daten für eine schnelle Analyse sammeln müssen.

Sie könnten dann speichern die Informationen vor Ort zur weiteren Verarbeitung. Wenn Sie nicht genügend Speicherplatz für all diese Daten haben, können Sie die Daten verarbeiten # 147-on-the-fly # 148- und halten nur relevante Informationen vor Ort. Wie lange halten Sie große Datenmengen zur Verfügung, hängt von einigen Faktoren ab:

  • Wie viele Daten an der Quelle gehalten?

  • Müssen Sie wiederholt die Daten zu verarbeiten?

  • Sie benötigen die Daten zu verarbeiten, zusätzliche Daten zu sammeln und mehr Verarbeitungs tun?

  • erfordern Datenspeicherung Haben Sie Regeln oder Vorschriften haben?

  • Machen Sie Ihre Kunden für ihre Arbeit an Ihre Daten ab?

  • Hat die Daten immer noch Wert oder ist es nicht mehr relevant?

Aufgrund des Volumens, Vielfalt und Geschwindigkeit von großen Datenmengen, müssen Sie die Volatilität zu verstehen. Für einige Quellen, werden immer die Daten für andere Des- sein, ist dies nicht der Fall ist. Zu verstehen, was Daten da draußen ist und wie lange Sie helfen können Aufbewahrungsanforderungen und Richtlinien für große Datenmengen zu definieren.

Als Verbraucher werden große Datenmengen helfen, ein besseres Profil, wie und zu definieren, wenn Sie Waren und Dienstleistungen kaufen. Als Patient wird große Daten helfen, einen besseren Ansatz für die Behandlungen und die Erhaltung der Gesundheit zu definieren. Als Profi wird große Daten helfen Ihnen, bessere Möglichkeiten zu identifizieren, Ihre Produkte und Dienstleistungen zu entwickeln und zu liefern.

Dies geschieht nur, wenn große Datenmengen in die Arbeitsprozesse von Unternehmen und Organisationen integriert ist.

Menü