SQL die Bedeutung für Hadoop

Es gibt zwingende Gründe, die SQL bewährt robust zu sein. Die IT-Branche hat 40 Jahre Erfahrung mit SQL hatte, da er zuerst von IBM in den frühen 1970er Jahren entwickelt wurde. Mit der Zunahme bei der Annahme von relationalen Datenbanken in den 1980er Jahren hat SQL geworden, da eine Standard-Fähigkeit für die meisten IT-Profis.

Sie können leicht erkennen, warum SQL so erfolgreich ist: Es ist relativ leicht zu erlernen, und SQL-Abfragen sind gut lesbar. Diese Leichtigkeit kann in SQL zurück zu einem Core-Design Punkt zurückgeführt werden - die Tatsache, dass es ein deklarative Sprache, wie auf ein gegenüberliegendes Imperativ Sprache.

Für eine Sprache deklarative Mittel zu sein, dass Ihre Anfragen nur mit der Art der Daten umgehen wird angefordert - im Idealfall sollte es nichts in der Abfrage das festlegt, Wie die Verarbeitung ausgeführt werden sollte. Mit anderen Worten, alles, was Sie in SQL anzuzeigen, welche Informationen Sie wieder aus dem System wollen - nicht, wie es zu bekommen.

Im Gegensatz dazu mit einer imperativen Sprache (C, zum Beispiel, oder Java oder Python) Code besteht aus Anweisungen, wo Sie die Aktionen definieren Sie das System ausführen müssen.

Zusätzlich zu den (leicht gehebelten) Fähigkeiten der SQL-freundliche IT-Profis, Jahrzehnte im Wert von Datenbankanwendungen haben auch mit SQL-Schnittstellen aufgebaut. Wenn etwa im Gespräch, wie Hadoop das Data Warehouse ergänzen können, ist es klar, dass Organisationen, strukturierte Daten in Hadoop gespeichert werden. Und als Ergebnis, werden sie einige ihrer bestehenden Anwendungslogik gegen Hadoop auszuführen.

Niemand will zu zahlen für Anwendungen neu geschrieben werden, so dass eine SQL-Schnittstelle ist sehr wünschenswert.

Mit der Entwicklung von SQL-Schnittstellen zu Hadoop-Daten, ist ein interessanter Trend, dass kommerzielle Business-Analytics und Datenmanagement-Tools sind fast alle auf der Hadoop fahrenden Zug aufspringen, einschließlich Business Intelligence statistische Pakete- Extract Reporting-, Transformieren und Laden-Frameworks (ETL) - und eine Vielzahl von anderen Werkzeugen. In den meisten Fällen ist die Schnittstelle zum Daten Hadoop Hive.

Menü