Laufende Oozie Workflows in Hadoop

Bevor Sie Ihre Oozie Workflows ausgeführt wird, alle seine Komponenten müssen innerhalb einer bestimmten Verzeichnisstruktur zu existieren. Insbesondere sollte der Workflow selbst seine eigenen, dedizierten Verzeichnis haben, in dem workflow.xml im Stammverzeichnis ist, und alle Code-Bibliotheken existieren im Unterverzeichnis namens lib. Das Workflow-Verzeichnis und alle seine Dateien müssen in HDFS existieren für sie ausgeführt werden.

Wenn Sie die Oozie Befehlszeilenschnittstelle verwenden werden mit verschiedenen Jobs zu arbeiten, sollten Sie die OOZIE_URL Umgebungsvariable zu setzen. (Dies ist leicht von einer Befehlszeile in einem Linux-Terminal durchgeführt.) Sie sich viel Tipparbeit sparen können, weil die URL des Oozie Server wird nun automatisch mit Ihren Wünschen aufgenommen werden.

Hier ist ein Beispielbefehl man die OOZIE_URL Umgebungsvariable setzen, von der Kommandozeile verwenden:

Export OOZIE_URL = "http: // localhost: 8080 / Oozie"

So führen Sie eine Oozie Arbeitsbelastung aus dem Oozie Kommandozeilen-Schnittstelle, geben Sie einen Befehl wie den folgenden, während sichergestellt wird, dass die job.properties Datei lokal zugänglich - das Konto bedeutet, Sie verwenden sie sehen können, was bedeutet, es auf dem gleichen System zu sein, wo man Oozie Befehle ausführen:

$ Oozie Job -config sampleWorkload / job.properties -run

Nachdem Sie einen Job übergeben, wird die Arbeitsbelastung in der Oozie Objektdatenbank gespeichert.

bild0.jpg

Bei der Vorlage, gibt Oozie eine Kennung, damit Sie Ihren Workflow zu überwachen und zu verwalten - Job: 0.000.001-00000001234567-Oozie-W, zum Beispiel.

Um zu überprüfen, den Status dieser Job, würden Sie den Befehl ausführen

Oozie Job -info 0.000.001-00000001234567-Oozie-W

Menü