Verwalten Virtualisierung für Big Data

Virtualisierung trennt Ressourcen und Dienstleistungen aus dem zugrunde liegenden physischen Bereitstellungsumgebung, so dass Sie viele virtuelle Systeme innerhalb eines einzigen physischen System zu schaffen. Einer der wichtigsten Gründe, die Unternehmen die Virtualisierung implementiert haben, ist die Leistung und die Effizienz der Verarbeitung einer vielfältigen Mischung aus Workloads zu verbessern

Die große Daten Hypervisor

In einer idealen Welt, wollen Sie nicht über das zugrundeliegende Betriebssystem und der physischen Hardware zu kümmern. EIN Hypervisor ist die Technologie, die dafür verantwortlich, dass gemeinsame Nutzung von Ressourcen in einer geordneten und wiederholbare Weise erfolgt.

Der Hypervisor sitzt auf der untersten Ebene der Hardware-Umgebung und verwendet eine dünne Schicht von Code dynamische gemeinsame Nutzung von Ressourcen zu ermöglichen. Der Hypervisor macht es scheinen, wie jedes Betriebssystem die physischen Ressourcen alle an sich hat.

In der Welt der großen Daten, müssen Sie viele verschiedene Betriebsumgebungen zu unterstützen. Der Hypervisor wird ein idealer Liefermechanismus für die Technologiekomponenten des großen Datenstack. Der Hypervisor können Sie die gleiche Anwendung auf viele Systeme zeigen ohne physisch auf jedem System, dass die Anwendung zu kopieren.

Als zusätzlichen Vorteil, weil der Hypervisor-Architektur kann es irgendwelche anderen Betriebssysteme geladen, als ob sie nur eine andere Anwendung waren. So ist der Hypervisor eine sehr praktische Art, die Dinge immer schnell und effizient virtualisiert.

Die Gastbetriebssysteme sind die Betriebssysteme auf den virtuellen Maschinen ausgeführt werden. Mit der Virtualisierungstechnologie können Sie den Hypervisor einrichten, um den physischen Computerressourcen teilen. Ressourcen können 50/50 oder 80/20 zwischen zwei Gastbetriebssysteme aufgeteilt werden, zum Beispiel.

Die Schönheit dieser Anordnung ist, dass der Hypervisor macht die ganze schwere Arbeit. Das Gastbetriebssystem kümmert sich nicht, dass es in einem virtuellen Partitions- läuft es denkt, dass es einen Computer alle an sich hat.

Sie finden grundsätzlich zwei Arten von Hypervisoren:

  • Typ-1-Hypervisor laufen direkt auf der Hardware-Plattform. Sie erreichen eine höhere Effizienz, da sie direkt auf der Plattform laufen.

  • Typ-2-Hypervisor laufen auf dem Host-Betriebssystem. Sie werden oft verwendet, wenn ein Bedarf, einen breiten Bereich von I / O-Geräte zu unterstützen, existiert.

Abstraktion und große Datenvirtualisierung

Für IT-Ressourcen und Services virtualisiert sind, werden sie von der zugrunde liegenden physischen Bereitstellungsumgebung getrennt. Der Begriff für diesen Akt der separationis genannt Abstraktion. Abstraktion ist ein Schlüsselbegriff in großen Daten. MapReduce und Hadoop sind verteilte Rechenumgebungen, in denen alles abstrahiert. Das Detail ist abstrahiert, so dass der Entwickler oder Analyst muss nicht mit dem die Datenelemente befinden Beunruhigung.

Abstraktion minimiert die Komplexität von etwas durch die Details zu verstecken und nur die relevanten Informationen. Zum Beispiel, wenn Sie zu holen jemanden wollten, den Sie noch nie getroffen haben, könnte er Ihnen sagen, die Lage, ihn zu treffen, und was er tragen wird. Er braucht nicht zu sagen, wo er geboren wurde, wie viel Geld er in der Bank hat, sein Geburtsdatum, und so weiter.

Das ist die Idee mit der Abstraktion - es geht um eine High-Level-Spezifikation bietet anstatt sich in vielen Details darüber, wie etwas funktioniert.

Implementieren Sie die Virtualisierung mit großen Daten zu arbeiten

Virtualisierung hilft macht Ihre IT-Umgebung intelligent genug, um große Datenanalyse zu behandeln. Durch alle Elemente Ihrer Infrastruktur zu optimieren, einschließlich Hardware, Software und Speicher, erhalten Sie die Effizienz große Mengen von strukturierten und unstrukturierten Daten zu verarbeiten, benötigt und zu verwalten. Mit großen Daten, müssen Sie zugreifen, zu verwalten und zu analysieren, strukturierte und unstrukturierte Daten in einer verteilten Umgebung.

Big Daten übernimmt Distribution. In der Praxis funktionieren wird jede Art von MapReduce besser in einer virtualisierten Umgebung. Sie müssen die Fähigkeit, Workloads zu bewegen, um basierend auf den Anforderungen für Rechenleistung und Speicher.

Die Virtualisierung ermöglicht es Ihnen, größere Probleme zu bewältigen, die noch nicht scoped worden. Sie können nicht im Voraus wissen, wie schnell müssen Sie skalieren.

Die Virtualisierung ermöglicht es Ihnen, eine Vielzahl von operativen großen Datenspeicher zu unterstützen. Zum Beispiel kann eine graphische Darstellung Datenbank als Bild versponnen werden.

Der direkte Nutzen von Virtualisierung ist es, sicherzustellen, dass MapReduce Motoren besser funktionieren. Virtualisierung wird zu einer besseren Maßstab und Leistung für MapReduce führen. Jeder der Karte und Aufgaben reduzieren muss unabhängig ausgeführt werden. Wenn die MapReduce Motor parallelisiert und in einer virtuellen Umgebung ausgeführt konfiguriert ist, können Sie den Verwaltungsaufwand zu reduzieren und für Expansionen und Kontraktionen in den Task-Workloads ermöglichen.

MapReduce selbst ist von Natur aus parallel und verteilt. Durch Einkapseln des MapReduce Motor in einem virtuellen Container, können Sie ausführen, was Sie brauchen, wenn Sie es brauchen. Mit Virtualisierung können Sie Ihre Nutzung der Vermögenswerte erhöhen Sie bereits bezahlt haben, indem sie in generische Ressourcen-Pools drehen.

Menü