Big Data Cloud-Anbieter

Cloud-Anbieter kommen in allen Formen und Größen und bieten viele verschiedene Produkte für große Datenmengen. Einige sind bekannte Namen, während andere in jüngster Zeit entstandene. Einige der Cloud-Anbieter, die IaaS Dienstleistungen anbieten, die für große Datenmengen verwendet werden können, gehören Amazon.com, ATT, GoGrid, Joyent, Rackspace, IBM und Verizon / Terremark.

Amazon Public Elastic Compute Cloud für große Datenmengen

Derzeit einer der profiliertesten IaaS-Dienstleister ist Amazon Web Services mit seiner Elastic Compute Cloud (Amazon EC2). Amazon begann nicht mit einer Vision heraus eine große Infrastruktur-Services-Geschäft aufzubauen.

Stattdessen baute das Unternehmen eine massive Infrastruktur sein eigenes Retail-Geschäft zu unterstützen und entdeckte, dass seine Ressourcen zu wenig genutzt wurden. Statt diese Anlage untätig sitzen zu erlauben, entschied es, diese Ressource zu nutzen und gleichzeitig auf der unteren Zeile hinzufügen. Amazon EC2-Service wurde im Jahr 2006 ins Leben gerufen und entwickelt sich ständig weiter.

Amazon EC2 bietet Skalierbarkeit unter der Kontrolle des Benutzers, mit dem Benutzer für Ressourcen von Stunde zu Stunde zu bezahlen. Die Verwendung des Begriffs elastisch bei der Benennung von EC2 von Amazon ist signifikant. Hier bezieht sich die Elastizität auf die Fähigkeit, dass die EC2 Benutzer zu erhöhen oder die Infrastruktur-Ressourcen verringern zugewiesen, um ihre Bedürfnisse zu erfüllen.

Amazon bietet auch andere große Datendienste für Kunden seines Amazon Web Services-Portfolio. Dazu gehören die folgenden:

  • Amazon Elastic MapReduce: Gezielte für die Verarbeitung von großen Datenmengen. Elastic MapReduce verwendet eine gehostete Hadoop Framework läuft auf EC2 und Amazon Simple Storage Service (Amazon S3). Benutzer können jetzt laufen HBase.

  • Amazon DynamoDB: Eine vollständig verwaltete nicht nur SQL (NoSQL) Datenbank-Service. DynamoDB ist eine fehlertolerante und hochverfügbare Datenspeicherdienst bietet Self-Provisioning, transparente Skalierbarkeit und einfache Verwaltung. Es basiert auf SSDs (Solid State Disks) für eine höhere Zuverlässigkeit und hohe Leistung realisiert.

  • Amazon Simple Storage Service (S3): Ein Web-Skala Dienst jede Menge an Daten zu speichern entworfen. Die Stärke seiner Design-Center ist Leistung und Skalierbarkeit, es ist also nicht als Feature beladen als andere Datenspeicher. Daten werden gespeichert in # 147-Eimer 148- # und Sie können eine oder mehrere Regionen der Welt für physischen Speicher auswählen, um Latenz oder regulatorischen Anforderungen adressieren.

  • Amazon High Performance Computing: Tuned für spezielle Aufgaben, bietet dieser Dienst mit geringer Latenzzeit abgestimmt High Performance Computing Cluster. Am häufigsten von Wissenschaftlern verwendet, HPC ist die Eingabe der Mainstream wegen des Angebots von Amazon und anderen HPC-Anbieter. Amazon HPC-Cluster sind speziell für bestimmte Workloads gebaut und können leicht für neue Aufgaben neu konfiguriert werden.

  • Amazon RedShift: Verfügbar in begrenzten Vorschau, ist RedShift ein Petabyte-Skala Data-Warehousing-Service auf einer skalierbaren MPP-Architektur gebaut. Verwaltet von Amazon, bietet es eine sichere und zuverlässige Alternative zu Inhouse-Data Warehouse und ist kompatibel mit mehreren populären Business-Intelligence-Tools.

Google große Datendienste

Google, das Internet-Suche Riese, bietet auch eine Reihe von Cloud-Services für große Datenmengen ausgerichtet. Dazu gehören die folgenden:

  • Google Compute Engine: Eine Cloud-basierte Funktion für virtuelle Maschine Computing, Google Compute Engine bietet eine sichere, flexible IT-Umgebung von energieeffizienten Rechenzentren. Google bietet auch Lösungen Workload-Management von mehreren Technologiepartnern, die ihre Produkte für Google Compute Engine optimiert haben.

  • Google Big Abfrage: Hier können Sie SQL-ähnliche Abfragen mit hoher Geschwindigkeit gegen große Datenmengen von potenziell Milliarden von Reihen laufen. Obwohl es für die Abfrage von Daten gut ist, können die Daten nicht geändert werden, nachdem es in es ist. Betrachten Sie Google Big Abfrage eine Art von Online Analytical Processing (OLAP) System für große Datenmengen. Es ist gut für die Ad-hoc-Reporting oder explorative Analyse.

  • Google Prediction API: Eine Cloud-basierte, maschinelles Lernen-Tool für große Datenmengen, ist Vorhersage der Lage, Muster in Daten zu identifizieren und erinnern sie dann. Es kann mehr über ein Muster lernen jedes Mal verwendet wird. Die Muster können für eine Vielzahl von Zwecken ausgewertet werden, einschließlich Betrugserkennung, Churn-Analyse und Kunden-Gefühl.

Microsoft Azure für große Datenmengen

Basierend auf Windows und SQL Abstraktionen hat Microsoft eine Reihe von Entwicklungstools productized, Virtual Machine-Unterstützung, Verwaltung und Medien-Services und mobile Gerätedienste in einem PaaS-Angebot. Für Kunden mit tiefen Know-how in .Net, SQL Server und Windows, die Annahme des Azure-basierten PaaS ist unkompliziert.

Um die neuen Anforderungen adressieren zu großen Daten in Windows Azure-Lösungen integrieren, Microsoft hat auch hinzugefügt Windows Azure HDInsight. Aufbauend auf Hortonworks Data Platform (HDP), die nach Microsoft und bietet insgesamt 100 Prozent Kompatibilität mit Apache Hadoop, unterstützt HDInsight Verbindung mit Microsoft Excel und anderen Business-Intelligence (BI) Tools. Neben Azure HDInsight kann auch auf Windows Server bereitgestellt werden.

Openstack für große Datenmengen

Initiiert von Rackspace und der NASA, Openstack ist eine Open-Cloud-Plattform Implementierung entweder auf Wolken öffentlich oder privat ausgerichtet. Während die Organisation fest von Rackspace verwaltet wird, bewegt es in eine separate Openstack-Stiftung. Obwohl die Unternehmen Openstack nutzen können proprietäre Implementierungen zu erstellen, erfordert die Openstack Bezeichnung Konformität mit einem Standard-Implementierung von Dienstleistungen.

Openstack Ziel ist es, eine massiv skaliert, Multi-Tenant-Cloud-Spezifikation zur Verfügung zu stellen, die auf jeder Hardware laufen kann. Openstack baut ein großes Ökosystem von Partnern bei der Annahme seiner Cloud-Plattform interessiert, darunter Dell, HP, Intel, Cisco, Red Hat und IBM, zusammen mit mindestens 100 andere, die für ihre Cloud-Angebote als Grundlage verwenden Openstack.

Im Wesentlichen ist eine Openstack Open-Source-Initiative IaaS auf Ubuntu aufgebaut, ein Betriebssystem auf der Basis der Linux-Distribution Debian. Es kann auch auf der Red Hat Linux-Version laufen.

Openstack bietet eine Reihe von Dienstleistungen, einschließlich Rechen-, Objektspeicher, Katalog und Repository, Dashboarding, Identität und Vernetzung. In Bezug auf die großen Datenmengen, Rackspace und Hortonworks (ein Anbieter von Open-Source-Plattform Datenmanagement auf Basis von Apache Hadoop) bekannt, dass Rackspace eine Openstack öffentlichen Cloud-basierten Hadoop Dienst freigeben wird, die validiert werden und unterstützt von Hortonworks und ermöglicht es Kunden, um schnell eine große Datenumgebung erstellen.

Menü