Artikelbeschreibung
Bigdata-Virtualisierung erfordert ein Verständnis der allgemeinen Prinzipien der Virtualisierung als Ganzes. Der Grundgedanke bei der Virtualisierung ist, dass heterogene oder verteilte Systeme als komplexe Systeme über spezifische Schnittstellen dargestellt werden, die physische Hardware oder Datenspeicherbezeichnungen durch virtuelle Komponenten ersetzen. Bei der Hardware-Virtualisierung beispielsweise macht die Software ein System aus physischen Computern zu einem System aus "logischen" oder virtuellen Computern. Eine Möglichkeit, sich eine Big-Data-Virtualisierungsressource vorzustellen, ist eine Schnittstelle, die geschaffen wird, um Big-Data-Analysen für Endbenutzer benutzerfreundlicher zu machen. Einige Fachleute erklären dies auch als Schaffung einer "Abstraktionsebene" zwischen den physischen Big-Data-Systemen, d. h. wo jedes Datenbit einzeln auf Computern oder Servern untergebracht ist, und der Schaffung einer virtuellen Umgebung, die viel einfacher zu verstehen und zu n
avigieren ist. Die Big-Data-Virtualisierung zielt darauf ab, all diese verteilten Standorte in einem einfachen virtuellen Element zu kombinieren. Die Geschäftswelt hat eine Reihe von ausgefeilten Big-Data-Analyse-Tools entwickelt, aber nicht alle unterstützen das Prinzip der Big-Data-Virtualisierung. daher ist dieses Buch auf Konzepte ausgerichtet.
Personeninformation
Prof. Md. Sadique Shaikh hat einen Abschluss als M.Sc, M.Tech, PGDM, MBA(MM), MBA(HRM), M.Phil(Mgmt). Er ist Autor von 27 internationalen Büchern und mehr als 72 Forschungsarbeiten weltweit. Er hat seine Arbeit auf mehr als 120 Konferenzen vorgestellt, hielt eingeladene Vorträge und war OCM/Reviewer/Chefredakteur/Mitglied des Redaktionsausschusses mehrerer Fachzeitschriften weltweit.
Schlagwörter
Bewertungen
Die Bewertungen werden vor ihrer Veröffentlichung nicht auf ihre Echtheit überprüft. Sie können daher auch von Verbrauchern stammen, die die bewerteten Produkte tatsächlich gar nicht erworben/genutzt haben.