Du er ikke logget ind
Beskrivelse
Bigdata-Virtualisierung erfordert ein Verständnis der allgemeinen Prinzipien der Virtualisierung als Ganzes. Der Grundgedanke bei der Virtualisierung ist, dass heterogene oder verteilte Systeme als komplexe Systeme über spezifische Schnittstellen dargestellt werden, die physische Hardware oder Datenspeicherbezeichnungen durch virtuelle Komponenten ersetzen. Bei der Hardware-Virtualisierung beispielsweise macht die Software ein System aus physischen Computern zu einem System aus "logischen" oder virtuellen Computern. Eine Möglichkeit, sich eine Big-Data-Virtualisierungsressource vorzustellen, ist eine Schnittstelle, die geschaffen wird, um Big-Data-Analysen für Endbenutzer benutzerfreundlicher zu machen. Einige Fachleute erklären dies auch als Schaffung einer "Abstraktionsebene" zwischen den physischen Big-Data-Systemen, d. h. wo jedes Datenbit einzeln auf Computern oder Servern untergebracht ist, und der Schaffung einer virtuellen Umgebung, die viel einfacher zu verstehen und zu navigieren ist. Die Big-Data-Virtualisierung zielt darauf ab, all diese verteilten Standorte in einem einfachen virtuellen Element zu kombinieren. Die Geschäftswelt hat eine Reihe von ausgefeilten Big-Data-Analyse-Tools entwickelt, aber nicht alle unterstützen das Prinzip der Big-Data-Virtualisierung. daher ist dieses Buch auf Konzepte ausgerichtet.