BOOKS - OS AND DB - Big Data Computing
Big Data Computing - Rajendra Akerkar 2013 PDF Chapman and Hall/CRC BOOKS OS AND DB
ECO~19 kg CO²

2 TON

Views
705967

 
Big Data Computing
Author: Rajendra Akerkar
Year: 2013
Pages: 564
Format: PDF
File size: 23,2 MB
Language: ENG



The book provides a comprehensive overview of big data computing, including its history, current trends, challenges, applications, and future directions. Book Description: Big Data Computing: A Comprehensive Guide to Understanding and Managing Large-Scale Data Introduction: In today's digital age, data has become the backbone of every industry, driving decision-making, optimizing processes, and enabling innovation. However, managing and analyzing large amounts of data can be a daunting task, especially when it comes to big data. Big Data Computing is an essential guide that delves into the world of massive datasets, providing a comprehensive understanding of the technical and practical aspects of big data computing. This book offers insights into the history, current trends, challenges, applications, and future directions of big data computing, making it a valuable resource for professionals and researchers alike. Chapter 1: The Evolution of Technology The process of technology evolution is a crucial aspect of big data computing. To understand the significance of this field, we must first explore how technology has evolved over time. From the early days of mainframe computers to the current era of cloud computing, technology has undergone tremendous changes. Each milestone in this journey has contributed to the development of big data computing, shaping its principles and practices. 1. 1 The Mainframe Era (1950s-1970s) In the early days of computing, mainframe computers were the primary source of data processing. These machines were expensive, bulky, and limited in their capabilities. However, they laid the foundation for modern computing by introducing the concept of centralized data storage and processing. 1. 2 The Personal Computer Revolution (1980s) The introduction of personal computers revolutionized the way people worked and communicated. This shift from centralized to decentralized computing led to the proliferation of data management and analysis tools, enabling individuals and organizations to manage their data more efficiently.
В книге представлен всесторонний обзор вычислений с большими данными, включая их историю, текущие тенденции, проблемы, приложения и будущие направления. Вычисления на основе больших данных: всеобъемлющее руководство по пониманию крупномасштабных данных и управлению ими. Введение: в современную цифровую эпоху данные стали основой любой отрасли, стимулируя принятие решений, оптимизируя процессы и стимулируя инновации. Однако управление большими объемами данных и их анализ могут оказаться сложной задачей, особенно если речь идет о больших данных. Вычисление больших данных - это важное руководство, которое углубляется в мир массивных наборов данных, обеспечивая всестороннее понимание технических и практических аспектов вычисления больших данных. Эта книга предлагает понимание истории, текущих тенденций, проблем, приложений и будущих направлений вычислений с большими данными, что делает ее ценным ресурсом как для профессионалов, так и для исследователей. Глава 1: Эволюция технологии Процесс эволюции технологии является важнейшим аспектом вычислений с большими данными. Чтобы понять значение этой области, мы должны сначала изучить, как технологии развивались с течением времени. С момента появления мэйнфреймов и до нынешней эры облачных вычислений технологии претерпели огромные изменения. Каждая веха в этом путешествии способствовала развитию вычислений больших данных, формированию их принципов и практик. 1. 1 Эпоха мейнфреймов (1950-1970-е годы) На заре вычислительной техники мейнфреймы были основным источником обработки данных. Эти машины были дорогими, громоздкими и ограниченными в своих возможностях. Однако они заложили основу современных вычислений, введя концепцию централизованного хранения и обработки данных. 1. 2 Революция персональных компьютеров (1980-е годы) Внедрение персональных компьютеров произвело революцию в том, как люди работали и общались. Этот переход от централизованных вычислений к децентрализованным привел к распространению инструментов управления и анализа данных, что позволило отдельным лицам и организациям более эффективно управлять своими данными.
livre présente un aperçu complet de l'informatique Big Data, y compris son histoire, les tendances actuelles, les défis, les applications et les orientations futures. Calcul basé sur le Big Data : un guide complet pour comprendre et gérer les données à grande échelle. Introduction : à l'ère numérique moderne, les données sont devenues la base de toute industrie, stimulant la prise de décision, optimisant les processus et stimulant l'innovation. Toutefois, la gestion et l'analyse de grandes quantités de données peuvent s'avérer difficiles, surtout en ce qui concerne les données volumineuses. Big Data Computing est un guide important qui s'étend dans un monde d'ensembles de données massifs, offrant une compréhension complète des aspects techniques et pratiques du calcul Big Data. Ce livre offre une compréhension de l'histoire, des tendances actuelles, des défis, des applications et des futurs domaines de l'informatique Big Data, ce qui en fait une ressource précieuse pour les professionnels et les chercheurs. Chapitre 1 : Évolution de la technologie processus d'évolution de la technologie est un aspect essentiel de l'informatique Big Data. Pour comprendre l'importance de ce domaine, nous devons d'abord examiner comment la technologie a évolué au fil du temps. Depuis l'arrivée des mainframes jusqu'à l'ère actuelle du cloud computing, la technologie a subi d'énormes changements. Chaque étape importante de ce voyage a contribué au développement de l'informatique Big Data, à la formation de ses principes et pratiques. 1. 1 L'ère mainframe (1950-1970) À l'aube de la technologie informatique, les mainframes étaient la principale source de traitement des données. Ces machines étaient coûteuses, encombrantes et limitées dans leurs capacités. Cependant, ils ont jeté les bases de l'informatique moderne en introduisant le concept de stockage et de traitement centralisés des données. 1. 2 Révolution des ordinateurs personnels (années 1980) L'introduction des ordinateurs personnels a révolutionné la façon dont les gens travaillaient et communiquaient. Ce passage de l'informatique centralisée à l'informatique décentralisée a permis la diffusion d'outils de gestion et d'analyse des données, permettant aux individus et aux organisations de mieux gérer leurs données.
libro ofrece una visión general completa de la computación de big data, incluyendo su historia, tendencias actuales, desafíos, aplicaciones y direcciones futuras. Computación basada en Big Data: una guía completa para comprender y administrar datos a gran escala. Introducción: en la era digital actual, los datos se han convertido en la base de cualquier industria, estimulando la toma de decisiones, optimizando los procesos y estimulando la innovación. n embargo, la gestión y el análisis de grandes cantidades de datos puede resultar difícil, especialmente cuando se trata de macrodatos. La computación de big data es una guía importante que se adentra en el mundo de los conjuntos de datos masivos, proporcionando una comprensión completa de los aspectos técnicos y prácticos de la computación de big data. Este libro ofrece una visión de la historia, las tendencias actuales, los problemas, las aplicaciones y las futuras direcciones de la computación con big data, lo que lo convierte en un recurso valioso tanto para profesionales como para investigadores. Capítulo 1: Evolución de la tecnología proceso de evolución de la tecnología es el aspecto más importante de la computación con big data. Para entender la importancia de este campo, primero debemos estudiar cómo ha evolucionado la tecnología a lo largo del tiempo. Desde la aparición de los mainframes hasta la era actual de la computación en la nube, la tecnología ha sufrido enormes cambios. Cada hito en este viaje ha contribuido al desarrollo de la computación del big data, la formación de sus principios y prácticas. 1. 1 Era de mainframe (1950-1970) En los albores de la computación, el mainframe era la principal fuente de procesamiento de datos. Estas máquinas eran caras, engorrosas y limitadas en sus capacidades. n embargo, sentaron las bases de la computación moderna al introducir el concepto de almacenamiento y procesamiento centralizados de datos. 1. 2 Revolución de las computadoras personales (década de 1980) La introducción de las computadoras personales revolucionó la forma en que las personas trabajaban y se comunicaban. Esta transición de la computación centralizada a la descentralizada ha dado lugar a la proliferación de herramientas de gestión y análisis de datos, lo que ha permitido a las personas y organizaciones administrar sus datos de manera más eficiente.
O livro apresenta uma visão completa da computação com grandes dados, incluindo seu histórico, tendências atuais, problemas, aplicativos e rumos futuros. Computação baseada em grandes dados: guia abrangente para compreender e gerenciar dados em grande escala. Introdução: Na era digital moderna, os dados tornaram-se a base de todos os setores, estimulando a tomada de decisões, otimizando processos e impulsionando a inovação. No entanto, gerenciar e analisar grandes quantidades de dados pode ser um desafio, especialmente quando se trata de grandes quantidades de dados. Computar grandes dados é um guia importante que se aprofunda no mundo de conjuntos de dados maciços, garantindo uma compreensão completa dos aspectos técnicos e práticos do cálculo de grandes dados. Este livro oferece compreensão da história, tendências atuais, problemas, aplicativos e futuras áreas de computação com grandes dados, tornando-o um recurso valioso tanto para profissionais como pesquisadores. Capítulo 1: Evolução da tecnologia O processo de evolução da tecnologia é um aspecto crucial da computação com grandes dados. Para compreender o significado desta área, temos de primeiro estudar como a tecnologia evoluiu ao longo do tempo. Desde a chegada dos mainframes até a era atual da computação em nuvem, a tecnologia passou por grandes mudanças. Cada hit nesta viagem contribuiu para o desenvolvimento da computação de grandes dados, a criação de seus princípios e práticas. 1. 1 A Era dos Mainframes (1950-1970) No início da computação, os mainframe eram a principal fonte de processamento de dados. Estes carros eram caros, pesados e limitados. No entanto, eles estabeleceram a base da computação moderna introduzindo o conceito de armazenamento e processamento centralizado de dados. 1. 2 Revolução dos computadores pessoais (anos 1980) A introdução de computadores pessoais revolucionou a forma como as pessoas trabalhavam e se comunicavam. Esta mudança de computação centralizada para descentralizada resultou na disseminação de ferramentas de controle e análise de dados, permitindo que indivíduos e organizações gerenciem seus dados de forma mais eficiente.
Il libro fornisce una panoramica completa dei calcoli di grandi dimensioni, incluse la loro storia, le tendenze attuali, i problemi, le applicazioni e le destinazioni future. Elaborazione basata su grandi dimensioni: guida completa alla comprensione e alla gestione dei dati su larga scala. Introduzione: nell'era digitale moderna, i dati sono stati il fulcro di qualsiasi settore, stimolando l'adozione di decisioni, ottimizzando i processi e stimolando l'innovazione. Tuttavia, gestire e analizzare grandi quantità di dati può rivelarsi difficile, soprattutto se si tratta di dati di grandi dimensioni. Il calcolo dei dati di grandi dimensioni è una guida importante che si approfondisce nel mondo dei dataset massicci, fornendo un'ampia comprensione degli aspetti tecnici e pratici del calcolo dei dati di grandi dimensioni. Questo libro offre la comprensione della storia, delle tendenze attuali, dei problemi, delle applicazioni e dei futuri ambiti di elaborazione con grandi dati, rendendola una risorsa preziosa sia per i professionisti che per i ricercatori. Capitolo 1: Evoluzione della tecnologia Il processo di evoluzione della tecnologia è un aspetto fondamentale del calcolo dei big data. Per comprendere il significato di questo campo, dobbiamo prima studiare come la tecnologia si è evoluta nel tempo. Dalla nascita dei mainframe fino all'era attuale del cloud computing, la tecnologia ha subito enormi cambiamenti. Ogni tappa di questo viaggio ha contribuito a sviluppare il calcolo dei big data, a creare i loro principi e le loro pratiche. 1. 1 L'era dei mainframe (1950-1970) All'alba dell'informatica, i mainframe erano la principale fonte di elaborazione dei dati. Queste macchine erano costose, ingombranti e limitate. Tuttavia, hanno creato le basi dei calcoli moderni introducendo il concetto di storage e elaborazione centralizzata dei dati. 1. La rivoluzione dei computer personali (annì 80) L'introduzione dei computer personali ha rivoluzionato il modo in cui le persone lavoravano e comunicavano. Questo passaggio dal calcolo centralizzato a quello decentralizzato ha portato alla diffusione di strumenti di gestione e analisi dei dati, consentendo a individui e organizzazioni di gestire i propri dati in modo più efficiente.
Das Buch bietet einen umfassenden Überblick über Big Data Computing, einschließlich seiner Geschichte, aktuellen Trends, Herausforderungen, Anwendungen und zukünftigen Richtungen. Big Data Based Computing: Ein umfassender itfaden zum Verständnis und zur Verwaltung von Großdaten. Einleitung: Im heutigen digitalen Zeitalter sind Daten zum Rückgrat jeder Branche geworden, fördern die Entscheidungsfindung, optimieren Prozesse und treiben Innovationen voran. Die Verwaltung und Analyse großer Datenmengen kann jedoch eine Herausforderung darstellen, insbesondere wenn es um Big Data geht. Big Data Computing ist ein wichtiger itfaden, der in die Welt der massiven Datensätze eintaucht und ein umfassendes Verständnis der technischen und praktischen Aspekte der Big Data-Berechnung vermittelt. Dieses Buch bietet Einblicke in die Geschichte, aktuelle Trends, Herausforderungen, Anwendungen und zukünftige Richtungen des Big Data Computing und ist damit eine wertvolle Ressource für Fachleute und Forscher gleichermaßen. Kapitel 1: Die Evolution der Technologie Der Prozess der Evolution der Technologie ist ein entscheidender Aspekt von Big Data Computing. Um die Bedeutung dieses Bereichs zu verstehen, müssen wir zunächst untersuchen, wie sich die Technologie im Laufe der Zeit entwickelt hat. Seit dem Aufkommen von Mainframes bis zur heutigen Ära des Cloud Computing hat sich die Technologie enorm verändert. Jeder Meilenstein auf dieser Reise trug zur Entwicklung von Big Data Computing bei, der Gestaltung ihrer Prinzipien und Praktiken. 1. 1 Das Mainframe-Zeitalter (1950er bis 1970er Jahre) Zu Beginn der Computertechnik waren Mainframes die Hauptquelle der Datenverarbeitung. Diese Maschinen waren teuer, sperrig und in ihren Fähigkeiten begrenzt. e legten jedoch den Grundstein für moderne Berechnungen, indem sie das Konzept der zentralen Datenspeicherung und -verarbeitung einführten. 1. 2 Personal Computer Revolution (1980er Jahre) Die Einführung von Personal Computern revolutionierte die Art und Weise, wie Menschen arbeiteten und kommunizierten. Dieser Übergang von zentralisiertem zu dezentralisiertem Computing hat zur Verbreitung von Datenmanagement- und Analysetools geführt, die es Einzelpersonen und Organisationen ermöglichen, ihre Daten effizienter zu verwalten.
''
Kitap, geçmişi, mevcut eğilimleri, zorlukları, uygulamaları ve gelecekteki yönleri de dahil olmak üzere büyük veri hesaplamasına kapsamlı bir genel bakış sunar. Büyük Veri Hesaplama: Büyük ölçekli verileri anlamak ve yönetmek için kapsamlı bir kılavuz. Giriş: Günümüzün dijital çağında, veri, karar vermeyi, süreçleri düzene sokmayı ve inovasyonu yönlendiren herhangi bir endüstrinin omurgası haline geldi. Bununla birlikte, büyük miktarda veriyi yönetmek ve analiz etmek, özellikle büyük veriler söz konusu olduğunda zor olabilir. Büyük veri hesaplama, büyük veri setlerinin dünyasına giren ve büyük veri hesaplamasının teknik ve pratik yönlerinin kapsamlı bir şekilde anlaşılmasını sağlayan önemli bir kılavuzdur. Bu kitap, büyük veri hesaplamasının geçmişi, mevcut eğilimleri, zorlukları, uygulamaları ve gelecekteki yönleri hakkında bilgiler sunarak, profesyoneller ve araştırmacılar için değerli bir kaynak olmasını sağlar. Bölüm 1: Teknolojinin Evrimi Teknolojinin evrimi, büyük veri hesaplamasının kritik bir yönüdür. Bu alanın önemini anlamak için, öncelikle teknolojinin zaman içinde nasıl geliştiğini incelemeliyiz. Ana bilgisayarların ortaya çıkmasından mevcut bulut bilişim çağına kadar, teknoloji büyük değişiklikler geçirdi. Bu yolculuktaki her kilometre taşı, büyük veri hesaplamasının geliştirilmesine, ilkelerinin ve uygulamalarının oluşturulmasına katkıda bulundu. 1. 1 Anabilgisayar dönemi (1950'ler-1970'ler) Bilişimin ilk günlerinde, anabilgisayarlar veri işlemenin birincil kaynağıydı. Bu arabalar pahalı, hantal ve yetenekleri sınırlıydı. Bununla birlikte, merkezi veri depolama ve işleme kavramını tanıtarak modern bilgi işlemin temelini attılar. 1. 2 Kişisel Bilgisayar Devrimi (1980'ler) Kişisel bilgisayarların tanıtılması, insanların çalışma ve iletişim kurma biçiminde devrim yarattı. Merkezileştirilmiş bilgisayardan merkezi olmayan bilgisayarlara geçiş, veri yönetimi ve analiz araçlarının çoğalmasına yol açarak, bireylerin ve kuruluşların verilerini daha verimli bir şekilde yönetmelerini sağlamıştır.
يقدم الكتاب لمحة عامة شاملة عن حوسبة البيانات الضخمة، بما في ذلك تاريخها والاتجاهات الحالية والتحديات والتطبيقات والاتجاهات المستقبلية. حوسبة البيانات الضخمة: دليل شامل لفهم وإدارة البيانات واسعة النطاق. مقدمة: في العصر الرقمي اليوم، أصبحت البيانات العمود الفقري لأي صناعة، حيث تقود عملية صنع القرار وتبسيط العمليات ودفع الابتكار. ومع ذلك، قد تكون إدارة وتحليل كميات كبيرة من البيانات أمرًا صعبًا، خاصة عندما يتعلق الأمر بالبيانات الضخمة. تعد حوسبة البيانات الضخمة دليلاً مهمًا يتعمق في عالم مجموعات البيانات الضخمة، ويوفر فهمًا شاملاً للجوانب التقنية والعملية لحوسبة البيانات الضخمة. يقدم هذا الكتاب رؤى حول التاريخ والاتجاهات الحالية والتحديات والتطبيقات والاتجاهات المستقبلية لحوسبة البيانات الضخمة، مما يجعله مصدرًا قيمًا للمحترفين والباحثين على حد سواء. الفصل 1: تطور التكنولوجيا يعد تطور التكنولوجيا جانبًا مهمًا في حوسبة البيانات الضخمة. لفهم أهمية هذا المجال، يجب علينا أولاً دراسة كيفية تطور التكنولوجيا بمرور الوقت. منذ ظهور الحواسيب المركزية إلى العصر الحالي للحوسبة السحابية، شهدت التكنولوجيا تغييرات هائلة. ساهم كل معلم في هذه الرحلة في تطوير حوسبة البيانات الضخمة، وتشكيل مبادئها وممارساتها. 1. 1 عصر الحاسوب المركزي (1950-1970) في الأيام الأولى للحوسبة، كانت الحواسيب المركزية المصدر الرئيسي لمعالجة البيانات. كانت هذه السيارات باهظة الثمن وضخمة ومحدودة في قدراتها. ومع ذلك، فقد أرسوا الأساس للحوسبة الحديثة من خلال إدخال مفهوم تخزين البيانات ومعالجتها بشكل مركزي. 1. 2 ثورة الكمبيوتر الشخصي (1980) أحدث إدخال أجهزة الكمبيوتر الشخصية ثورة في الطريقة التي يعمل بها الناس ويتواصلون معهم. وقد أدى هذا التحول من الحوسبة المركزية إلى الحوسبة اللامركزية إلى انتشار أدوات إدارة البيانات وتحليلها، مما سمح للأفراد والمنظمات بإدارة بياناتهم بكفاءة أكبر.

You may also be interested in:

Industry 4.0 Convergence with AI, IoT, Big Data and Cloud Computing: Fundamentals, Challenges and Applications (IoT and Big Data Analytics)
Data Science in Chemistry: Artificial Intelligence, Big Data, Chemometrics and Quantum Computing with Jupyter
Data Science in Chemistry Artificial Intelligence, Big Data, Chemometrics and Quantum Computing with Jupyter (De Gruyter Textbook)
Data Intensive Computing Applications for Big Data
Big Data Computing
High-Performance Big Data Computing
Big Data Analytics for Sustainable Computing
Cognitive Computing and Big Data Analytics
Spark Big Data Cluster Computing in Production
Big Data Computing Advances in Technologies, Methodologies, and Applications
Authentication Technologies for Cloud Computing, IoT and Big Data
Big-Data Analytics for Cloud, IoT and Cognitive Computing
Security and Privacy for Big Data, Cloud Computing and Applications
Big Data Computing Advances in Technologies, Methodologies, and Applications
Big Data-Enabled Internet of Things (Computing and Networks)
Big Data Management and Analytics (Future Computing Paradigms and Applications)
Intelligent Computing on IoT 2.0, Big Data Analytics, and Block Chain Technology
Smart Grid Communication Infrastructures Big Data, Cloud Computing, and Security
Big Data Recommender Systems - Volume 2 Application paradigms (Computing and Networks)
Intelligent Computing on IoT 2.0, Big Data Analytics, and Block Chain Technology
Big Data Demystified: How to use big data, data science and AI to make better business decisions and gain competitive advantage
Big Data Governance Modern Data Management Principles for Hadoop, NoSQL & Big Data Analytics
Industry 4.0 Convergence with AI, IoT, Big Data and Cloud Computing Fundamentals, Challenges and Applications
Big Data Computing: Advances in Technologies, Methodologies, and Applications (Computational Intelligence Techniques)
Industry 4.0 Convergence with AI, IoT, Big Data and Cloud Computing Fundamentals, Challenges and Applications
Data Analytics and Machine Learning: Navigating the Big Data Landscape (Studies in Big Data, 145)
Big Data and Cloud Computing for Development Lessons from Key Industries and Economies in the Global South
Big Data Management Data Governance Principles for Big Data Analytics, 1st Edition
Big data A Guide to Big Data Trends, Artificial Intelligence, Machine Learning, Predictive Analytics, Internet of Things, Data Science, Data Analytics, Business Intelligence, and Data Mining
Service-Oriented Computing and System Integration Software, IoT, Big Data, and AI as Services 8th Edition
Big Data and Cloud Computing: Select Proceedings of ICBCC 2022 (Lecture Notes in Electrical Engineering Book 1021)
Hadoop 2 Quick-Start Guide Learn the Essentials of Big Data Computing in the Apache Hadoop 2 Ecosystem
Big Data Systems A 360-degree Approach (Chapman & Hall/CRC Big Data Series)
Big Data Revolution What farmers, doctors and insurance agents teach us about discovering big data patterns
Big Data Recommender Systems - Volume 1 Algorithms, Architectures, Big Data, Security and Trust
Cloud Computing Enabled Big-Data Analytics in Wireless Ad-hoc Networks (Wireless Communications and Networking Technologies)
Designing Big Data Platforms How to Use, Deploy, and Maintain Big Data Systems
Big Data and Smart Digital Environment (Studies in Big Data Book 53)
Data Analytics: Practical Guide to Leveraging the Power of Algorithms, Data Science, Data Mining, Statistics, Big Data, and Predictive Analysis to Improve Business, Work, and Life
Data Analytics Practical Guide to Leveraging the Power of Algorithms, Data Science, Data Mining, Statistics, Big Data, and Predictive Analysis to Improve Business, Work, and Life