Tutorial de Apache Spark
El tutorial de Apache Spark proporciona conceptos básicos y avanzados de Spark. Nuestro tutorial Spark está diseñado para principiantes y profesionales.
Spark es un motor de análisis unificado para el procesamiento de datos a gran escala que incluye módulos integrados para SQL, streaming, aprendizaje automático y procesamiento de gráficos.
Nuestro tutorial de Spark incluye todos los temas de Apache Spark con introducción a Spark, instalación de Spark, arquitectura de Spark, componentes de Spark, RDD, ejemplos en tiempo real de Spark, etc.
¿Qué es la chispa?
Apache Spark es un marco informático de clúster de código abierto. Su objetivo principal es manejar los datos generados en tiempo real.
Spark se construyó sobre Hadoop MapReduce. Fue optimizado para ejecutarse en la memoria, mientras que enfoques alternativos como MapReduce de Hadoop escriben datos hacia y desde los discos duros de las computadoras. Entonces, Spark procesa los datos mucho más rápido que otras alternativas.
Historia de Apache Spark
Spark fue iniciado por Matei Zaharia en el AMPLab de UC Berkeley en 2009. Fue de código abierto en 2010 bajo una licencia BSD.
En 2013, el proyecto fue adquirido por Apache Software Foundation. En 2014, Spark surgió como un proyecto Apache de alto nivel.
Características de Apache Spark
Uso de chispa
Requisito previo
Antes de aprender Spark, debes tener conocimientos básicos de Hadoop.
Audiencia
Nuestro tutorial Spark está diseñado para ayudar a principiantes y profesionales.
Problemas
Te aseguramos que no encontrarás ningún problema con este tutorial de Spark. Sin embargo, si hay algún error, publique el problema en el formulario de contacto.