Skip to content

DataSithAi/Installing-and-removing-Apache-Spark-on-Linux

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

10 Commits
 
 
 
 
 
 

Repository files navigation

🔥 Установка и удаление Apache Spark на Linux

Apache Spark Linux License GitHub Stars GitHub Forks

Полное руководство по установке и удалению Apache Spark на Linux-системах

ДокументацияТребованияБыстрый старт

Apache Spark Logo

📋 Содержание


🎯 Обзор

Данный репозиторий содержит подробные пошаговые инструкции по установке и удалению Apache Spark на различных дистрибутивах Linux. Независимо от того, настраиваете ли вы среду разработки или развертываете производственный кластер, это руководство вам поможет.

Apache Spark — это единая аналитическая система для крупномасштабной обработки данных, предлагающая высокоуровневые API на Java, Scala, Python и R, а также оптимизированный движок, поддерживающий общие графы выполнения.


🔧 Требования

Перед началом убедитесь, что у вас есть следующее:

Требование Версия Бейдж
Java JDK 8, 11 или 17+ Java
Python 3.7+ (для PySpark) Python
ОЗУ Минимум 4 ГБ RAM

📚 Документация

Репозиторий содержит два основных руководства:

Полная инструкция по установке, включающая:

  • Системные требования и зависимости
  • Пошаговый процесс установки
  • Настройка переменных окружения
  • Процедуры проверки и тестирования
  • Решение распространенных проблем

Подробное руководство по удалению, охватывающее:

  • Полные шаги деинсталляции
  • Очистка файлов конфигурации
  • Удаление переменных окружения
  • Проверка очистки системы

🚀 Быстрый старт

Установка

# 1. Обновите вашу систему (ALT Linux)
sudo apt-get update && sudo apt-get dist-upgrade -y

# 2. Скачайте Apache Spark
wget https://dlcdn.apache.org/spark/spark-4.0.1/spark-4.0.1-bin-hadoop3.tgz 

# 3. Распакуйте архив
tar -xzf spark-4.0.1-bin-hadoop3.tgz

# 4. Переместите в директорию установки
sudo mv spark-4.0.1-bin-hadoop3.tgz /opt/spark

# 5. Настройте переменные окружения
echo 'export SPARK_HOME=/opt/spark' >> ~/.bashrc
echo 'export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin' >> ~/.bashrc
source ~/.bashrc

# 6. Проверьте установку
spark-submit --version

Удаление

# 1. Удалите директорию Spark
sudo rm -rf /opt/spark

# 2. Удалите переменные окружения
# Отредактируйте ~/.bashrc и удалите записи SPARK_HOME и PATH

# 4. Очистка
rm -rf ~/spark-*

Для подробных инструкций обратитесь к полным руководствам, ссылки на которые приведены выше.


✨ Возможности

  • Пошаговые инструкции для беспроблемной установки
  • Поддержка нескольких дистрибутивов Linux
  • Руководство по настройке окружения
  • Советы по устранению неполадок для распространенных проблем
  • Чистый процесс удаления без оставшихся файлов
  • Лучшие практики конфигурации Spark
  • Процедуры проверки для обеспечения правильной настройки

🐧 Поддерживаемые дистрибутивы

Дистрибутив Статус Протестированные версии
Ubuntu Ubuntu ✅ Поддерживается 20.04, 22.04, 24.04
Debian Debian ✅ Поддерживается 10, 11, 12
CentOS CentOS ✅ Поддерживается 7, 8, Stream 9
RHEL RHEL ✅ Поддерживается 8, 9
Fedora Fedora ✅ Поддерживается 38, 39, 40
Arch Arch Linux ✅ Поддерживается Последняя
ALT Linux ALT Linux ✅ Поддерживается 10, 11

📜 Лицензия

Этот проект распространяется под лицензией MIT - подробности см. в файле LICENSE.


🙏 Благодарности

  • Apache Spark - Превосходная единая аналитическая система
  • Apache Software Foundation - За поддержку проекта Spark
  • Всем участникам, которые помогли улучшить это руководство

📞 Поддержка и контакты

  • 📧 Проблемы: GitHub Issues
  • 💬 Обсуждения: GitHub Discussions
  • 🌟 Поставьте звезду этому репозиторию, если он вам помог!

📊 Статус проекта

GitHub commit activity GitHub last commit GitHub repo size


Сделано с ❤️ от DataSithAi

Если это руководство вам помогло, пожалуйста, поставьте ⭐!

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 2

  •  
  •