Jak zainstalować Hadoop na Ubuntu 18.04 Bionic Beaver Linux
- 1658
- 14
- Laura Zygmunt
Apache Hadoop to struktura typu open source używana do pamięci rozproszonej, a także rozproszone przetwarzanie dużych zbiorów danych na temat klastrów komputerów, które działają na twardości towarowej. Hadoop przechowuje dane w Hadoop rozproszonym systemie plików (HDFS), a przetwarzanie tych danych odbywa się za pomocą MapReduce. Przędza zapewnia API do żądania i przydzielania zasobów w klastrze Hadoop.
Framework Apache Hadoop składa się z następujących modułów:
- Hadoop Common
- Hadoop rozproszony system plików (HDFS)
- PRZĘDZA
- MapReduce
W tym artykule wyjaśniono, jak zainstalować Hadoop wersję 2 na Ubuntu 18.04. Zainstalujemy HDFS (Namenode i DataNode), Yarn, MapReduce w klastrze pojedynczego węzła w trybie Pseudo rozproszonym, który jest rozproszony symulacja na jednym komputerze. Każdy demon Hadoop, taki jak HDFS, przędza, mapier. będzie działał jako osobny/indywidualny proces Java.
W tym samouczku nauczysz się:
- Jak dodać użytkowników do środowiska Hadoop
- Jak zainstalować i skonfigurować Oracle JDK
- Jak skonfigurować SSH bez hasła
- Jak zainstalować Hadoop i skonfigurować niezbędne powiązane pliki XML
- Jak rozpocząć klaster Hadoop
- Jak uzyskać dostęp do interfejsu internetowego Namenode i ResourceManager
Zastosowane wymagania i konwencje oprogramowania
Kategoria | Wymagania, konwencje lub wersja oprogramowania |
---|---|
System | Ubuntu 18.04 |
Oprogramowanie | Hadoop 2.8.5, Oracle JDK 1.8 |
Inny | Uprzywilejowany dostęp do systemu Linux jako root lub za pośrednictwem sudo Komenda. |
Konwencje | # - Wymaga, aby podane polecenia Linux są wykonywane z uprawnieniami root bezpośrednio jako użytkownik root lub za pomocą sudo Komenda$ - Wymaga, aby podane polecenia Linux zostały wykonane jako zwykły użytkownik niepewny |
Inne wersje tego samouczka
Ubuntu 20.04 (Focal Fossa)
Dodaj użytkowników środowiska Hadoop
Utwórz nowego użytkownika i grupę za pomocą polecenia:
# Dodaj użytkownika
Dodaj nowego użytkownika do Hadoop.
Zainstaluj i skonfiguruj Oracle JDK
Pobierz i wyodrębnij archiwum Java pod /optować
informator.
# CD /opt # TAR -xZVF JDK-8U192-Linux-X64.smoła.GZ
Lub
$ tar -xzvf JDK-8U192-Linux-x64.smoła.GZ -C /Opt
Aby ustawić JDK 1.8 Aktualizacja 192 Jako domyślny JVM użyjemy następujących poleceń:
# aktualizacja-alternatywy-install/usr/bin/java java/opt/jdk1.8.0_192/bin/java 100 # aktualizacja-alternatywy-install/usr/bin/javac javac/opt/jdk1.8.0_192/bin/javac 100
Po instalacji w celu sprawdzenia Java została pomyślnie skonfigurowana, uruchom następujące polecenia:
# aktualizacja-alternatywy--Display Java # aktualizacja-alternatywy-Display JavacInstalacja i konfiguracja OracleJDK.
Skonfiguruj SSH bez hasła
Zainstaluj otwarty serwer SSH i otwórz klienta SSH za pomocą polecenia:
# sudo apt-get install openSsh-server openSsh-client
Generuj pary kluczy publicznych i prywatnych z następującym poleceniem. Terminal będzie monitowany o wprowadzenie nazwy pliku. Naciskać WCHODZIĆ
i postępuj. Po tym skopiowaniu formularza kluczy publicznych id_rsa.pub
Do autoryzowane_keys
.
$ ssh -keygen -t rsa $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/autoryzowane_keys
Konfiguracja SSH bez hasła.
Sprawdź konfigurację SSH bez hasła za pomocą polecenia:
$ ssh localhost
Kontrola SSH bez hasła.
Zainstaluj hadoop i skonfiguruj powiązane pliki XML
Pobierz i wyodrębnij Hadoop 2.8.5 z oficjalnej strony internetowej Apache.
# tar -xzvf Hadoop -2.8.5.smoła.GZ
Konfigurowanie zmiennych środowiskowych
Edytuj Bashrc
Dla użytkownika Hadoop poprzez konfigurowanie następujących zmiennych środowiskowych Hadoop:
Eksport hadoop_home =/home/hadoop/hadoop-2.8.5 Eksportuj hadoop_install = $ hadoop_home eksport hadoop_mapred_home = $ hadoop_home eksport hadoop_common_home = $ hadoop_home eksport hadoop_hdfs_home = $ hadoop_home export yarn_home = $ hadoop_home export hadoop_common_lib_native_dir = $ hadoop_home/lib/lib/$ export export export $ = export export $/$ hadoop_ hadoop_ hadoop_ hadoop_ hadoops export pather = export thast/lib/$ export thast = export thast/ Eksport Hadoop_Opts = "-Djava.biblioteka.ścieżka = $ hadoop_home/lib/Native "
Kopiuj Źródło .Bashrc
W bieżącej sesji logowania.
$ źródło ~/.Bashrc
Edytuj Hadoop-env.cii
plik, który jest w /etc/hadoop
wewnątrz katalogu instalacji Hadoop i dokonaj następujących zmian i sprawdź, czy chcesz zmienić inne konfiguracje.
Eksport java_home =/opt/jdk1.8.0_192 Eksport Hadoop_conf_dir = $ Hadoop_conf_dir:-"/home/hadoop/hadoop-2.8.5/etc/hadoop "
Kopiuj Zmiany w Hadoop-ENV.plik sh. Zmiany konfiguracji w witrynie rdzeniowym.plik XML
Edytuj Site Core.XML
z vim lub możesz użyć dowolnego z redaktorów. Plik jest poniżej /etc/hadoop
wewnątrz Hadoop
Directory Home i dodaj następujące wpisy.
fs.defaultfs HDFS: // Localhost: 9000 Hadoop.TMP.reż /home/hadoop/hadooptmpdata
Kopiuj Ponadto utwórz katalog poniżej Hadoop
Folder domowy.
$ mkdir hadooptmpdataKonfiguracja dla rdzenia.plik XML.
Zmiany konfiguracji w witrynie HDFS.plik XML
Edytuj Site HDFS.XML
który jest obecny w tej samej lokalizacji i.mi /etc/hadoop
wewnątrz Hadoop
katalog instalacyjny i utwórz Namenode/DataNode
katalogi pod Hadoop
Katalog domów użytkownika.
$ mkdir -p hdfs/namenode $ mkdir -p hdfs/datanode
DFS.Replikacja 1 DFS.nazwa.reż Plik: /// home/hadoop/hdfs/namenode DFS.dane.reż Plik: /// home/hadoop/hdfs/datanode
Kopiuj Konfiguracja dla witryny HDFS.plik XML. Zmiany konfiguracyjne w witrynie Mapred.plik XML
Skopiuj Mapred.XML
z Mapred.XML.szablon
za pomocą CP
polecenie, a następnie edytuj Mapred.XML
położone w /etc/hadoop
pod Hadoop
Directory inpnelation z następującymi zmianami.
$ CP Mapred Site.XML.szablon Mapred-Site.XMLTworzenie nowego witryny Mapred.plik XML.
MapReduce.struktura.nazwa przędza
Kopiuj Konfiguracja dla Mapred-Site.plik XML. Zmiany konfiguracji w witrynie przędzy.plik XML
Edytować strona przędzy.XML
z następującymi wpisami.
MapReduceyarn.Nodemanager.Usługi aux MAPREDUCE_SHUFLE
Kopiuj Konfiguracja dla strony przędzy.plik XML. Rozpoczynając klaster Hadoop
Sformatuj nazanodę przed użyciem go po raz pierwszy. Jako użytkownik HDFS uruchamia poniższe polecenie, aby sformatować nazwy nazwy.
$ hdfs namenode -Format
Sformatuj nazewnictwo.
Po sformatowaniu nazwy, a następnie uruchom HDFS za pomocą start-DFS.cii
scenariusz.
Uruchamianie skryptu startupu DFS, aby uruchomić HDFS.
Aby uruchomić usługi przędzy, musisz wykonać skrypt początkowy przędzy i.mi. Start-Yarn.cii
Aby sprawdzić, czy wszystkie usługi/demony Hadoop zostały uruchomione z powodzeniem, możesz użyć JPS
Komenda.
/opt/jdk1.8.0_192/bin/JPS 20035 SecondaryNamenode 19782 DataNode 21671 JPS 20343 NodeManager 19625 Namenode 20187 ResourceManager
Kopiuj Wyjście Demonów Hadoop z polecenia JPS.
Teraz możemy sprawdzić bieżącą wersję Hadoop, której możesz użyć poniżej polecenia:
Wersja $ Hadoop
Lub
Wersja $ HDFS
Sprawdź wersję Hadoop.
Interfejs wiersza poleceń HDFS
Aby uzyskać dostęp do HDF i utworzyć niektóre katalogi DFS, możesz użyć HDFS CLI.
$ hdfs dfs -mkdir /test $ hdfs dfs -mkdir /hadooponubuntu $ hdfs dfs -ls /
Tworzenie katalogu HDFS za pomocą HDFS CLI.
Uzyskaj dostęp do nazwy i przędzy z przeglądarki
Możesz uzyskać dostęp zarówno do interfejsu internetowego dla Namenode, jak i Menedżer zasobów przędzy za pośrednictwem dowolnej przeglądarki, takiej jak Google Chrome/Mozilla Firefox.
Namenode Web interfejs - http: //: 50070
HDFS Directory Browing za pośrednictwem interfejsu użytkownika Namenode Web.
Interfejs internetowy YARN Resource Manager (RM) wyświetli wszystkie uruchomione zadania w bieżącym klastrze Hadoop.
Interfejs internetowy menedżera zasobów - http: //: 8088
Wniosek
Świat zmienia sposób, w jaki obecnie działa, a Big-Data odgrywa ważną rolę w tej fazie. Hadoop to ramy, które ułatwia nasz życie podczas pracy nad dużymi zestawami danych. Istnieją ulepszenia na wszystkich frontach. Przyszłość jest ekscytująca.
Powiązane samouczki Linux:
- Ubuntu 20.04 Hadoop
- Rzeczy do zainstalowania na Ubuntu 20.04
- Jak utworzyć klaster Kubernetes
- Jak zainstalować Kubernetes na Ubuntu 20.04 Focal Fossa Linux
- Rzeczy do zrobienia po zainstalowaniu Ubuntu 20.04 Focal Fossa Linux
- Jak zainstalować Kubernetes na Ubuntu 22.04 JAMMY Jellyfish…
- Rzeczy do zainstalowania na Ubuntu 22.04
- Jak pracować z WooCommerce Rest API z Pythonem
- Jak zarządzać klastrami Kubernetes z Kubectl
- Wprowadzenie do automatyzacji, narzędzi i technik Linuksa
- « Jak zainstalować Android Studio na Manjaro 18 Linux
- Jak zainstalować Google Chrome na Manjaro 18 Linux »