Jak zainstalować Apache Kafka na Debian 11/10
- 3400
- 76
- Natan Cholewa
Apache Kafka to rozproszona platforma strumieniowa. Przydatne jest budowanie rurociągów danych w czasie rzeczywistym, aby uzyskać dane między systemami lub aplikacjami. Inną przydatną funkcją są aplikacje strumieniowe w czasie rzeczywistym, które mogą przekształcić strumienie danych lub reagować na strumieniu danych.
Ten samouczek pomoże Ci zainstalować Apache Kafka na Debian 11, Debian 10 i Debian 9 Linux Systems.
Krok 1 - Zainstaluj Java
Apache Kafka wymagał od Java. Musisz mieć zainstalowany w swoim systemie Java. Wykonaj poniższe polecenie, aby zainstalować domyślnie OpenJDK w systemie z oficjalnych PPA.
sudo apt aktualizacja sudo apt instinst instaluj default-jdk
Krok 2 - Pobierz Apache Kafka
Pobierz pliki binarne Apache Kafka z oficjalnej strony pobierania. Możesz także wybrać dowolne pobliskie lustro do pobrania.
wget https: // dlcdn.Apache.org/kafka/3.2.0/kafka_2.13-3.2.0.TGZ
Następnie wyodrębnij plik archiwum
TAR XZF KAFKA_2.13-3.2.0.TGZ
sudo mv kafka_2.13-3.2.0/usr/local/kafka
Krok 3 - Utwórz pliki jednostek SystemD
Następnie utwórz pliki jednostek systemowych dla usługi Zookeeper i Kafka. Pomoże to zarządzać usługami Kafka w celu uruchomienia/zatrzymania korzystania z polecenia SystemCtl.
Najpierw utwórz plik jednostki SystemD dla Zookeeper z poniższym poleceniem:
vim/etc/systemd/system/zookeeper.praca
Dodaj poniżej zawartość:
[Jednostka] Opis = Apache Zookeeper Server Dokumentacja = http: // Zookeeper.Apache.org wymaga = sieć.celowe zdalne fs.Target po = sieć.celowe zdalne fs.Target [Service] Type = Simple ExecStart =/usr/local/kafka/bin/zookeeper-server-start.sh/usr/local/kafka/config/zookeeper.Właściwości execstop =/usr/local/kafka/bin/zookeeper-server-stop.SH RESTART = on-Abnormal [instalacja] Wantedby = Multi-User.cel
Zapisz plik i zamknij go.
Następnie, aby utworzyć plik jednostki Kafka SystemD za pomocą następującego polecenia:
vim/etc/systemd/system/kafka.praca
Dodaj poniższą zawartość. Pamiętaj, aby ustawić poprawne Java_home ścieżka zgodnie z instalacją Java w twoim systemie.
[Jednostka] Opis = Apache Kafka Server Documentation = http: // kafka.Apache.org/dokumentacja.html wymaga = Zookeeper.Service [Service] Type = proste środowisko = "java_home =/usr/lib/jvm/java-1.11.0-OPENJDK-AMD64 "execstart =/usr/local/kafka/bin/kafka-server-start.sh/usr/local/kafka/config/serwer.Właściwości execstop =/usr/local/kafka/bin/kafka-server-stop.sh [instalacja] WantedBy = Multi-użytkownik.cel
Zapisz plik i zamknij.
Załaduj demona systemu, aby zastosować nowe zmiany.
SystemCtl Demon-Reload
Krok 4 - Rozpocznij serwer Kafka
Kafka wymagała Zookeeper, więc najpierw uruchom serwer Zookeeper w swoim systemie. Możesz użyć skryptu dostępnego z Kafka, aby rozpocząć instancję Zookeeper w pojedynczym węźle.
sudo systemctl start zookeeper
Teraz uruchom serwer Kafka i wyświetl status działający:
sudo systemctl start kafka sudo systemctl status kafka
Wszystkie zrobione. Instalacja Kafka została pomyślnie zakończona. Część tego samouczka pomoże Ci pracować z serwerem Kafka.
Krok 5 - Utwórz temat w Kafka
Kafka zapewnia na nim wiele wstępnie zbudowanego skryptu powłoki. Najpierw utwórz temat o nazwie „TestTopic” z pojedynczą partycją z jedną repliką:
CD/USR/Local/Kafka Bin/Kafka-Topics.sh-Create-bootstrap-server localhost: 9092-Odreplikacja-fakt 1-partie 1-Topic TestTopic stworzony temat TETMTOPIC.
Factor replikacji opisuje, ile kopii danych zostanie utworzonych. Gdy działa z jednym instancją, zachowaj tę wartość 1.
Ustaw opcje partycji jako liczbę brokerów, które chcesz, aby Twoje dane zostały podzielone. Gdy działa z jednym brokerem, zachowaj tę wartość 1.
Możesz tworzyć wiele tematów, uruchamiając to samo polecenie jak powyżej. Następnie możesz zobaczyć utworzone tematy na Kafce za pomocą komendy uruchomionego poniżej:
Bin/Kafka-Topics.sh - -list --zookeeper LocalHost: 9092 Testtopic TecadminTiorial1 TecadMintutorial2
Alternatywnie, zamiast ręcznego tworzenia tematy.
Krok 6 - Wyślij wiadomości do Kafki
„Producent” to proces odpowiedzialny za umieszczanie danych w naszej Kafce. Kafka jest wyposażona w klienta wiersza poleceń, który przyjmie dane wejściowe z pliku lub ze standardowego wejścia i wyśle go jako wiadomości do klastra Kafka. Domyślna Kafka wysyła każdą wiersz jako osobną wiadomość.
Uruchommy producent, a następnie wpiszmy kilka wiadomości do konsoli, aby wysłać na serwer.
Bin/Kafka-Consol-Producer.SH-Broker-List LocalHost: 9092-Topic Testtopic> Witamy w Kafka> To jest mój pierwszy temat>
Możesz wyjść z tego polecenia lub utrzymać ten terminal w celu dalszego testowania. Teraz otwórz nowy terminal do procesu konsumenckiego Kafka na następnym kroku.
Krok 7 - Korzystanie z Kafka Consumer
Kafka ma również konsumenta z wiersza poleceń do odczytu danych z klastra Kafka i wyświetlanie komunikatów do standardowego wyjścia.
Bin/Kafka-Console-Consumer.sh-bootstrap-server localhost: 9092-Topic Testtopic-From-Beginning Welcome to Kafka To jest mój pierwszy temat
Teraz, jeśli nadal pracujesz Kafka (krok #6) w innym terminalu. Po prostu wpisz trochę tekstu na tym terminalu producenta. będzie natychmiast widoczny na terminalu konsumenckim. Zobacz poniższy zrzut ekranu producenta i konsumenta Kafka w pracy:
Wniosek
Pomyślnie zainstalowałeś i skonfigurowałeś usługę Kafka w systemie Debian Linux.