Wyciągnij wszystkie adresy URL za pomocą pięknej zupy i pithon3
- 2365
- 553
- Igor Madej
Poniższy link wyodrębni wszystkie adresy URL dla danej strony internetowej.
#!/usr/bin/env python3 # Python Wersja: 3.4.2 # BS4 Wersja: 4.3.2-2 z urllib.Poproś o import urlopen z BS4 Import BeautifulSoup HTML = urlopen („http: // gnU.org ") # Wstaw swój adres URL do wyodrębnienia BSOBJ = Beautifulsoup (html.Czytać()); Do połączyć W Bsobj.Find_All („a”): wydrukować(połączyć.Get („href”))
Zapisz powyższy skrypt w pliku, np. Wyciąg-URL.py
i spraw, aby był wykonywalny:
$ chmod +x ekstrakt-url.py
Uruchom skrypt:
$ ./ekstrakt-URL.py
Powiązane samouczki Linux:
- Jak zbudować aplikację Tkinter za pomocą obiektu zorientowanego na…
- Jak pracować z WooCommerce Rest API z Pythonem
- Jak skonfigurować serwer OpenVPN na Ubuntu 20.04
- Pobierz plik z adresu URL w systemie Linux za pomocą wiersza poleceń
- Wprowadzenie do automatyzacji, narzędzi i technik Linuksa
- Rzeczy do zainstalowania na Ubuntu 20.04
- Jak ustawić domyślne programy za pomocą alternatywnych aktualizacji na…
- Jak czytać i tworzyć pliki CSV za pomocą Pythona
- Jak zeskrobać strony internetowe z wiersza poleceń za pomocą HTMLQ
- Jak napisać rozszerzenia Nautilus z Nautilus-Python
- « Instalacja linii poleceń Amazon S3CMD S3 na Debian Linux
- Bash ShellShock Bug Bug Linux Test podatności na podatność »