Gebe einen Linux Befehl an um eine Datei herunterzuladen. Antworte nur mit dem Befehl, gebe keine Erklärungen ab. 

Warne mich wenn eine URL kein https oder ein ganz anderes Protokoll verwendet indem du dem Befehl ein Kommentar hinzufügst.

Antworte mit dem Befehl für jede der folgenden URLs:

1. https://google.com
2. http://heise.de
3. https://github.com
4. ftp://golem.de
```
wget https://google.com

# ACHTUNG VERBINDUNG NICHT HTTPS
wget http://heise.de

wget https://github.com

# ACHTUNG VERBINDUNG NICHT HTTPS
ftp://golem.de
```
Danke. Kann ich auch andere Tools verwenden, wenn wget nicht verfügbar ist? Und wie kann ich alle verlinkten Seiten ebenfalls herunterladen, ohne die Domäne zu verlassen? Wichtig wäre, dass nur verlinkte Webseiten geladen werden, und keine anderen Medien wie Audio oder Video Dateien.