Hallo Leute,
Ich möchte von mehreren Seiten Informationen holen. Bisher brauchte ich nur eine Information. Das hab ich folgendermaßen gemacht.
Eine "liste" mit 3 Spalten (URL # Nummer # Kapitel). Mit FOR die "liste" abgearbeitet: Variablen zugeteilt und weiter mit wget und grep.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 | liste=" http://www.beispiel.de/seite_01.html#86#12 http://www.beispiel.de/seite_02.html#42#8 http://www.beispiel.de/seite_03.html#100#60 " usw. stellen=3 # für 001 002 ... 009 ... for i in `echo $liste` ; do url=`echo $i |cut -d# -f1` nummer=`echo $i |cut -d# -f2` kapitel=`echo $i |cut -d# -f3` nam=`echo $i |cut -d# -f1 |rev|cut -d/ -f1|rev|cut -d. -f1` # -O Dokumente in DATEI schreiben # -q keine Ausgabe von Meldungen wget -O $pfad/$nam -q $url suche=$(cat $pfad/$nam |grep -m1 "Nummer $nummer") # -m1 Stop nach ersten treffer if echo $suche | grep -qw "$kapitel" ; then echo -e " \n\033[42;1;1m S`printf "%.${stellen}i\n" $nummer` E`printf "%.${stellen}i\n" $kapitel` ja --- $nam\033[0m\n" else echo -e " \033[41;1;1m S`printf "%.${stellen}i\n" $nummer` E`printf "%.${stellen}i\n" $kapitel` nein --- $nam\033[0m" fi rm $pfad/$nam done |
Jetzt brauche ich aber noch 2 Informationen von z.B. seite_01.html. Gelöst habe ich das erst mal so, dass ich das die in Variablen "liste" eintrage. Es funktioniert, aber wget lädt die Seiten dann zwei mal und das muss ja nicht sein.
Hat eine ne Idee wie das optimiert werden kann?
1 2 3 4 5 6 7 8 | liste=" http://www.beispiel.de/seite_01.html#86#12 http://www.beispiel.de/seite_01.html#87#1 http://www.beispiel.de/seite_02.html#42#8 http://www.beispiel.de/seite_02.html#43#1 http://www.beispiel.de/seite_03.html#100#60 http://www.beispiel.de/seite_03.html#101#1 " |