hm... also das mit den favoriten hab ich auch hinbekommen.
nur für die einzelnen collections hat das nicht geklappt, dafür hab ich jetzt ne kombi gemacht mit dem Web-Developer und AutoPager - Addon.
Und noch n kleines python-skript is auch noch dabei um die cookies zu extrahieren... ^^ (Wohl nicht gerade der beste weg, aber es funktioniert!)
Funktioniert folgendermaßen: zunächst stellt man autopager so ein, dass es alle bilder der collection läd. Dann kopiert man sich mit hilfe des Web-Dev-Addons den generierten Quelltext.
Den speichert man dann lokal auf dem PC und übergibt diesen Quelltext sowie den Downloadordner dem Programm.
Damit man auch die mature-bilder bekommt sollte man einen eigenen account haben und sich vor dem ausführen der skripte kurz bei deviantart eingeloggt haben.
#!/bin/bash
# USAGE:
# Aufruf:
# ./dateiname [Quelltext] [Downloadfolder]
# Path to save downloaded images
BG_PATH="/home/$USER/Bilder/DeviantArt/$2"
mkdir "$1_temp"
cp $1 "$1_temp/$1"
cp "/home/$USER/.mozilla/firefox/yj7c31ss.default/cookies.sqlite" "/home/$USER/Bilder/DeviantArt/Code/$1_temp/"
# Cookie per pythonscript aus cookies.sqlite extrahieren
./cookieextract.py deviantart $1
cd "$1_temp"
sed -i "s/[\]//g" $1
sed -i "/DiFi.cache/d" $1
sed -i "/class=\"preload\"/d" $1
# Seiten mit dem 'Grundbild' herausfiltern (noch nicht das richtige Bild)
cat $1 | grep -E -o "http://.[^/]*/+(art)+/+.[^\");:]*" > raw_adresslist.txt
sed -i "/150/d" raw_adresslist.txt; sed -i "/null.png/d" raw_adresslist.txt; sed -i "/small3.png/d" raw_adresslist.txt; sed -i "/jc.js/d" raw_adresslist.txt; sed -i "/css?/d" raw_adresslist.txt; sed -i "s/[\]//g" raw_adresslist.txt
cat raw_adresslist.txt | sort > sorted1.txt
cat sorted1.txt | uniq > adresslist_nodubs.txt
if [ ! -e "$1.txt" ]; then
echo "Die Seite $1 wurde noch nicht als $1.txt gespeichert"
wget -U Mozilla --load-cookies "../.cookies.txt" -O $1.txt -i adresslist_nodubs.txt
else
echo "Die Seite $1.txt ist schon vorhanden, beginne mit auswertung"
fi
cat "$1.txt" | grep -E -o "http:[\\]/[\\]/....\.deviantart.net[\\]/[^/]*[\\]/.[\\]/.[^}]*\.(jpg|png|jpeg|gif)" >raw_adresslist2.txt
sed -i "s/[\]//g" raw_adresslist2.txt
cat raw_adresslist2.txt | sort > sorted.txt
cat sorted.txt | uniq > filtered2.txt
wget -U Mozilla --load-cookies "../.cookies.txt" -nc -P "$BG_PATH" -i filtered2.txt
Für die Favoriten hab ich das soweit abgeändert, dass man beim aufruf des Skripts den User sowie den Downloadordner angibt.
#!/bin/bash
# USAGE:
# ./dateiname [DevUser] [Downloadfolder]
# Path to save downloaded images
BG_PATH="/home/$USER/Bilder/DeviantArt/$2"
mkdir "temp"
# der Teil vor dem .default muss individuell angepasst werden.
cp "/home/$USER/.mozilla/firefox/yj7c31ss.default/cookies.sqlite" "/home/$USER/Bilder/DeviantArt/Code/temp/"
# Cookie per pythonscript aus cookies.sqlite extrahieren
./cookieextract.py deviantart
# RSS Feed to fetch images from
FAVES="http://backend.deviantart.com/rss.xml?q=favby%3A$1"
# read image adresses from faves rss-site (can be found in sourcecode of the fave's site)
wget -U Mozilla --load-cookies .cookies.txt -O - "$FAVES" | grep -E -o -m 60 "http://....\.deviantart.net/[^/]*/./.*\.(jpg|png|jpeg|gif)" | xargs wget -nc -P "$BG_PATH"