Seit geraumer Zeit beschäftige ich mich konzeptionell-kreativ mit dem Bildmaterial, welches im Internet abgelegt wurde. Ein Konzeptentwurf, den ich hier besprechen möchte, sieht vor über eine Suchmaschine nach bestimmten Begriffen Bildmaterial zu finden, diese im Cache zu verarbeiten und als Druck-, Skizzen-, oder webkompatibles Format abzuspeichern.
Ich nenne das Webslam und Ergebnisse können hier besichtigt werden: http://arteurope.de/435/neue-weltordnung-webslam
Es wurde mit dem Begriff "Neue Weltordnung" nach Webseiten gesucht, die Bilder gecacht, montiert, vectorgrafiert und in einer ganz eigenen Ästhetik einer neuen Bildsprache nachgespürt.
Meine Idee besteht in einer Vernissage, in der diese Maschine selbstständig läuft und mittels eines angeschlossenen Printers die Ergebnisse ausdruckt.
ABER, ABER, ABER...
Das mit dem caching funktioniert nicht wirklich. Es ist mir aber sehr wichtig nach den gesetzlichen Vorgaben zu handeln und es spielt dabei überhaupt keine Rolle ob sich im Rahmen von Kunst überhaupt jemals einer daran stoßen würde.
Es gibt auch andere Kanten, die einfach nicht rund sind und vielleicht kann mir hier geholfen werden. Fangen wir an.
1. Suchmaschine Als Suchmaschine nutze ich Yacy von http://Yacy.de Um es jetzt hier einfacher zu gestalten suchen wir direkt Bilder. Die Idee ist aber die Bilder der Webseiten mit ihren Icons und Buttons zu cachen um so auch Funtionsinformationen in den Bildresultaten zu erhalten. Der Aufruf von yacy erfolgt über http://localhost:8090 und die Suchanfrage hat eine Syntax, die wir auch von anderen Suchmaschinen kennen:
http://localhost:8090/yacysearch.html?query=neue+weltordnung&contentdom=image&former=neue+weltordnung&maximumRecords=100&startRecord=0&verify=ifexist&resource=global&nav=location%2Chosts%2Cauthors%2Cnamespace%2Ctopics%2Cfiletype%2Cprotocol%2Clanguage&prefermaskfilter=&depth=0&constraint=&meanCount=5&timezoneOffset=-120
Mit dem Kommando
wget http://localhost:8090/yacysearch.html?query=neue+weltordnung&contentdom=image&former=neue+weltordnung&maximumRecords=100&startRecord=0&verify=ifexist&resource=global&nav=location%2Chosts%2Cauthors%2Cnamespace%2Ctopics%2Cfiletype%2Cprotocol%2Clanguage&prefermaskfilter=&depth=0&constraint=&meanCount=5&timezoneOffset=-120
erhält man einige Bilder, aber viele werden, zumindest bei mir, unleserlich. Letzlich konnte ich mir nur behelfen indem ich als Firefox-user die App Multi Links Plus installiert habe und damit alle Bildlinks in einer Textdatei gespeichert habe. Mit "cat" kann nun wget diese Datei zur Abarbeitung übergeben werden, doch leider ohne gewünschtes Ergebnis. Es klappt (bei mir jedenfalls) erst wenn ich aus der Linktextdatei ein Script mache in dem wget vor jeden einzelnen Link gesetzt wird. Ein nachfolgender Aufruf des Scriptes holt die Bilder und speichert sie in dem Ordner, von welchem wget gestartet wurde - und das soll eigentlich nicht sein.
Da ich später mit ImageMagick immer 2 Bilder miteinander vereinen möchte würde es reichen wenn wget auch nur 2 Bilder random-mäßig herausholt und sie zur Verarbeitung weiter reicht.
Die Frage ist also erstmal: Wie erhalte ich eine Linkliste von den Suchergebnissen? Wie cache ich die Orginalbilder? Sie dürfen nirgends abgelegt sein, erst Verarbeitungsergebnisse dürfen gespeichert werden.
Vielleicht erstmal bis hierhin und ich bin natürlich gespannt, ob mein Thema hier Gehör findet.