ubuntuusers.de

Bild-fishing-Maschine

Status: Ungelöst | Ubuntu-Version: Server 16.04 (Xenial Xerus)
Antworten |

2pex

Avatar von 2pex

Anmeldungsdatum:
24. Juni 2008

Beiträge: 35

Wohnort: Zülpich

Seit geraumer Zeit beschäftige ich mich konzeptionell-kreativ mit dem Bildmaterial, welches im Internet abgelegt wurde. Ein Konzeptentwurf, den ich hier besprechen möchte, sieht vor über eine Suchmaschine nach bestimmten Begriffen Bildmaterial zu finden, diese im Cache zu verarbeiten und als Druck-, Skizzen-, oder webkompatibles Format abzuspeichern.

Ich nenne das Webslam und Ergebnisse können hier besichtigt werden: http://arteurope.de/435/neue-weltordnung-webslam

Es wurde mit dem Begriff "Neue Weltordnung" nach Webseiten gesucht, die Bilder gecacht, montiert, vectorgrafiert und in einer ganz eigenen Ästhetik einer neuen Bildsprache nachgespürt.

Meine Idee besteht in einer Vernissage, in der diese Maschine selbstständig läuft und mittels eines angeschlossenen Printers die Ergebnisse ausdruckt.

ABER, ABER, ABER...

Das mit dem caching funktioniert nicht wirklich. Es ist mir aber sehr wichtig nach den gesetzlichen Vorgaben zu handeln und es spielt dabei überhaupt keine Rolle ob sich im Rahmen von Kunst überhaupt jemals einer daran stoßen würde.

Es gibt auch andere Kanten, die einfach nicht rund sind und vielleicht kann mir hier geholfen werden. Fangen wir an.

1. Suchmaschine Als Suchmaschine nutze ich Yacy von http://Yacy.de Um es jetzt hier einfacher zu gestalten suchen wir direkt Bilder. Die Idee ist aber die Bilder der Webseiten mit ihren Icons und Buttons zu cachen um so auch Funtionsinformationen in den Bildresultaten zu erhalten. Der Aufruf von yacy erfolgt über http://localhost:8090 und die Suchanfrage hat eine Syntax, die wir auch von anderen Suchmaschinen kennen:

http://localhost:8090/yacysearch.html?query=neue+weltordnung&contentdom=image&former=neue+weltordnung&maximumRecords=100&startRecord=0&verify=ifexist&resource=global&nav=location%2Chosts%2Cauthors%2Cnamespace%2Ctopics%2Cfiletype%2Cprotocol%2Clanguage&prefermaskfilter=&depth=0&constraint=&meanCount=5&timezoneOffset=-120

Mit dem Kommando

wget http://localhost:8090/yacysearch.html?query=neue+weltordnung&contentdom=image&former=neue+weltordnung&maximumRecords=100&startRecord=0&verify=ifexist&resource=global&nav=location%2Chosts%2Cauthors%2Cnamespace%2Ctopics%2Cfiletype%2Cprotocol%2Clanguage&prefermaskfilter=&depth=0&constraint=&meanCount=5&timezoneOffset=-120

erhält man einige Bilder, aber viele werden, zumindest bei mir, unleserlich. Letzlich konnte ich mir nur behelfen indem ich als Firefox-user die App Multi Links Plus installiert habe und damit alle Bildlinks in einer Textdatei gespeichert habe. Mit "cat" kann nun wget diese Datei zur Abarbeitung übergeben werden, doch leider ohne gewünschtes Ergebnis. Es klappt (bei mir jedenfalls) erst wenn ich aus der Linktextdatei ein Script mache in dem wget vor jeden einzelnen Link gesetzt wird. Ein nachfolgender Aufruf des Scriptes holt die Bilder und speichert sie in dem Ordner, von welchem wget gestartet wurde - und das soll eigentlich nicht sein.

Da ich später mit ImageMagick immer 2 Bilder miteinander vereinen möchte würde es reichen wenn wget auch nur 2 Bilder random-mäßig herausholt und sie zur Verarbeitung weiter reicht.

Die Frage ist also erstmal: Wie erhalte ich eine Linkliste von den Suchergebnissen? Wie cache ich die Orginalbilder? Sie dürfen nirgends abgelegt sein, erst Verarbeitungsergebnisse dürfen gespeichert werden.

Vielleicht erstmal bis hierhin und ich bin natürlich gespannt, ob mein Thema hier Gehör findet.

sebix Team-Icon

Ehemalige

Anmeldungsdatum:
14. April 2009

Beiträge: 5584

Ist es eventuell mit der API einfacher? http://yacy.net/en/API.html

2pex

(Themenstarter)
Avatar von 2pex

Anmeldungsdatum:
24. Juni 2008

Beiträge: 35

Wohnort: Zülpich

Tatsächlich, vielen Dank erstmal. Ich habe mich die ganze Zeit mit wget auseinandergesetzt und gar nicht die Features von YaCy beachtet.

rklm Team-Icon

Projektleitung

Anmeldungsdatum:
16. Oktober 2011

Beiträge: 13216

Für solche etwas komplexeren Aktivitäten eignet sich cURL m.E. besser. Oder man nimmt gleich eine Skriptsprache, für die es Werkzeuge zur Web-Automatisierung gibt, z.B. Ruby mit Mechanize und Nokogiri.

user_unknown

Avatar von user_unknown

Anmeldungsdatum:
10. August 2005

Beiträge: 17623

Wohnort: Berlin

2pex schrieb:

Seit geraumer Zeit beschäftige ich mich konzeptionell-kreativ mit dem Bildmaterial, welches im Internet abgelegt wurde.

Abgelegt? Das Urheberrecht spricht hier von veröffentlicht.

Meine Idee besteht in einer Vernissage, in der diese Maschine selbstständig läuft und mittels eines angeschlossenen Printers die Ergebnisse ausdruckt.

ABER, ABER, ABER...

Das mit dem caching funktioniert nicht wirklich. Es ist mir aber sehr wichtig nach den gesetzlichen Vorgaben zu handeln und es spielt dabei überhaupt keine Rolle ob sich im Rahmen von Kunst überhaupt jemals einer daran stoßen würde.

Ich glaube da sitzt Du einem Irrtum auf. Wenn Du Seiten anschaust werden die eh auf Deine Maschine übertragen und im RAM, im Cache, in temporären Ordnern zwischengespeichert. Das ist nicht das Problem. Problematisch ist das Veröffentlichen, und auch das Veröffentlichen bearbeiteter Werke fällt darunter.

Zwar gilst Du ab der Verarbeitung als der neue Urheber (wenn diese nicht trivial war). Aber das entbindet Dich nicht die Lizenz des Urhebers des Originals einzuholen. Die Veränderung eines Werkes bedarf der Lizenz, wenn Du das veränderte Werk öffentlich zugänglich machst. Auch CC-Werke entbinden Dich meistens nicht davon den Originalurheber zu nennen und die Quelle ordentlich zu verlinken.

Ich bin aber kein Anwalt, nur interessierter Laie.

2pex

(Themenstarter)
Avatar von 2pex

Anmeldungsdatum:
24. Juni 2008

Beiträge: 35

Wohnort: Zülpich

Ich benutze diese Bilder als Vorlage für eine eigene Kreation, so wie der Künstler sich mit seiner Staffelei vor einen Kirchturm setzt und ihn als Motiv auswählt. Es sind Motivsammlungen, die als Grundlage einer eigenen Sichtweise und Ästhetik zu einem NEUEN WERK ausgewählt werden. Es wird also gar kein ursprüngliches Bild verändert sondern nur einige Takte der "Musik" dieser Bilddatendateien-bytes als Anregung genommen etwas ganz anderes, neues zu schaffen.

Auf diese Weise verfolge ich die Veränderung der Bildsprache im Internet und kreiere Interpretationsmuster, die ihre Entwicklung durch die massenweise Nutzung großer Bevölkerungsanteile verdanken. So wird beispielsweise ein Dreieck in der Mitte eines Bildes nicht als störendes Artefakt empfunden, sondern deutet auf eine Mediendatei, einen Film, oder besser gesagt auf eine Aufforderung zur Interaktion.

Selbstverständlich hat diese Arbeit auch etwas provokantes. Wie Sie vielleicht wissen steht im Endzeitstadium neokapitalistischer Gesellschaften die totale Privatisierung (lat. privare = absondern, berauben, befreien). Regeln werden entworfen um unter dem Deckmantel des Schutzes den allumfassenden Zugriff als Eigentum über alle möglichen Bereiche zu erlangen (CETA und TTIP und der Sack ist zu).

Es darf ruhig bekannt werden wie mein Webslam-Bilder entstehen.

Antworten |