joe.schraube schrieb:
Es geht um gelebte Transparenz im Netz und um ein Angebot der Vernetzung gegen die zunehmende Ausbeutung von selbständigen.
Ähm, gelebte Transparenz? Persönliche Daten soll man nicht ohne Grund schützen. Wenn du von gelebt sprichst dann meinst du ein Crawler soll für andere Leute die Transparenz ausleben? Laut Gesetz darf jedes Individuum sein Leben selbst bestimmen. Das gilt auch für das Leben im digitalen Raum und den Umgang mit Daten.
Und wie bereits geschrieben, einen Crawler braucht es für eine Black sheep-Liste nicht. Außer du willst einen Bot bauen der Missbrauch afk bei Handwerkern registriert, was ich mir schlecht vorstellen kann.
Was das Adressen sammeln damit zu tun hat erschließt sich mir nicht. Außerdem ist ein Bewertungsportal das persönliche Daten von Personen ohne deren Einverständnis… nun sagen wir einfach für solch ein Projekt sollte man sich mit diversen deutschen Gesetzen genauer beschäftigen und sich auf Gerichtsverfahren einstellen.
Bzgl. der Datensätze zu kleinen Cent Beträgen:
Die Qualität der Datensätze ist so minderwertig dass diese sich nur für stupides, weit gestreutes Senden von SPAM eignen. Gute Datensätze sind um einiges teurer (mehrere Euro) mit jeweils definierten Zielgruppen. Persönliche Adressen (joe.mustermann@großes-deutsches-unternehmen.de) haben auch einen anderen Stellenwert als grobe Kontaktadressen.
Dass du keinen Crawler findest ist… ähm. bezeichnend. Denn im Web auf jeder größeren Hostingplattform finden sich dutzende die sich einfach nutzen lassen. Komplexere Webcrawler die verschleierte Adressen erkennen sind schon seltener.
Eine schnelle Suche von mir gibt mir über 200 Webcrawler in allen erdenklichen Programmiersprachen. Über die Qualität sagt das zwar nichts aus, aber mind. 50 davon sind gut Nutzbar und vielleicht 5 sogar sehr effizient.