Crunkrock
Anmeldungsdatum: 2. März 2013
Beiträge: 80
|
Hallo, ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht. Ich nutze (unter anderem) den Clouddienst Spideroak. Dieser wirbt damit, die Daten schon lokal zu verschlüsseln. Ich möchte manche Daten jedoch nicht unverschlüsselt auf der Festplatte liegen haben. Wenn ich diese Dateien jetzt lokal verschlüssele, z.B. mit EncFS, und diese dann mit Spideroak synchronisiere, werden sie ja auch doppelt verschlüsselt. Ist das eine schlechte Idee und die Daten wären sicherer vor Verlust durch Komplikationen geschützt, wenn ich dafür z.B. Dropbox benutze? Viele Grüße
|
jug
Ehemalige
Anmeldungsdatum: 19. März 2007
Beiträge: 12335
Wohnort: Berlin
|
Crunkrock schrieb: ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.
Es wäre ganz hilfreich, solche Behauptungen auch mit Quellen zu hinterlegen, damit man die Argumentation dahinter etwas besser nachvollziehen kann. Von Komplikationen weiß ich so nichts. Empfehlen würde ich doppelte Verschlüsselung trotzdem nicht – also nicht, wenn die Idee dahinter „mehr Sicherheit“ ist. Ein Verschlüsselungsalgorithmus muss sicher sein (das gilt auch für die Implementierung). Hier greift Kerckhoffs'_Prinzip. Wenn wir also davon ausgehen können, dass der Algorithmus sicher ist, die Implementierung keine Schwächen hat und der Schlüssel sicher aufbewahrt ist, dann reicht eine Verschlüsselung vollkommen aus. Eine doppelte Verschlüsselung ist dann verschwendete Rechenzeit.
Ich nutze (unter anderem) den Clouddienst Spideroak. Dieser wirbt damit, die Daten schon lokal zu verschlüsseln. Ich möchte manche Daten jedoch nicht unverschlüsselt auf der Festplatte liegen haben. Wenn ich diese Dateien jetzt lokal verschlüssele, z.B. mit EncFS, und diese dann mit Spideroak synchronisiere, werden sie ja auch doppelt verschlüsselt.
In diesem Fall sehe ich nichts, was dagegen sprechen würde.
Ist das eine schlechte Idee und die Daten wären sicherer vor Verlust durch Komplikationen geschützt, wenn ich dafür z.B. Dropbox benutze?
Ich halte Dropbox generell für eine schlechte Idee, wenn es um Privatsphäre und Sicherheit geht. 😉 ~jug
|
V_for_Vortex
Anmeldungsdatum: 1. Februar 2007
Beiträge: 12085
Wohnort: Berlin
|
Crunkrock schrieb: Wenn ich diese Dateien jetzt lokal verschlüssele, z.B. mit EncFS
Ich würde statt EncFS zu ecryptfs für lokale Dateiverschlüsselung raten. Siehe den roten Kasten im Artikel EncFS. Ansonsten kann ich mich jugs Ausführungen nur anschließen: Probleme nein, Rechenzeitverschwendung ja.
|
chilidude
Anmeldungsdatum: 18. Februar 2010
Beiträge: 867
|
Crunkrock schrieb: Hallo, ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.
Das kann durchaus passieren. Durch Mehrfachverschlüsselung können die Bits so heftig durcheinandergewirbelt werden, dass sie bei der Entschlüsselung nicht mehr in die richtige Reihenfolge zurücksortiert werden können. (Sogenanntes "Bitstolpern".) Vorsicht ist also geboten!
|
Benno-007
Anmeldungsdatum: 28. August 2007
Beiträge: 29240
Wohnort: Germany
|
"Es wurden keine mit Ihrer Suchanfrage - bitstolpern - übereinstimmenden Dokumente gefunden." Es ist zwar korrekt, dass jede zusätzliche Schicht die Komplexität und damit Risiko erhöht, aber solange jede Schicht für sich exakt programmiert ist und funktioniert, gibt es auch zusammen keine Probleme. Außer bei Hardwareschäden. Oder komischen Wechselwirkungen, die aber dann schon im Einzelfall zwischen zwei bestimmten Verfahren begründet werden müssten. Ausnahme, wie gesagt. Ich würde sowas nicht als Normalfall bzw. echte Gefahr darstellen. Grüße, Benno
|
V_for_Vortex
Anmeldungsdatum: 1. Februar 2007
Beiträge: 12085
Wohnort: Berlin
|
Benno-007 schrieb: "Es wurden keine mit Ihrer Suchanfrage - bitstolpern - übereinstimmenden Dokumente gefunden."
Sowas ähnliches hatte ich mir gestern Abend verkniffen. 😉 Ich vermute Ironie seitens chilidudes, dazu fehlt allerdings ein Smilie. ❓ Wenn Ernst, dann Quellen bitte.
|
Vegeta
Anmeldungsdatum: 29. April 2006
Beiträge: 7943
|
In der leider nicht mehr verfügbaren Onlinehilfe von TrueCrypt stand irgendwo zu lesen, dass eine Verschlüsselungskaskade theoretisch die Gefahr birgt, dass sich die Algorithmen gegenseitig schwächen. Soll heißen der erste Algorithmus wird durch den späteren teilweise wieder aufgehoben oder abgeschwächt. Das ganze ist aber nur theoretisch und ist nicht hinreichend erforscht. Ob das nun einen Angriffspunkt darstellt, kann dir leider keiner sagen und ist dann auch noch abhängig von den verwendeten Algorithmen.
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7658
|
Am sichersten ist es wenn du zweimal mit ROT13 verschlüsselst. 😬 Eine Verschlüsselung die seitens einer Cloud durchgeführt wird, würde ich nicht mitzählen da das sowieso nicht vertrauenswürdig ist. Verschlüsseln muss man wenn dann schon selbst mit einer Methode die sicher ist bzw. einem brauchbar erscheint. Wenn du natürlich mit LUKS, ecryptfs, o.ä. lokal verschlüsselst, dann aber die unverschlüsselten Daten mit der Cloud syncst hat es gar nichts gebracht. Daß deine Festplatten verschlüsselt sind interessiert ja die Software nicht, wenn die Kiste erst mal läuft, greift ja alles auf die entschlüsselten Daten zu.
|
Crunkrock
(Themenstarter)
Anmeldungsdatum: 2. März 2013
Beiträge: 80
|
Nein, es ist schon so eingerichtet, dass die verschlüsselten Dateien im Cloud-Ordner liegen, die gemounteten Dateien dann aber nicht. Den Umstieg auf ecryptfs sollte ich in Erwägung ziehen, stimmt. Alles in allem klingt es jetzt ja eher so, als sei das Risiko des Datenverlusts (darum ging es mir bei der Frage) nicht besonders hoch ist. Danke!
|
V_for_Vortex
Anmeldungsdatum: 1. Februar 2007
Beiträge: 12085
Wohnort: Berlin
|
Vorsicht aber widerum bei eCryptFS in Verbindung mit der Cloud, da hat es Schwächen in Sachen Updates der Daten bei gleichzeitigem Zugriff, was zu Datenverlust führen kann. Also eCryptFS besser nur lokal einsetzen. ❗
|
frostschutz
Anmeldungsdatum: 18. November 2010
Beiträge: 7658
|
Datenverlust gibts immer. Mach Backups.
|
V_for_Vortex
Anmeldungsdatum: 1. Februar 2007
Beiträge: 12085
Wohnort: Berlin
|
V for Vortex schrieb: Vorsicht aber widerum bei eCryptFS in Verbindung mit der Cloud, da hat es Schwächen in Sachen Updates der Daten bei gleichzeitigem Zugriff, was zu Datenverlust führen kann. Also eCryptFS besser nur lokal einsetzen. ❗
Nachtrag: Damit meine ich das 🇬🇧 (insbesondere die zweite Antwort). Es ist aber nur dann ein Problem, wenn irgendwas anderes als ein einzelner eCryptFS-Mount auf dieselben Daten zugreift, da eCryptFS dies nicht bemerkt. frostschutz schrieb: Datenverlust gibts immer. Mach Backups.
Und das natürlich. ❗
|
chilidude
Anmeldungsdatum: 18. Februar 2010
Beiträge: 867
|
Crunkrock schrieb: Hallo, ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.
Leider postest du die Seiten nicht. Allgemein lässt sich sagen, dass es Unsinn ist. Wenn du entweder zwei verschiedene Schlüssel oder zwei verschiedene Algorithmen verwendest, kann das niemals passieren. Selbst wenn zweimal derselbe Alogrithmus verwendet wird und derselbe Schlüssel, kann dieser Fall nur eintreten wenn Vorwärtsoperation (Verschlüsselung) und Rückwärtsoperation (Entschlüsselung) alternierend (spiegelverkehrt) verwendet werden. Das ist möglich, weil bei manchen Algorithmen Ver- und Entschlüsselung unterschiedlich schnell arbeiten. (Bei AES ist dies abhängig von der Implementation sogar der Fall.) Denn mathematisch spielt es keine Rolle, wenn zum Verschlüsseln eines Klartextes Vorwärts- und Rückwärtsoperation getauscht sind. Ist das Fall, hebt sich die Verschlüsselung bei gleichem Schlüssel und gleichem Operationsmode natürlich auf. Ein weitere Ausnahmefall stellt der CTR-Mode dar, der zum Ver-/Entschlüsseln nur eine Operation benötigt. (Entweder Vorwärts oder Rückwärts). Wobei das nicht heisst, dass der Mode schlecht ist aber er hat eben seine Fallstricke die man genau kennen muss, um nicht ins Messer zu laufen. Die Wahrscheinlichkeit bei Luks (welches die Masterschlüssel bei der Erstellung der Partition zufällig initialisiert) zweimal denselben Schlüssel zu erwischen, beträgt bei AES mit 128 Schlüsselbits 1 zu 2^128 Versuche. Das spielt aber keine Rolle, weil es ohnehin unsinnig ist zweimal denselben Algorithmus (in einer atomaren Operation) zu verwenden.
|
Crunkrock
(Themenstarter)
Anmeldungsdatum: 2. März 2013
Beiträge: 80
|
Danke für die ausführliche Erklärung. Ich habe keinen Link zu einer Quelle, hab es halt mal in Foren gelesen (als Behauptung) und deshalb nachgefragt.
|
raptor2101
Anmeldungsdatum: 8. Juni 2009
Beiträge: 1249
Wohnort: Stuttgart, Deutschland
|
Ich glaube dieser "Mythos" ist aus der Tatsache entstanden, das man keine zwei (kryptografischen) Hash-Funktionen kombinieren sollte, da unter Umständen die Kollisionen erhöht. In TLS 1.2 hat man zb die MD5/SHA1 Kombination aus TLS wieder "zurückgebaut" auf einen (frei wählbaren) Hash-Algoritmus @jug: auch bei der Annahme das du dein Algoritmus als "nicht gebrochen" gilt und dein schlüssel "nur dir bekannt ist", gibt es Gründe mehrfach zu verschlüsseln. Einer davon ist die "plausible deniability".
|