ubuntuusers.de

Führt doppelte Verschlüsselung zu Komplikationen

Status: Ungelöst | Ubuntu-Version: Ubuntu 14.10 (Utopic Unicorn)
Antworten |

Crunkrock

Anmeldungsdatum:
2. März 2013

Beiträge: 80

Hallo,

ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.

Ich nutze (unter anderem) den Clouddienst Spideroak. Dieser wirbt damit, die Daten schon lokal zu verschlüsseln. Ich möchte manche Daten jedoch nicht unverschlüsselt auf der Festplatte liegen haben. Wenn ich diese Dateien jetzt lokal verschlüssele, z.B. mit EncFS, und diese dann mit Spideroak synchronisiere, werden sie ja auch doppelt verschlüsselt. Ist das eine schlechte Idee und die Daten wären sicherer vor Verlust durch Komplikationen geschützt, wenn ich dafür z.B. Dropbox benutze?

Viele Grüße

jug Team-Icon

Ehemalige
Avatar von jug

Anmeldungsdatum:
19. März 2007

Beiträge: 12335

Wohnort: Berlin

Crunkrock schrieb:

ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.

Es wäre ganz hilfreich, solche Behauptungen auch mit Quellen zu hinterlegen, damit man die Argumentation dahinter etwas besser nachvollziehen kann.

Von Komplikationen weiß ich so nichts. Empfehlen würde ich doppelte Verschlüsselung trotzdem nicht – also nicht, wenn die Idee dahinter „mehr Sicherheit“ ist. Ein Verschlüsselungsalgorithmus muss sicher sein (das gilt auch für die Implementierung). Hier greift Kerckhoffs'_Prinzip. Wenn wir also davon ausgehen können, dass der Algorithmus sicher ist, die Implementierung keine Schwächen hat und der Schlüssel sicher aufbewahrt ist, dann reicht eine Verschlüsselung vollkommen aus. Eine doppelte Verschlüsselung ist dann verschwendete Rechenzeit.

Ich nutze (unter anderem) den Clouddienst Spideroak. Dieser wirbt damit, die Daten schon lokal zu verschlüsseln. Ich möchte manche Daten jedoch nicht unverschlüsselt auf der Festplatte liegen haben. Wenn ich diese Dateien jetzt lokal verschlüssele, z.B. mit EncFS, und diese dann mit Spideroak synchronisiere, werden sie ja auch doppelt verschlüsselt.

In diesem Fall sehe ich nichts, was dagegen sprechen würde.

Ist das eine schlechte Idee und die Daten wären sicherer vor Verlust durch Komplikationen geschützt, wenn ich dafür z.B. Dropbox benutze?

Ich halte Dropbox generell für eine schlechte Idee, wenn es um Privatsphäre und Sicherheit geht. 😉

~jug

V_for_Vortex Team-Icon

Avatar von V_for_Vortex

Anmeldungsdatum:
1. Februar 2007

Beiträge: 12095

Wohnort: Berlin

Crunkrock schrieb:

Wenn ich diese Dateien jetzt lokal verschlüssele, z.B. mit EncFS

Ich würde statt EncFS zu ecryptfs für lokale Dateiverschlüsselung raten. Siehe den roten Kasten im Artikel EncFS.

Ansonsten kann ich mich jugs Ausführungen nur anschließen: Probleme nein, Rechenzeitverschwendung ja.

chilidude

Avatar von chilidude

Anmeldungsdatum:
18. Februar 2010

Beiträge: 867

Crunkrock schrieb:

Hallo,

ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.

Das kann durchaus passieren. Durch Mehrfachverschlüsselung können die Bits so heftig durcheinandergewirbelt werden, dass sie bei der Entschlüsselung nicht mehr in die richtige Reihenfolge zurücksortiert werden können. (Sogenanntes "Bitstolpern".) Vorsicht ist also geboten!

Benno-007

Anmeldungsdatum:
28. August 2007

Beiträge: 29240

Wohnort: Germany

"Es wurden keine mit Ihrer Suchanfrage - bitstolpern - übereinstimmenden Dokumente gefunden."

Es ist zwar korrekt, dass jede zusätzliche Schicht die Komplexität und damit Risiko erhöht, aber solange jede Schicht für sich exakt programmiert ist und funktioniert, gibt es auch zusammen keine Probleme. Außer bei Hardwareschäden. Oder komischen Wechselwirkungen, die aber dann schon im Einzelfall zwischen zwei bestimmten Verfahren begründet werden müssten. Ausnahme, wie gesagt. Ich würde sowas nicht als Normalfall bzw. echte Gefahr darstellen.

Grüße, Benno

V_for_Vortex Team-Icon

Avatar von V_for_Vortex

Anmeldungsdatum:
1. Februar 2007

Beiträge: 12095

Wohnort: Berlin

Benno-007 schrieb:

"Es wurden keine mit Ihrer Suchanfrage - bitstolpern - übereinstimmenden Dokumente gefunden."

Sowas ähnliches hatte ich mir gestern Abend verkniffen. 😉

Ich vermute Ironie seitens chilidudes, dazu fehlt allerdings ein Smilie. ❓

Wenn Ernst, dann Quellen bitte.

Vegeta

Avatar von Vegeta

Anmeldungsdatum:
29. April 2006

Beiträge: 7943

In der leider nicht mehr verfügbaren Onlinehilfe von TrueCrypt stand irgendwo zu lesen, dass eine Verschlüsselungskaskade theoretisch die Gefahr birgt, dass sich die Algorithmen gegenseitig schwächen. Soll heißen der erste Algorithmus wird durch den späteren teilweise wieder aufgehoben oder abgeschwächt. Das ganze ist aber nur theoretisch und ist nicht hinreichend erforscht. Ob das nun einen Angriffspunkt darstellt, kann dir leider keiner sagen und ist dann auch noch abhängig von den verwendeten Algorithmen.

frostschutz

Avatar von frostschutz

Anmeldungsdatum:
18. November 2010

Beiträge: 7790

Am sichersten ist es wenn du zweimal mit ROT13 verschlüsselst. 😬

Eine Verschlüsselung die seitens einer Cloud durchgeführt wird, würde ich nicht mitzählen da das sowieso nicht vertrauenswürdig ist. Verschlüsseln muss man wenn dann schon selbst mit einer Methode die sicher ist bzw. einem brauchbar erscheint.

Wenn du natürlich mit LUKS, ecryptfs, o.ä. lokal verschlüsselst, dann aber die unverschlüsselten Daten mit der Cloud syncst hat es gar nichts gebracht. Daß deine Festplatten verschlüsselt sind interessiert ja die Software nicht, wenn die Kiste erst mal läuft, greift ja alles auf die entschlüsselten Daten zu.

Crunkrock

(Themenstarter)

Anmeldungsdatum:
2. März 2013

Beiträge: 80

Nein, es ist schon so eingerichtet, dass die verschlüsselten Dateien im Cloud-Ordner liegen, die gemounteten Dateien dann aber nicht. Den Umstieg auf ecryptfs sollte ich in Erwägung ziehen, stimmt. Alles in allem klingt es jetzt ja eher so, als sei das Risiko des Datenverlusts (darum ging es mir bei der Frage) nicht besonders hoch ist. Danke!

V_for_Vortex Team-Icon

Avatar von V_for_Vortex

Anmeldungsdatum:
1. Februar 2007

Beiträge: 12095

Wohnort: Berlin

Vorsicht aber widerum bei eCryptFS in Verbindung mit der Cloud, da hat es Schwächen in Sachen Updates der Daten bei gleichzeitigem Zugriff, was zu Datenverlust führen kann. Also eCryptFS besser nur lokal einsetzen. ❗

frostschutz

Avatar von frostschutz

Anmeldungsdatum:
18. November 2010

Beiträge: 7790

Datenverlust gibts immer. Mach Backups.

V_for_Vortex Team-Icon

Avatar von V_for_Vortex

Anmeldungsdatum:
1. Februar 2007

Beiträge: 12095

Wohnort: Berlin

V for Vortex schrieb:

Vorsicht aber widerum bei eCryptFS in Verbindung mit der Cloud, da hat es Schwächen in Sachen Updates der Daten bei gleichzeitigem Zugriff, was zu Datenverlust führen kann. Also eCryptFS besser nur lokal einsetzen. ❗

Nachtrag: Damit meine ich das 🇬🇧 (insbesondere die zweite Antwort). Es ist aber nur dann ein Problem, wenn irgendwas anderes als ein einzelner eCryptFS-Mount auf dieselben Daten zugreift, da eCryptFS dies nicht bemerkt.

frostschutz schrieb:

Datenverlust gibts immer. Mach Backups.

Und das natürlich. ❗

chilidude

Avatar von chilidude

Anmeldungsdatum:
18. Februar 2010

Beiträge: 867

Crunkrock schrieb:

Hallo,

ich habe schon öfter gelesen, dass doppelte Verschlüsselung zu Komplikationen führen kann. Der Ansatz "viel hilft viel" stimmt hier also nicht.

Leider postest du die Seiten nicht. Allgemein lässt sich sagen, dass es Unsinn ist. Wenn du entweder zwei verschiedene Schlüssel oder zwei verschiedene Algorithmen verwendest, kann das niemals passieren. Selbst wenn zweimal derselbe Alogrithmus verwendet wird und derselbe Schlüssel, kann dieser Fall nur eintreten wenn Vorwärtsoperation (Verschlüsselung) und Rückwärtsoperation (Entschlüsselung) alternierend (spiegelverkehrt) verwendet werden. Das ist möglich, weil bei manchen Algorithmen Ver- und Entschlüsselung unterschiedlich schnell arbeiten. (Bei AES ist dies abhängig von der Implementation sogar der Fall.) Denn mathematisch spielt es keine Rolle, wenn zum Verschlüsseln eines Klartextes Vorwärts- und Rückwärtsoperation getauscht sind. Ist das Fall, hebt sich die Verschlüsselung bei gleichem Schlüssel und gleichem Operationsmode natürlich auf. Ein weitere Ausnahmefall stellt der CTR-Mode dar, der zum Ver-/Entschlüsseln nur eine Operation benötigt. (Entweder Vorwärts oder Rückwärts). Wobei das nicht heisst, dass der Mode schlecht ist aber er hat eben seine Fallstricke die man genau kennen muss, um nicht ins Messer zu laufen.

Die Wahrscheinlichkeit bei Luks (welches die Masterschlüssel bei der Erstellung der Partition zufällig initialisiert) zweimal denselben Schlüssel zu erwischen, beträgt bei AES mit 128 Schlüsselbits 1 zu 2^128 Versuche. Das spielt aber keine Rolle, weil es ohnehin unsinnig ist zweimal denselben Algorithmus (in einer atomaren Operation) zu verwenden.

Crunkrock

(Themenstarter)

Anmeldungsdatum:
2. März 2013

Beiträge: 80

Danke für die ausführliche Erklärung. Ich habe keinen Link zu einer Quelle, hab es halt mal in Foren gelesen (als Behauptung) und deshalb nachgefragt.

raptor2101

Anmeldungsdatum:
8. Juni 2009

Beiträge: 1249

Wohnort: Stuttgart, Deutschland

Ich glaube dieser "Mythos" ist aus der Tatsache entstanden, das man keine zwei (kryptografischen) Hash-Funktionen kombinieren sollte, da unter Umständen die Kollisionen erhöht. In TLS 1.2 hat man zb die MD5/SHA1 Kombination aus TLS wieder "zurückgebaut" auf einen (frei wählbaren) Hash-Algoritmus

@jug: auch bei der Annahme das du dein Algoritmus als "nicht gebrochen" gilt und dein schlüssel "nur dir bekannt ist", gibt es Gründe mehrfach zu verschlüsseln. Einer davon ist die "plausible deniability".

Antworten |