pc_heini
Anmeldungsdatum: 29. April 2009
Beiträge: 27
|
Hallo, dies soll kein Linux vs. Windows Thread werden! Zum Hintergrund der Fragestellung: Wir betreiben mehrere Serverlandschaften (teils physische Cluster, teils ESX Bladecenter) welche mit RHEL oder Windows 2008R2 bestückt sind. Unser Team ist dabei in die Unix und die Windowslandschaft eingeteilt. Natürlich gibts da auch einige "religiöse" Diskussionen innerhalb des Teams. ☺ Die grundlegende Frage ist: Wieso ist Linux im Serverbereich so dominant? Ich habe versucht mir da Gedanken zu machen jedoch konnten die Kollegen fast alle Punkte widerlegen:
1. Linux ist kostenlos; Windows kostet einiges.
Dies ist nur teilweise richtig. Wir sind keine Programmierer (wenngleich grundlegende C-Kenntnisse vorhanden sind) noch haben wir aufgrund der Vielzahl der Server die Zeit wegen jedem einzelnen Problem zu googlen. Aktuelles Beispiel: RedHat hat einfach mal im LDAP-Modul des Apache beim Minor-Upgrade ein Default-Value geändert was die Authentifizierung gegen unser MS-AD unmöglich machte. Hin wie her kaufen wir die Betriebssysteme inkl. Support. Die Kosten sind in etwa gleich, allenfalls vernachlässigbar.
2. Linux ist sicherer
Irgendwie konnte auch dieses Argument widerlegt werden. Fast alle (auf dem Desktop auftretenden) Fehler sind auf unsichere Drittpakete zurückzuführen (Flash, PDF, Pishing, infizierte Websites, etc). Auf einem Server hat man aber weder Flash, noch einen PDF-Reader infiziert, noch surft man hier im Internet. Microsoft patcht genausoschnell wie Ubuntu, Debian oder RedHat. Sowohl Windows als auch Linuxserver sind nach der Installation weiter abzusichern und abzuhärten.
3. Linux ist performanter da keine riesige GUI mit installiert wird
Auch das kann in der heutigen Zeit eigentlich widerlegt werden. Die Prozessoren sind dermaßen schnell, RAM billig dass eine kleine GUI welche 512MB-1GB schluckt nicht großartig hinterlich ist. Auch ist die zusätzlich benötigte Netzwerkbandbreite für die GUI bei heutigen Geschwindigkeiten nahezu irrelevant. Davon ab ist die Konfiguration einiger bestimmter Dinge unter Windows um einiges schneller vorzunehmen (aktuelles Beispiel: Anlegen Software-Raids und LVM-Verwaltung. Hier hat Windows auch m.M. nach die Nase vorne. Insbesondere wenn ein Neuling unter Linux noch nie mit mdadm+lvm gearbeitet hat, ist er schneller in die Windowsverwaltung eingearbeitet als dass der die Manpages durchgelesen und vor allem auch kapiert hat.) Auch ist die Firewall wesentlich fixer und einfacher konfiguriert wenn man nicht alle Tage an jener rumwerkelt (und sich erneut in seine Aufzeichnungen reinlesen muss).
4. Windows benötigt einen Virenscanner → schlechtere Performance
Auch das kann widerlegt werden. Die Viren benötigen ersteinmal einen Einstiegspunkt. Jener kann über unsichere Drittsoftware reinkommen; jedoch läuft diese meist in einer Jailed Umgebung ohne Systemrechte. Der einzige Punkt welcher mir noch einfällt, wäre die Plattform welche die eingesetzte Software unterstützt. Aber gerade bei Firmenanwendungen wie Atlassian Confluence und Jira, Trac etc. welche auf einen Webserver, evtl. Tomcat und einer DB aufbauen ist auch die Plattform völlig wurscht. Bei einem Lasttest sowie einem Penetrationtest unserer Testabteilung konnten keine gravierenden Unterschiede festgestellt werden; Sicherheitslücken auf einem gepatchten System ebenfalls nicht. Nun meine Frage, ob jemand noch weitere Argumente vorbringen kann, warum Linux so dominant ist? PS: Privat nutze ich Windows zum spielen und Ubuntu zum Arbeiten. Der Beitrag ist, wie ich beim Überlesen feststellte, ein wenig pro-Windowsmäßig verfasst. Das war keine Absicht, allerdings will ich damit animieren, dass mir (bitte objektive!) Argumente gebracht werden, welche ich nicht beachtet habe, welche ich den Windowsleuten mal an den Kopf schmeißen kann, wenn sie zum Mittag mal wieder auf Linux rumpieksen.
|
redknight
Moderator & Supporter
Anmeldungsdatum: 30. Oktober 2008
Beiträge: 21728
Wohnort: Lorchhausen im schönen Rheingau
|
pc heini schrieb: 1. Linux ist kostenlos; Windows kostet einiges.
Dies ist nur teilweise richtig. Wir sind keine Programmierer (wenngleich grundlegende C-Kenntnisse vorhanden sind) noch haben wir aufgrund der Vielzahl der Server die Zeit wegen jedem einzelnen Problem zu googlen.
Ich bin auch kein Programmierer. Trotzdem ist für mich Linuxadministration nachvollziehbar, Windows in Teilen (zB Cups vs Windows-Spooler) nicht. Ich muss vermutlich für Win ebensolang googlen wie ihr für Linux. Das Argument gilt nur dann, wenn Du eine Vorbildung vorraussetzt, die auch entweder Zeit oder Geld gekostet hat. Die Ausbildung- und Einarbeitungskosten musst du in die rechnung mit reinnehmen. Außerdem läuft bei mir (verst#ndlicherweise) Ubuntu (ohne Support seitens Canonical), was dann doch wieder günstiger als Windows-Lizenzen ist. 2. Linux ist sicherer
Irgendwie konnte auch dieses Argument widerlegt werden. Fast alle (auf dem Desktop auftretenden) Fehler sind auf unsichere Drittpakete zurückzuführen
Woher kommen dann die monatlichen Updates "Es wurde ein Fehler innerhalb Windows behoben, der Zugriff auf..." erlaubt? Es sind weniger geworden, aber kritische Windowsbugs sind immer noch vorhanden. Microsoft patcht genausoschnell wie Ubuntu, Debian oder RedHat.
DAS halte ich für ein Gerücht. Es gibt severe-Bugs, die mehrere Monate offen sind. MS hat sich da deutlich gebessert, aber bis die Patches durch die interne Revision und die teststellungen bei den Kunden durch sind dauert es doch erheblich länger. Sowohl Windows als auch Linuxserver sind nach der Installation weiter abzusichern und abzuhärten.
Eine Ubuntuinstallation ist per se erst mal in Ordnung wie sie ist. Je nach Nutzung musst Du einzelne Dienste abhärten (bzw einfach suaber konfigurieren). 3. Linux ist performanter da keine riesige GUI mit installiert wird
Auch das kann in der heutigen Zeit eigentlich widerlegt werden. Die Prozessoren sind dermaßen schnell, RAM billig dass eine kleine GUI welche 512MB-1GB schluckt nicht großartig hinterlich ist.
Ansichtssache. Ich baue dir mit 512 MB bis 1 GiB RAM einen Webserver. Unter Windows bräuchtest Du das allein für die GUI und hast noch keinen IIS laufen. Schließlich willst Du ja nicht, dass ein Login zur Verwaltung den Webserver bei seiner Arbeit behindert. Dazu kommt, dass man nicht unebgrenzt Ressourcen frei hat und ab und zu Virtualisierung auch nach Ressourcen berechnet wird. Auch ist die zusätzlich benötigte Netzwerkbandbreite für die GUI bei heutigen Geschwindigkeiten nahezu irrelevant.
Darf ich fragen, wie groß eure Umgebung ist? Ich habe hier eine Beispielumgebung mit ca 35 Nutzern, Windowsumgebung mit Domain, Fileservices, Printserver, etc. Schon bei denen wird kurz vor mittag ein einzelner RDP spürbar träger als morgens, wenn noch keiner arbeitet. Davon ab ist die Konfiguration einiger bestimmter Dinge unter Windows um einiges schneller vorzunehmen (aktuelles Beispiel: Anlegen Software-Raids und LVM-Verwaltung. Hier hat Windows auch m.M. nach die Nase vorne. Insbesondere wenn ein Neuling unter Linux noch nie mit mdadm+lvm gearbeitet hat, ist er schneller in die Windowsverwaltung eingearbeitet als dass der die Manpages durchgelesen und vor allem auch kapiert hat.) Auch ist die Firewall wesentlich fixer und einfacher konfiguriert wenn man nicht alle Tage an jener rumwerkelt (und sich erneut in seine Aufzeichnungen reinlesen muss).
Siehe oben, das ist pure Gewohnheit. 4. Windows benötigt einen Virenscanner → schlechtere Performance
Auch das kann widerlegt werden. Die Viren benötigen ersteinmal einen Einstiegspunkt.
Jein. Du möchtest eigentlich kein Windows ohne Virenscanner haben. Das wiederum bremst Deine I/Os Jener kann über unsichere Drittsoftware reinkommen; jedoch läuft diese meist in einer Jailed Umgebung ohne Systemrechte.
Hab ich auch schon anders gesehen, aber das gehört nicht hierher.
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
pc heini schrieb: dies soll kein Linux vs. Windows Thread werden!
Es kommt immer auf die Anwendung an und teilweise aus der Historie. Z.B. liefen SAP Systeme bereits auf 64bit UNIX Systemen, da wusste Microsoft noch nicht einmal, dass es mehr als 32 bit überhaupt gibt 😉 Also erstmal die Anwendung klären, dann entscheiden.
Die grundlegende Frage ist: Wieso ist Linux im Serverbereich so dominant?
Weils einfach besser ist! Nur kann man nicht alles unter Linux betreiben. Ich habe versucht mir da Gedanken zu machen jedoch konnten die Kollegen fast alle Punkte widerlegen:
Andere sagen sie reden das nur schön 😉
1. Linux ist kostenlos; Windows kostet einiges.
Dies ist nur teilweise richtig.
Vergleiche mal einen einfachen Fileserver mit sagen wir mal n Arbeitsplätzen, die darauf zugreifen. Jetzt vergleiche mal die Lizenzkosten Windows Server zuzüglich den CAL's und die haben nichts mit der Lizensierung eines Win PC's zu tun! Und im Vergleich mal alles unter Linux oder auch gemischt. Aus Erfahrung kann ich Dir auch sagen, dass z.B. ein Win-Cluster mit 20 Clients etwa 15000€ teurer ist, als ein Linux Cluster mit den gleichen Windows Clients - reine Lizenzkosten wohlgemerkt.
Wir sind keine Programmierer (wenngleich grundlegende C-Kenntnisse vorhanden sind)
Ich bin kein Automechaniker, wenngleich ich handwerklich geschickt bin und technisches Verständniss habe und fahre ein Auto - und nu? Wenigstens hat man bei einem Quelloffenen OS die Möglichkeit etwas zu ändern. Fakt ist man kauf den Service ein. Und den kauft man bei Win genauso wie bei Linux! Oder wie werden MS Fehler bei Euch gehandhabt??
2. Linux ist sicherer
Irgendwie konnte auch dieses Argument widerlegt werden.
Microsoft patcht genausoschnell wie Ubuntu, Debian oder RedHat.
Sagt wer? Das wäre mir neu. Schau mal, meinst Du es macht keinen Unterschied ob weltweit zig Programmierer sich mit einem problem beschäftigen oder lediglich nur ein Unternehmen? 3. Linux ist performanter da keine riesige GUI mit installiert wird
Auch das kann in der heutigen Zeit eigentlich widerlegt werden. Die Prozessoren sind dermaßen schnell, RAM billig dass eine kleine GUI welche
512MB-1GB schluckt nicht großartig hinterlich ist.
Versuche mal einen Win Server ohne Grafigkarte zu betreiben, dann reden wir weiter.
Das Argument lautet ganz klar Linux ist genügsamer. Da tut es auch eine kleinere CPU, da wird weniger Strom verballert. Eine Aussage, dass die Hardware schnell und günstig ist, zeigt nur, dass auf Nachhaltigkeit keinen Wert gelegt wird. Pfui! Davon ab ist die Konfiguration einiger bestimmter Dinge unter Windows um einiges schneller vorzunehmen (aktuelles Beispiel: Anlegen
Software-Raids und LVM-Verwaltung. Hier hat Windows auch m.M. nach die Nase vorne.
Deiner meinung nach - wieso? Weil Du von einem gewissen Kenntnissstand ausgehst. Ich bezweifle stark, dass jemand schneller auf einem Server ein Raid konfiguriert unter Windows - schon gar nicht unter 2012.
Insbesondere wenn ein Neuling unter Linux noch nie mit mdadm+lvm gearbeitet hat, ist er schneller in die Windowsverwaltung eingearbeitet als dass > der die Manpages durchgelesen und vor allem auch kapiert hat.)
Deine Sichtweise ist nicht objektiv! Nimm zwei Personen, die noch nie vor einem Rechner gesessen haben. Die lernen beide gleich schnell das eine oder das andere.
Auch ist die Firewall wesentlich fixer und einfacher konfiguriert wenn man nicht alle Tage an jener rumwerkelt (und sich erneut in seine
Aufzeichnungen reinlesen muss).
Windows und Firewall ist wie Kuh und Eier legen. das passt nicht zusammen. Und genau hier breche ich jetzt ab. Grund? ganz einfach, Du scheinst hier wohl verzweifelt gründe für oder gegen was auch immer zu suchen und hast Null Plan.
Wer im professionellen Einsatz - also einer Firma - sein Netzwerk mit einer Firewall eines Win-Servers absichert ist ...... das verkneife ich mir jetzt mal. Also bitte, bevor Du eine Diskussion lostrittst, lies Dich ein!
|
stfischr
Anmeldungsdatum: 1. März 2007
Beiträge: 19197
|
Hi. pc heini schrieb: dies soll kein Linux vs. Windows Thread werden!
Das ist mit dieser Überschrift aber unvermeidlich. Die grundlegende Frage ist: Wieso ist Linux im Serverbereich so dominant?
Wenn du mich fragst, hauptsächlich aus historischen Gründen. Früher waren alle Server mit irgendeinem UNIX bestückt und von Microsoft gab es nur Desktopsysteme (mit diversen Soft/Hardwareeinschränkungen). Dann kam Linux, welches zu großen Teilen UNIX-Kompatibel war und somit die meiste Software schnell portiert war. Damals auch mit Supportvertrag bedeutend günstiger als die UNIXe und früher hat man auch noch mehr Anpassungen am System vorgenommen, was mit OpenSource natürlich super einfach ging. Und dann kam irgendwann WindowsNT, mit kaum Software die darauf lief ... 1. Linux ist kostenlos; Windows kostet einiges.
Dies ist nur teilweise richtig. Wir sind keine Programmierer
Keine Ahnung was der Preis mit Programmierung zu tun hat? Aber klar mit Supportvertrag nimmt sich das nicht so viel und ist auch im Vergleich zur Hardwareanschaffung eher zu vernachlässigen. 2. Linux ist sicherer
Irgendwie konnte auch dieses Argument widerlegt werden.
Aber wirklich nur irgendwie. 😉 Fast alle (auf dem Desktop auftretenden) Fehler sind auf unsichere Drittpakete zurückzuführen (Flash, PDF, Pishing, infizierte Websites, etc).
Gehen wir mal davon aus, dass auf dem Server das Einfallstor PHP, Apache, FTP, Mailserver und ähnliche angebotene Dienste sind. Dann macht das System an sich tatsächlich keinen relevanten Sicherheitsunterschied. Aber wir haben unter Linux normalerweise eine Paketverwaltung, mit einem Befehl habe ich alle Sicherheitsupdates fürs System für PHP und alle anderen Services eingespielt. Und die Updates werden auch nicht erst bis zum nächsten Patchday gesammelt ... Das ist für mich schon ein großes Sicherheitsplus.
3. Linux ist performanter da keine riesige GUI mit installiert wird
Auch das kann in der heutigen Zeit eigentlich widerlegt werden.
Ist auch das falsche Argument wegen den 512MB Speicherverbrauch stirbt tatsächlich niemand. Es müsste heißen "Linux ist sicherer da keine riesige GUI mit installiert wird", denn was nicht installiert ist, kann auch nicht für Angriffe benutzt werden.
Davon ab ist die Konfiguration einiger bestimmter Dinge unter Windows um einiges schneller vorzunehmen (aktuelles Beispiel: Anlegen Software-Raids und LVM-Verwaltung.
Windows kann LVM? Insbesondere wenn ein Neuling unter Linux noch nie mit mdadm+lvm gearbeitet hat, ist er schneller in die Windowsverwaltung eingearbeitet als dass der die Manpages durchgelesen und vor allem auch kapiert hat.
Da kommt mir allerdings eine Frage in den Sinn: Wie sicher ist ein System, welches von einem Neuling nach 2 Stunden Einarbeitungszeit zusammen geklickt wurde? Hat der dann überhaupt das nötige Wissen um das Raid in einem Server zu warten und zu Monitoren? Sowie bei Fehlern richtig und schnell zu reagieren? In Bereichen in denen du dich bewegst, hat man doch ne Ausbildung und ausreichend Praxiserfahrung um die Befehle aus dem Kopf zu kennen oder in wenigen Sekunden nachzuschlagen.
|
Antiqua
Anmeldungsdatum: 30. Dezember 2008
Beiträge: 4532
|
Ich fasse mal pro Linux zusammen: Vendor lock in vermeiden Kosten Anpassbarkeit Scalierbarkeit Wartbarkeit Effizienz
|
UrbanFlash
Anmeldungsdatum: 21. Februar 2006
Beiträge: 5549
Wohnort: Wien
|
3. Linux ist performanter da keine riesige GUI mit installiert wird
Auch das kann in der heutigen Zeit eigentlich widerlegt werden. Die Prozessoren sind dermaßen schnell, RAM billig dass eine kleine GUI welche 512MB-1GB schluckt nicht großartig hinterlich ist. Auch ist die zusätzlich benötigte Netzwerkbandbreite für die GUI bei heutigen Geschwindigkeiten nahezu irrelevant. Davon ab ist die Konfiguration einiger bestimmter Dinge unter Windows um einiges schneller vorzunehmen (aktuelles Beispiel: Anlegen Software-Raids und LVM-Verwaltung. Hier hat Windows auch m.M. nach die Nase vorne. Insbesondere wenn ein Neuling unter Linux noch nie mit mdadm+lvm gearbeitet hat, ist er schneller in die Windowsverwaltung eingearbeitet als dass der die Manpages durchgelesen und vor allem auch kapiert hat.) Auch ist die Firewall wesentlich fixer und einfacher konfiguriert wenn man nicht alle Tage an jener rumwerkelt (und sich erneut in seine Aufzeichnungen reinlesen muss).
Das ist nicht mehr ganz aktuell. Nachdem jetzt ausreichend Ressourcen vorhanden wären, ist man mit den eigentlichen Servern in die VMs gerutscht, dh ich habe jetzt zB 12 Systeme mit jeweils einem Dienst laufen anstatt einem System mit mehreren Diensten. Da macht es jetzt schon wieder einen Unterschied wenn ich n+1 VMs mit oder ohne GUI betreibe. Wenn man für die Konfiguration noch Juju oder Chef verwendet, dann sind ganze Clouds in Minuten aus dem Boden gestampft.
|
stfischr
Anmeldungsdatum: 1. März 2007
Beiträge: 19197
|
Stimmt ich habe mit Ubuntu schon Problemlos VMs erstellt, die mit nur 256MB RAM auskamen (kleiner Dinge wie DHCP, Proxy, ...). Wenn man sowas mit Windows macht braucht man mindestens das Doppelte oder Vierfache. Dann kann man bei gegebener Hardware unter Umständen doppelt so viele VMs anbieten. Bei Windows kommen dann aber auch oft die Lizenzkosten dazu und man versucht so viel wie möglich in eine Win-Installation zu pressen um nicht zu viel Geld auszugeben.
|
Elinoy
Anmeldungsdatum: 2. Mai 2009
Beiträge: 345
|
|
pc_heini
(Themenstarter)
Anmeldungsdatum: 29. April 2009
Beiträge: 27
|
Danke für Eure Antworten. Zu #2: Es kommen sowohl für Linux als auch für Windows regelmäßig Sicherheitsupdates. Ich selbst beschwere mich teilweise schon fast über die spamartigen Benachrichtigungen von RedHat. Die andere Frage ist, ob man die Pakete welche von den Mängeln betroffen sind auch einsetzt. Ich kenn Windows zu wenig dafür, möchte aber auch behaupten, dass dort auch nicht alle betroffenen Dienste immer und überall aktiv sind. Wegen den Kosten: Ein Windows 2008R2 Standardserver schlägt mit knapp 500Eur zu buche, eine RedHat Lizenz kostet 720Eur. Unsere Linuxserver kosten mehr, als die Windowskisten. Dennoch wird für alles ausser TFS und Sharepoint sowie das Firmen-AD Linux eingesetzt. Alle Clients haben (leider) ein Windows oder maximal noch ein Mac.
Darf ich fragen, wie groß eure Umgebung ist? Ich habe hier eine Beispielumgebung mit ca 35 Nutzern, Windowsumgebung mit Domain, Fileservices, Printserver, etc. Schon bei denen wird kurz vor mittag ein einzelner RDP spürbar träger als morgens, wenn noch keiner arbeitet.
Die Umgebung welche hier relevant ist hat ca 1800 Benutzer verteilt auf 16 physische HP ProLiant-Server in einem eigenen Netzwerk. Ich kann nichtmal sagen, welches Backbone hier anliegt, da müsste ich die Netzwerker fragen.
Versuche mal einen Win Server ohne Grafigkarte zu betreiben, dann reden wir weiter.
Das Argument lautet ganz klar Linux ist genügsamer. Da tut es auch eine kleinere CPU, da wird weniger Strom verballert. Eine Aussage, dass die Hardware schnell und günstig ist, zeigt nur, dass auf Nachhaltigkeit keinen Wert gelegt wird. Pfui!
Das ist ein Argument, jedoch werden sämtliche Server über einen Lieferanten bei gleicher Ausstattung bestellt. Wir haben hier keinerlei Einfluss auf den Kaufprozess noch würde sich hier jemand hinsetzen und die benötigte Leistung errechnen, weil es aufgrund der vielen Variablen nicht berechenbar ist. Die Xeon's haben eine GPU im Core. Also heutzutage bei richtigen Servern ist eine fehlende GPU auch kein Argument mehr.
Windows und Firewall ist wie Kuh und Eier legen. das passt nicht zusammen. Und genau hier breche ich jetzt ab. Grund? ganz einfach, Du scheinst hier wohl verzweifelt gründe für oder gegen was auch immer zu suchen und hast Null Plan. Wer im professionellen Einsatz - also einer Firma - sein Netzwerk mit einer Firewall eines Win-Servers absichert ist ...... das verkneife ich mir jetzt mal.
So schrieb ich das nicht; das war ein Beispiel. Dass bei uns Hardwarefirewalls eingesetzt werden ist selbstredend. Dennoch hat jede Maschine zusätzlich noch eine Firewall konfiguriert. Und nein, von der Windowsverwaltung habe ich wirklich keine Ahnung. Ich finde es fixer per Skript die Regeln in die iptables zu hacken als im Windows klicki-klicki die Regel hinzuzufügen. Aber einem Lehrling oder gar Dualstudenten der BA welcher erst in ein Windows eingewiesen worde und folglich in ein Linux eingewiesen wird guckt betröppelt und kann nix anfangen damit. Ich will damit nur ausdrücken dass es unter Linux wenngleich für Profis einfacher, für Neulinge schwerer erlernbar ist; natürlich auch den Vorteil hat, dass man gezwungen ist, die Technik zu verstehen. Gehen wir mal davon aus, dass auf dem Server das Einfallstor PHP, Apache, FTP, Mailserver und ähnliche angebotene Dienste sind. Dann macht das System an sich tatsächlich keinen relevanten Sicherheitsunterschied. Aber wir haben unter Linux normalerweise eine Paketverwaltung, mit einem Befehl habe ich alle Sicherheitsupdates fürs System für PHP und alle anderen Services eingespielt. Und die Updates werden auch nicht erst bis zum nächsten Patchday gesammelt ... Das ist für mich schon ein großes Sicherheitsplus.
Das ist ein super Punkt welcher auch einleuchtend ist.
Ist auch das falsche Argument wegen den 512MB Speicherverbrauch stirbt tatsächlich niemand. Es müsste heißen "Linux ist sicherer da keine riesige GUI mit installiert wird", denn was nicht installiert ist, kann auch nicht für Angriffe benutzt werden.
Dies ist ein Argument was ich sehr oft höre und selbst auch verfechte. Aber gibt es Quellen/Belege, dass eine GUI tatsächlich angreifbar ist? Dass dies z.B. mit Gnome über DBUS möglich war ist mir klar; aber die Schnittstellen von Windows sind doch in der Hinsicht sicherlich nicht frei verfügbar/dokumentiert? Wenn ich hier einen Beleg für schon erfolgte Angriffe aufgrund einer GUI hätte, wäre das super.
Windows kann LVM?
Nicht direkt; es nennt sich hier dynamischer Datenträger. Überhaupt versucht Windows das technische zu verbergen. Man kann im Betrieb beliebing Partitionen vergrößern und verkleinern; ob auch verschieben weiß ich garnicht; und das mit wenigen GUI kniffen. Unter Linux hackt man seine 3-5 Kommandos rein, und wenn per LVM Partitioniert wäre sogar die / im Betrieb ohne reboot vergrößer- und verkleinerbar. Einem evtl. neu anzulernendem Mitarbeiter zeigt man dies einmal unter Windows, unter Linux guckt auch der doof (ohne spezielle Vorkenntnisse aus der Ausbildung von beiden Systemen). Wenn er dann keine Eigeninitiative zeigt und damit fachlich hinten an steht, wechselt er in den Windowsbereich oder wird gekickt.
Da kommt mir allerdings eine Frage in den Sinn: Wie sicher ist ein System, welches von einem Neuling nach 2 Stunden Einarbeitungszeit zusammen geklickt wurde? Hat der dann überhaupt das nötige Wissen um das Raid in einem Server zu warten und zu Monitoren? Sowie bei Fehlern richtig und schnell zu reagieren? In Bereichen in denen du dich bewegst, hat man doch ne Ausbildung und ausreichend Praxiserfahrung um die Befehle aus dem Kopf zu kennen oder in wenigen Sekunden nachzuschlagen.
Es wird kein Neuling an die Technik gelassen ohne Aufsicht. Aber auch Lehrlinge und Werkstudenten werden zumindest in die Technik der Server eingewiesen; die meisten lassen es sich auch sehr interessiert erklären. Was mich betrifft so werden Raids nur im Falle von Platzmangel erweitert (wenn z.B. das Artifactory aufgrund starkem Projektanstieg aus den Nähten platzt). Das geschieht im öftesten Fall 1x im Jahr, und ja ich muss dann in meinen Aufzeichnungen nachschauen, da dort auch einige nützliche Hinweise drin stehen welche ich mir mal erarbeitet hatte (u.a. nette dont's). Man merkt sich sicherlich nicht jede Einzelheit über eine Tatsache welche man nicht zu oft einsetzt. Ich komme aus dem Applicationmanagement und lese eher log's und versuche zu debuggen, Fehler zu finden Plugins zu testen, Updates zu testen etc was meine Aktivitäten auf der Hardwareseite aufs minimalste begrenzt. Die Server bekommen wir fertig installiert geliefert und setzen dann noch benötigte Pakete wie vim, apache, tomcat etc. drauf. Das ist nicht mehr ganz aktuell. Nachdem jetzt ausreichend Ressourcen vorhanden wären, ist man mit den eigentlichen Servern in die VMs gerutscht, dh ich habe jetzt zB 12 Systeme mit jeweils einem Dienst laufen anstatt einem System mit mehreren Diensten. Da macht es jetzt schon wieder einen Unterschied wenn ich n+1 VMs mit oder ohne GUI betreibe. Wenn man für die Konfiguration noch Juju oder Chef verwendet, dann sind ganze Clouds in Minuten aus dem Boden gestampft.
Das "Problem" bzw das Gute ist, dass wir derzeit 128 dedizierte CPU's im ESX Bladecenter haben. Die Last der VM's schwankt so extrem stark, dass das bisschen Konfiguration welches hier womöglich Ressourcen schluckt im Grundrauschen verschwindet. Klar ist mir, dass man ein Linux auf einem Minimalsystem betreiben kann wo Windows die weiße Fahne zeigen würde. Das aber ist in Serverfarmen mittelständiger Firmen welche Lieferantenverträge abschließen und auf 3 Jahre im voraus planen müssen nicht relevant. Auf jeden Fall Danke Euch schonmal für die Antworten. Fallen jemandem weitere Punkte ein welche hier vielleicht garkeine Erwähnung fanden? Ich würde jetzt ungern über die schon gesagten Punkte diskutieren wollen; grade in der Kostensache scheint es extrem unterschiedliche Meinungen zu geben; was mit Sicherheit auch Distributionsabhängig ist.
|
stfischr
Anmeldungsdatum: 1. März 2007
Beiträge: 19197
|
pc heini schrieb: Dies ist ein Argument was ich sehr oft höre und selbst auch verfechte. Aber gibt es Quellen/Belege, dass eine GUI tatsächlich angreifbar ist?
Keine Ahnung, mit etwas googeln, sollte sich da was finden lassen. Aber eigentlich reicht doch schon eine theoretische Überlegung dazu: Ein Virus/Angriff, der eine IE-DLL braucht um z.B. Rootrechte zu bekommen könnte ohne installiertem IE nicht funktionieren. Genauso mit z.B. Firefox unter Linux. aber die Schnittstellen von Windows sind doch in der Hinsicht sicherlich nicht frei verfügbar/dokumentiert?
Wenn das jemals eine Angreifer gestört hätte ... Security by Obscurity hilft bestenfalls, dass Cracker ein und die selbe Lücke ewig ausnutzen können, ohne dass sie jemand anders entdeckt.
|
Ina_Bell
Anmeldungsdatum: 31. Januar 2013
Beiträge: 82
|
Hallo,
was die Sicherheit angeht, dachte ich immer, zu Gefährdung von Sicherheit , braucht es Schad-Software.
Nun wäre es für Schad-Software Macher, ein schlechtes Geschäft nur mit Linux Kompatibel zu sein, da bekanntlich über 80% der PCś mit Windows laufen. Beides geht aber nicht, also ist die meiste Schad-Software, ausschließlich Windows Binär Kompatibel. Von Script Schad-Software mal abgesehen, aber da liegt es auch an der Php,Java,Perl-Absicherung, ist aber ein Multi-Plattform Problem. Ist es da denn so Abwegig zu glauben, Linux & Unix wären resistenter gegen die Schadsoftware Lage, im heutigen real WWW? Das würde ich, meinen Kollegen Vorhalten. -)
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
pc heini schrieb: Danke für Eure Antworten. Zu #2: Es kommen sowohl für Linux als auch für Windows regelmäßig Sicherheitsupdates.
Die Erfahrung hat gezeigt, dass kritische Fehler unter Linux schneller gefixt sind als unter Windows.
Wegen den Kosten: Ein Windows 2008R2 Standardserver schlägt mit knapp 500Eur zu buche, eine RedHat Lizenz kostet 720Eur. Unsere Linuxserver
kosten mehr, als die Windowskisten.
Du scheinst die Microsft Lizensierung nciht verstanden zu haben. Für jeden Win Server benötigt man außer der Serverlizenz pro zugreifenden User einen CAL. Hinzu kommen pro Arbeitsplatz-PC jeweils eine Win (7) Lizenz. Offensichtlich sollte man bei Euch mal eine Lizenzprüfung durchführen. Bei den zertifizierten Linux Servern, kostet es einmalig, da gibt es keine Zugriffslizenzen.
Dennoch wird für alles ausser TFS und Sharepoint sowie das Firmen-AD Linux eingesetzt.
Da sitzt ein guter Entscheider. Abgesehen davon, dass Sharepoint und AD reine Microsft Erfindungen sind, wird man dies nie auf Linux bekommen.
Dennoch hat jede Maschine zusätzlich noch eine Firewall konfiguriert.
Wow Ihr bzw. Eure Win Admins müssen ja zeit haben. Es handelt sich dabei nicht zufällig um eine öffentliche Einrichtung?
Ich will damit nur ausdrücken dass es unter Linux wenngleich für Profis einfacher, für Neulinge schwerer erlernbar ist;
Das kannst Du so nicht sagen. Du gehst von Grundwissen aus. geh mal von absolut unbedarften Leuten aus, die würden selbst einfach lernen wie man den verwurmten, angefressenen Apfel administriert.
|
Mankind75
Lokalisierungsteam
Anmeldungsdatum: 4. Juni 2007
Beiträge: 3179
Wohnort: Wernigerode
|
pc heini schrieb:
Die grundlegende Frage ist: Wieso ist Linux im Serverbereich so dominant?
Ich denke mal der wichtige Punkt ist der Punkt der Freiheit, also dass Hoster, Internet-Provider etc. das System nehmen können und für die Kunden dann halt Webspace, vServer etc. anbieten können. Bei einem Windowssystem müssen ja vom Hoster die Lizenzgebühren für den Windowsserver vorfinanziert und über den Preis wieder eingeholt werden. Bei 1&1 sind die virtuellen Server mit Windows pro Monat 10 Euro teurer. Hinzu kommen die vielen Webanwendungen (Typo3, Joomla, Drupal etc.) die halt nun mal den Linuxserver im Auge haben - genauso wie für Windows Spiele entwickelt werden.
|
pc_heini
(Themenstarter)
Anmeldungsdatum: 29. April 2009
Beiträge: 27
|
hoerianer Du scheinst die Microsft Lizensierung nciht verstanden zu haben. Für jeden Win Server benötigt man außer der Serverlizenz pro zugreifenden User einen CAL. Hinzu kommen pro Arbeitsplatz-PC jeweils eine Win (7) Lizenz. Offensichtlich sollte man bei Euch mal eine Lizenzprüfung durchführen. Bei den zertifizierten Linux Servern, kostet es einmalig, da gibt es keine Zugriffslizenzen.
Du scheinst das Problem nicht verstanden zu haben. Ich rede hier keinesfalls von einem Terminalserver oder direktem Login auf dem Server. Es geht hier reinweg um Applications wie Sharepoint, Confluence, Trac, Jira etc. Warum sollte man eine CAL für Nutzer benötigen, welche einen Webdienst wie Sharepoint auf dem Server nutzen? Hier sind jedoch die User für die Applications zu bezahlen; das stand hier aber nicht zur Frage. Und die 5 CAL's reichen für die Admins aus. Dies würde auch dann zutreffen, wenn alle Server auf Linux liefen. Es werden für komplexere Sachen wie die Datenmigration z.B. aufgrund eines TFS Versionsupgrades Consultants direkt von Microsoft für Tage eingekauft... die werden wohl wissen, welche Lizenzen man benötigt. 😉 Lesen und verstehen, dann rummosern, oder ggf. nachfragen; gleich zu bashen hat immer einen Besserwisserbeigeschmack.
Es handelt sich dabei nicht zufällig um eine öffentliche Einrichtung?
Nein definitiv nicht; eher eine spezielle (und in meinem Falle recht kleinen) speziellen Abteilung einer IT Sparte eines größeren Multimedia-/IT-konzerns. Es geht hier reinweg um Sicherheitsbedenken; bei millionenschweren Softwareprrojekten kann man ruhig mal einige Minuten in die zumindest grundlegende Konfiguration einer Systemfirewall stecken; es ist nicht täglich, dass ein neuer Server hinzukommt, und wenn sind 1-2 Wochen Inbetriebnahme projektiert. Im Jahr sind es auf eine Hand voll Leute gezählt 10 neue Server. Mehr Aufwand steckt in der Wartung und Erweiterung der eingesetzten Applications. Im übrigen bitte ich darum, dass Du Dir mal über Deinen nun schon mehrfach an den Tag gelegten aggressiven Ton Gedanken machst inwiefern er in einem öffentlichen Forum angebracht ist.
|
stfischr
Anmeldungsdatum: 1. März 2007
Beiträge: 19197
|
Also ich finde schon, dass der Lernvorgang für Linux etwas schwieriger ist und man deutlich mehr wirklich verstehen muss, um Dienste korrekt einzurichten und zu warten. Unter Windows kann man mit dem KlickGUI teilweise als Halbwissender sich seine Dienste zurecht klicken und dank der mehr oder weniger gut ins GUI integrierten Beschreibung mit viel Herumprobieren funktionierende Konfigurationen schaffen. Das die Methode unter Linux nachhaltiger ist, interessiert dann meist die betroffenen nicht.
|