ubik
Anmeldungsdatum: 10. April 2009
Beiträge: 885
|
Mein PC-System hat eine Intel HD P4600 verbaut, wo drei Monitore angeschlossen werden. Ich benutze zwei davon. Den Fernseher und den Monitor. Ich würde gerne noch eine Grafikkarte zum Spielen einbauen. Keine besonders anspruchsvollen Spiele, nur Die Sims 3... Wenn ich jetzt eine NVIDIA GTX einbauen würde, könnte ich die dann parallel nutzen? Kann mir irgendwie nicht so ganz vorstellen, wie das funktionieren sollte.
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
Jein! Es geht, ja aber: nur mit dem leistungsschwachen quelloffenen Treiber nouveau je nach Setup rechnet die Nvidia dann gar nicht, sondern stellt nur das Bild dar.
Meine Empfehlung wäre, eine Nvidiagrafikkarte zu suchen, wo du alle Monitore anschließen kannst und die integrierte Intelgrafik zu deaktivieren.
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
Wohnort: Oldenburg/Erlangen
|
JörnS schrieb: Prinzipiell leistungsschwach würde ich nicht sagen, der Treiber kann durchaus relativ viel Leistung bringen. Die Unterstützung ist aber leider sehr selektiv und von sonstigen Problemen geplagt... JörnS schrieb: Meine Empfehlung wäre, eine Nvidiagrafikkarte zu suchen, wo du alle Monitore anschließen kannst und die integrierte Intelgrafik zu deaktivieren.
Zu suchen? Überflüssig, 2 Monitore kann jede dedizierte Karte der letzten 15 Jahre bedienen. Man muss es nur wollen... Es geht ja auch um die GPU und nicht um einen dritten Monitor. Das Problem ist: Der X Server ist nie dafür ausgelegt worden, dass eine weitere GPU ihre Leistung beitragen soll. Die bisherigen Lösungen arbeiten alle auf einer sehr tiefen Ebene, die der proprietäre nvidia Treiber nur teilweise und auch nur auf Optimus Systemen unterstützt. Wenn eine GPU nur bei Bedarf einspringen soll, muss man dies manuell veranlassen, und das funktioniert auf Desktop System eben nur dann, wenn man ausschließlich freie Treiber verwendet - und da ist Nvidia von den großen drei einfach mit Abstand die mieseste Wahl.
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
Letalis Sonus schrieb: JörnS schrieb: Prinzipiell leistungsschwach würde ich nicht sagen, der Treiber kann durchaus relativ viel Leistung bringen. Die Unterstützung ist aber leider sehr selektiv und von sonstigen Problemen geplagt...
Naja er schreibt eine GTX, also wohl ein relativ aktuelles Modell - da ist die Unterstützung noch nicht so doll. JörnS schrieb: Meine Empfehlung wäre, eine Nvidiagrafikkarte zu suchen, wo du alle Monitore anschließen kannst und die integrierte Intelgrafik zu deaktivieren.
Zu suchen? Überflüssig, 2 Monitore kann jede dedizierte Karte der letzten 15 Jahre bedienen. Man muss es nur wollen... Es geht ja auch um die GPU und nicht um einen dritten Monitor.
Da hat er sich nicht ganz klar ausgedrückt:ubik schrieb: Mein PC-System hat eine Intel HD P4600 verbaut, wo drei Monitore angeschlossen werden. Ich benutze zwei davon.
Das Problem ist: Der X Server ist nie dafür ausgelegt worden, dass eine weitere GPU ihre Leistung beitragen soll. Die bisherigen Lösungen arbeiten alle auf einer sehr tiefen Ebene, die der proprietäre nvidia Treiber nur teilweise und auch nur auf Optimus Systemen unterstützt. Wenn eine GPU nur bei Bedarf einspringen soll, muss man dies manuell veranlassen, und das funktioniert auf Desktop System eben nur dann, wenn man ausschließlich freie Treiber verwendet - und da ist Nvidia von den großen drei einfach mit Abstand die mieseste Wahl.
Kurz: wenn Nvidia, dann sollte sie am Besten alleine laufen. Ansonsten ist eine vom freien Treiber radeon gut unterstützte Karte von AMD auch eine Möglichkeit. Die könnte dann alles rendern und man könnte Anschlüsse der Intel-HD auch noch nutzen. Zumindest in der Theorie 😉
|
ubik
(Themenstarter)
Anmeldungsdatum: 10. April 2009
Beiträge: 885
|
JörnS schrieb: Naja er schreibt eine GTX, also wohl ein relativ aktuelles Modell - da ist die Unterstützung noch nicht so doll.
Welche Grafikkarten von Nvidia werden denn gut unterstützt? Ist es so wie bei ATI, dass die Treiber, die NVIDIA anbietet, besser sind, als die freien? Ich benutze eigentlich nur zwei Monitore. Monitor + Fernseher.
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
ubik schrieb: JörnS schrieb: Naja er schreibt eine GTX, also wohl ein relativ aktuelles Modell - da ist die Unterstützung noch nicht so doll.
Welche Grafikkarten von Nvidia werden denn gut unterstützt?
Faustregel: eher die älteren. Wobei stark an den Serien Fermi & Kepler gearbeitet wird. Ist es so wie bei ATI, dass die Treiber, die NVIDIA anbietet, besser sind, als die freien?
Die proprietären Treiber von Nvidia gelten in der Linuxwelt als besser, ja. Vor allem wird schnell Support für aktuelle Kernel und X geboten, außerdem werden alte Karten relativ lange unterstützt - da kann AMD anscheinend nicht mithalten. Ich benutze eigentlich nur zwei Monitore. Monitor + Fernseher.
Gut, dann hast du ziemlich freie Wahl. Wenn Energieeffizienz eine Rolle spielt, sind die 750er sehr gut (natürlich mit dem proprietären Treiber) und auch nicht sehr teuer.
|
ubik
(Themenstarter)
Anmeldungsdatum: 10. April 2009
Beiträge: 885
|
Welche 750er? GT oder GTX?
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
Nach Belieben, beide sind sehr effizient und haben ein gutes Preis-/Leistungsverhältnis.
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
Wohnort: Oldenburg/Erlangen
|
JörnS schrieb: außerdem werden alte Karten relativ lange unterstützt - da kann AMD anscheinend nicht mithalten.
Der freie Treiber wird von AMD mitentwickelt, man drückt sich lediglich die Klinke in die Hand. Eigentlich ist es also genau andersherum.
|
ubik
(Themenstarter)
Anmeldungsdatum: 10. April 2009
Beiträge: 885
|
Hm. Die GTX 750 hat aber nur einen HDMI Ausgang. Mir wären zwei lieber. Displayport geht auch.
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
Wohnort: Oldenburg/Erlangen
|
ubik schrieb: Die GTX 750 hat aber nur einen HDMI Ausgang. Mir wären zwei lieber.
Sofern du keinen Bedarf an der Audiofähigkeit oder Auflösungen größer als FullHD hast, kann dir das eigentlich egal sein - dann sind die Signale von DVI und HDMI absolut identisch und man braucht nur einen passiven Adapter (idR Zubehör der Karte). Häufig nutzen die Hersteller auch ungenutzte Kontakte um über so einen Adapter auch eine Audioleitung durchzuschleusen.
|
ubik
(Themenstarter)
Anmeldungsdatum: 10. April 2009
Beiträge: 885
|
Letzte Frage noch: Benutzt so eine NVIDIA wie die hier http://www.amazon.de/NVIDIA-GeForce-GTX750TI-Grafikkarte-Speicher/dp/B00ICUGOP0/ref=sr_1_1?ie=UTF8&qid=1409837617&sr=8-1&keywords=geforce+gtx+750 zwei Slots? Sieht mir irgendwie so groß aus... Außerdem habe ich kein PCI e 6 Stecker für die Stromversorgung. Zumindest glaube ich das...
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
ubik schrieb: Letzte Frage noch: Benutzt so eine NVIDIA wie die hier http://www.amazon.de/NVIDIA-GeForce-GTX750TI-Grafikkarte-Speicher/dp/B00ICUGOP0/ref=sr_1_1?ie=UTF8&qid=1409837617&sr=8-1&keywords=geforce+gtx+750 zwei Slots?
Ja, da ist auch ein Bild von der hinteren Kante mit dem Blech 😉 Sieht mir irgendwie so groß aus... Außerdem habe ich kein PCI e 6 Stecker für die Stromversorgung. Zumindest glaube ich das...
Das müsstest du natürlich unbedingt vorher abchecken.
|
ubik
(Themenstarter)
Anmeldungsdatum: 10. April 2009
Beiträge: 885
|
Ja, da sind zwei Stecker, die 6polig sind. Aber die werden schon an das Mainboard angeschlossen. Hmmm. Gibt es noch andere NVIDIA Grafikkarten, die unter Linux laufen?
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
Mir fällt gerade auf, auf den Bildern kann man gar keinen Anschluss für Strom entdecken, in der Beschreibung steht nichts davon und Wikipedia behauptet ebenfalls, dass die 750er keinen extra Stromstecker benötigen.
|