hakel schrieb:
Du nutzt unter Windows und Linux einen Codec, der mehr oder weniger gut mit mehreren Kernen umgehen kann. Die Programmierer der Tools haben Voreinstellungen/Profile zu diversen Anwendungsfällen. Es ist reine Sache des know-hows des Anwenders, die Parameter auszureizen.
Das trifft, und da gebe ich dir recht, natürlich auf solch spezielle Software die ENCODER/DECODER nutzt klar zu.
ffmpeg ist halt etwas für Fortgeschrittene, hochwertige Windows Tools nehmen dem unbedarften Dau viel Gedankenarbeit ab. Bei Linuxnutzern wird oft ein anderes Niveau unterstellt. Einfache Tools wie AVidemux oder auch Openshot werden leider nur mäßig gepflegt. Da hat es Wwindows mit seiner Kaufsoftware sicher einfacher.
Mal ganz davon abgesehen das ich den Begriff DAU mittlerweile eher als herabwürdigend betrachte, kann ich dir hier nur zum Teil zustimmen. Denn klar ist FFMPEG m.M.n. ein wirklich mächtiges Tool, das aber sein können nur mit der richtigen Ansprache auch entfalten kann. Die wenigsten User stehen auf die Console/bash oder können die Aufrufe so zusammenbasteln das sie alle Funktionen nutzen. Doch gibt es ja genügend GUIs dafür, die es, mal umfangreich und auch mal nicht so gut umfangreich, nutzen können. Mal muss man selber das nötige Wissen über die Zusammenstellung bzw. den Aufbau der Medien-Container beisteuern und mal macht es die GUI für einen. Eben vom Fachmann bis zum Anfänger alles dabei. Das trifft im Linux-Bereich auf nahezu die gesamte Software gleichermaßen zu.
Entscheidend, und das war meine eigentliche Frage bzw. Feststellung, dabei ist aber die Tatsache das unter Linux, einfach ausgedrückt, die Software festlegt was und wie sie die vorhandene Hardware nutzt bzw. nutzen kann. Unter Windows (10) ist es, einfach ausgedrückt, meist so das Anwendungen die benötigte Rechenleistung zentral vom OS anfragen und diese dann auch von diesem zugewiesen bekommen. Infolge übernimmt aber auch das OS (Windows) die weitere Steuerung.
Beide Varianten haben zweifelsohne Vor- und Nachteile.
Unter Linux muss man natürlich, wenn eine GUI es einem nicht abnimmt, sehr viel mehr bedenken beim Aufruf eines Progs. Wenn man da nicht fit ist oder die GUI unausgereift, nutzt man die vorhandene Hardware nicht aus. Doch wenn man das gut macht oder die GUI ist entsprechend ausgerüstet, hat man auch direkt die Leistung die das System aufgrund der vorhandenen Hardware bieten kann. Wissen ist Macht!!! 😉
Unter Windows nutzt man zwar immer die vorhandene Hardware aus, verliert durch die massive Einmischung von Windows aber unter Umständen natürlich einiges an Performance für die Anwendung an Windows.
Wie schon geschrieben, ist mir das bei meinen Arbeitsrechner auf DualCore-Basis nie wirklich aufgefallen. Auf meinen IBM oder SUN Mehrwege-Systemen (Server) lief ja auch immer ein Linux/Unix und als Software die entsprechenden Pakete. Das lief immer ohne Probleme mit der Power die das System bot!
Doch nun, da die Arbeitsrechner hier min. X4 oder mehr in der CPU haben, fällt es einem dann doch mal auf. Daher diese Fragen.....! ☺
Um die Unterschiede von UbuntuStudio mal auszuklammern, werde ich die Tage einfach mal eine Standard-Installation von Ubuntu Gnome 16.04 anlegen, um zu testen ob es Unterschiede in der Core-Benutzung gibt.
Da fällt mir ein....., hat jemand Interesse an einem IBM x326m mit 2x Opteron 890 (4 x 2,8 GHz), 4GB? Soll für €120,- an Selbstabholer (Süd-Niedersachsen) gehen! ☺