Mal abgesehen davon, dass PPAs ein deutlich größeres Sicherheitsproblem darstellen, als niedrig gepinnte Backports in offiziellen Quellen.
In welche Richtung bewegt sich Ubuntu (und was könnte man zur Verbesserung beisteuern)?
Anmeldungsdatum: Beiträge: 5557 Wohnort: Freiburg i. Brsg. |
|
Supporter
Anmeldungsdatum: Beiträge: 53484 Wohnort: Berlin |
Es gibt keinen offiziellen PPAs. Das sind per se vollkommen ungeprüfte Fremdquellen… |
Anmeldungsdatum: Beiträge: 619 |
Stimmt schon, dass jahrealte Anwendungsprogramme eine LTS doch ziemlich entwerten. Office und CAD sind so meine Themen und die hat man schon gern aktuell. Erfreulichrweise funktionieren die Herstellerversionen systemunabhängig bisher relativ gut, bei mir z.B. unter Releases, die mal 10.04 oder 12.04 waren. Sicherheitsbewusste kotzen da natürlich, aber diese Basteleien sind unterm Strich doch sehr pflegeleicht. |
Anmeldungsdatum: Beiträge: 1603 Wohnort: Fernwald (Gießen) |
Deshalb steht das offiziell auch in Anführungszeichen. Natürlich sind das ungeprüfte Fremdquellen, aber wenn das PPA vom Entwickler selbst stammt, dann ist das Vertrauen um einiges größer als in ein "inoffizielles" PPA. |
Supporter
Anmeldungsdatum: Beiträge: 4844 |
...ich würde mal behaupten, dass man das PPA-System ansich hinterfragen sollte. Ansätze wie das AUR bei Arch oder die Repos von Gentoo halte ich teilweise für sinnvoller. Mich hat bei Ubuntu/Debian dieser ganze Misch-PPA-Kram immer tierisch genervt. Beispielsweise den nVidia-Treiber updaten. PPA hinzufügen, Treiber installieren, PPA entfernen, damit nicht z.B. Mesa-proposed-Zeug auf dem PC landet... |
(Themenstarter)
Anmeldungsdatum: Beiträge: 2107 |
Joa, ebenfalls ein Problem, welches sich mit backports in wohlgefallen auflöst. |
Supporter
Anmeldungsdatum: Beiträge: 53484 Wohnort: Berlin |
Nicht wirklich. Viele PPAs bieten nicht nur bestimmte Programme in aktueller Version an sondern auch die entsprechend dafür notwendigen Abhängigkeiten in höherer Version. Diese passen dann nicht zwangsläufig mit den restlichen auf dem System vorhandenen Programmen zusammen. Alles altbekannt. Und dann gibt es natürlich noch eine Menge PPAs mit Software, die schlichtweg nicht in den Debian- und Ubuntu-Quellen vorhanden ist. Der Sinn hinter Backports ist es auch nicht aus einer LTS-Version ein Rolling-Release zu machen. |
(Themenstarter)
Anmeldungsdatum: Beiträge: 2107 |
Natürlich - aber einen neuen zB Nvidiatreiber würde man unproblematisch in die backports bekommen. Die mehr oder minder daily-builds von Mesa, wie in Xorg-Edgers, braucht es ja nicht. Und das ist der Punkt, der oben angesprochen wurde.
Auch das geht per backports, siehe MATE in Debian Wheezy.
Es hat auch keiner gesagt, dass man die Priorität backports hochsetzen sollte, um ein Pseudo-RR zu haben. Nur gezielt wichtige Dinge aktualisieren. |
Anmeldungsdatum: Beiträge: 5549 Wohnort: Wien |
Ubuntu arbeitet genau an dem Problem, aber nicht in Form von Backports, sondern mit Click Packages einerseits und Ubuntu Core andererseits. Es wird sich also über kurz oder lang von debs und dpkg wegbewegen. Im Prinzip wird das dann so aussehen, und hier kommt viel Interpretation meinerseits dazu, dass der Kern des Systems als atomare Einheit installiert wird. Dieser enthält alles, was ein aktuelles Linux minimal braucht um Hardware zu unterstützen und alle Funktionen für ein System bereitzustellen. Der wird Rolling Release sein, mit Versionierung, Rollback und überall laufen wo Software laufen kann. Darauf aufbauend wird wahrscheinlich noch eine Schicht kommen wo die platformspezifischen Teile sitzen und darauf installiert man sich dann Anwendungsprogramme mit Click Packages wenn man ein Endgerät hat, oder setzt mit 5 Mausklicks einen Servercluster auf einer Public Cloud online. Für mich ist der Weg ganz klar zu erkennen und ich sehe derzeit nichts, was nicht genau nach Plan laufen würde. Es könnte vielleicht schneller gehen, aber das ist so ein massives Konstrukt aus freier Software die da entsteht und in ein paar Jahrzehnten fast die gesamte IT antreiben wird, da kann ich ruhig ein wenig warten. |
Anmeldungsdatum: Beiträge: 93 |
Das sehe ich ähnlich, plus, dass Canonical ein junges Unternehmen ist, dass Sachen ausprobiert und wieder einstampft, wenn sie nicht funktionieren. Manche halten das für 'rumgeeiere, ich finde das gut. Zu dem Punkt, dass "der Kern des Systems als atomare Einheit" sein wird: Da hatte ich auch schon drüber nachgedacht, war dann aber über die etwas (ich sach mal) verhaltene Reaktion von Canonical zu systemd verwundert, weil mit systemd und bttrfs ja genau diese Austauschbarkeit umgesetzt werden kann. Hast du noch weitere Links um deine Interpretation zu unterfüttern? Vielen Grüße yucca |
Anmeldungsdatum: Beiträge: 5549 Wohnort: Wien |
Ubuntu Snappy Core ist ja bereits Realität mit den Features die ich genannt habe, den Link hast du im obigen Post. Was noch fehlt ist eben die Zwischenschicht, die es für Dinge die mehr brauchen als ein Kühlschrank, noch geben muss. Dass der Kern in Zukunft als Basis für sämtliche Ubuntusysteme dienen soll, dafür gibts keine Links, das habe ich mir selbst ausgedacht, ist einfach ein zu logischer Schritt, als dass das nicht das Ziel wäre. Der device layer (auch mein Name) macht aber erst Sinn, wenn die anderen Bausteine funktionieren, derzeit wird eben Core im Bereich IoT getestet und sicherlich bald als Basis für VMs, Juju, LXC/LXD, Docker, etc eingesetzt und Click Packages derzeit auf den Telefonen und bald am Desktop. |
Anmeldungsdatum: Beiträge: 2145 Wohnort: wo der gute Riesling wächst |
Tja, einen Trend in diese Richtung sehe ich leider auch. Dabei bleibt dann die Freiheit auf der Strecke und der User kann nicht mehr zwischen verschiedenen Dektop-Umgebungen wählen. Canonical hat das Rad mit Unity in Gang gesetzt. Dabei wurden auch Standardfunktionen "verbogen" (ein Beispiel: Benachrichtigungen), die dann natürlich auch in anderen DE's angepaßt werden mußten (Demnächst kommt dann MIR). Genau das hat letzlich einen nicht unerheblichen Mehraufwand in der Pflege nach sich gezogen. Bei gleicher Manpower geht das dann natürlich zu Lasten der Qualität. Für mich war's mit ein Grund, zu Mutter Debian mit XFCE zu wechseln. Auch, weil ich Unity nicht mag. Jetzt beobachte ich aber auch erste Ansätze dieses Trends in Jessie. Dort hat man mit GNOME 3.14 solch einen Störenfried, weil das Gnome-Team mit der Version einige API's geändert hat - und prompt funkioniert die Update-Benachrichtigung in XFCE (mit gnome-packagekit) und ohne Netzwerkverwaltung per NetworkManager überhaupt nicht mehr. Gnome3 ist auf dem besten Wege, das System vom User-Interface her "aufzufressen". Es verankert sich so tief im System und nutzt dabei auch Systemd (was eigentlich ein Init-System ist/sein sollte), daß dabei eine saubere Schnittstelle Dektop|System verloren geht. Dafür hasse ich GNOME und werde es weder installieren noch Jemandem empfehlen. Ich möchte die Freiheit der Wahl nicht verlieren. Das Endstadium würde dann vielleicht so aussehen: |
Supporter
Anmeldungsdatum: Beiträge: 53484 Wohnort: Berlin |
Das GNOME- und Unity-Bashing bitte in die dafür vorhandenen Sammelthreads packen, das ist nicht Thema dieses Threads... |
(Themenstarter)
Anmeldungsdatum: Beiträge: 2107 |
Sowas habe ich auch im "Verdacht". Bei einem solchen Bündel frage ich mich dann, wie man Teile austauscht. Kann ich meinen eigenen Kernel nutzen? Wohl kaum.
Die Anpassungen fallen ja alle weg, wenn Unity8 da ist.
So drastisch sehe ich das nicht. GTK ändert sich alle Nase lang, klar. Aber der Trend geht doch eh zu Qt 😉
Trotzdem wäre Xfce ohne das Gnome-Team niemals möglich gewesen, das darf man da nicht vergessen.
Da werden sich Lösungen finden lassen. SystemD finde ich eh klasse 😀 aber ich verstehe auch manche Kritiker. |
Anmeldungsdatum: Beiträge: 5549 Wohnort: Wien |
Ist ja nicht so als ob es nur Ubuntu gäbe und jedeR das verwenden muss und es deshalb jeden Anwendungsfall abdecken muss. Arch will schließlich auch User haben oder nicht? |