Windows 7 Vs. Linux

Das Liegt im auge des Betrachters. auch du hast mal klein angefangen und dich mit windows auseinandergesetzt. so wirst du das uach mit Linux machen .Schließelich bist du nicht geboren worden gleich mit dne Kenntnissen über Windows & Linux. wer Lernfaul ist ,der kriegt eben die Quittung für die zukunft dann auch Software kaufen zu müssen (siehe z.B. Windows=Windoof) .
Wer sagt denn das ich mich nicht mit dem System ausseinandergesetzt habe. Das OS ist nur das Fundament für die Anwendungen, und wenn für ein OS die adäquaten Anwendungen fehlen, kann das OS selbst 1000 mal besser sein, es bleibt nicht verwendbar.

Unter Windoof brauchst du ebenfalls Programme die nicht selten Kostenpflichtig sind und du glaubt allen ernstes das diese Programme bereist in der Standard Installation vorhanden sind ? , sorry selten so gelacht. Ich hab betreffend Photoshop mehrmals von Fachkundigen die im Media Bereich arbeiten durchaus die Bestätigung erhalten das Gimp die bessere alternative ist. Gimp kann man mit zusätzlichen Plug Ins austatten und so das Gimp so einrichten wie man es braucht. Selbst ein Gausschen Weichzeichner gibts für Gimp. Ich selbst besitze Photoshop und nebenher Gimp auf einem PC System Installiert mit Dualboot Windoof/Linux. Und wenn ich hier beide Programme Vergleiche dann Loost Photoshop generell ab. Es zeigt sich eindeutig das es so Konzipiert ist das man allein in der Menüführung Tage braucht um überhaupt zu Verstehen wie man damit umgehen muss .Nebenher kann man auch hier sehr schnell vieles Falschmachen. Die Menüführung unter Gimp ist so gestaltet das sogar ein Laie binnen weniger Minuten klarkommt. Die Früher Geteilte Ansicht lässt sich seit einiger Zeit auch auf eine Gemeinsame Ansicht umstellen und das mit nur 2 Mausklicks. Außerdem bietet die Mnüführung unter Gimp eine gewisse Professionalität da es von Leuten mitunter gestaltet wurde die aus der Branche kommen. Es gibt mittlerweile einige Medien Werkstätten die auf Gimp umgestellt haben nicht nur aus kostengründen ( Photoshop Lizenzen Kosten Geld !) . Und wenn jemand es auch Bestätigt der seit über 15 Jahren in dem Bereich (Meiden) tätig ist ,das Gimp besser sei .Dann muss auch was Wahres drannsein.
Nunja, die Entwicklung bei Gimp geht ja auch weiter - die Meinungen zur Produktivität hierzu sind durchaus konträr, zum grossen Teil aber in die Richtung, daß der Workflow unter PS deutich besser ist.
Wo man unter PS 'nen Filter einsetzt, den man in 10 Sekunden eingestellt hat, braucht man unter Gimp deutlich länger, um den gleichen Prozess in x Einzelschritten durchzuführen. Wenn man sich natürlich das Geld für das exteren PS Plugin spart, muss man unter PS die gleichen Einzelschritte durchführen.
Wer also kein Geld ausgeben will, um Geld zu Sparen, muss halt mit der kostenlosen Version arbeiten - Zeit ist Geld, vor allem Arbeitszeit.

Was Blu Ray betrifft hat sich einiges getan. Mittlerweile kann man Blu Ray wiedergeben und sogar Rippen. Wie ich schon geschrieben hab. wenn man sich an den richtigen Quellen informiert und etwas Arbeit Investiert kriegt alles hin. Leider geben die meisten bei der ersten möglichen Fehlermeldung schon auf und schieben Panik. Das ist kein dahergeschriebener Text sondern Purer FAKT . Kein wunder das man dann Linux Verteufelt nur weil man nicht weis damit umzugehen. Und dadurch werden dann immer schön und breit irgendwelche Gerüchte in die Welt gesetzt wo sich dann die meisten dran klammern nur um Linux nicht zu benutzen.
Wer Lesen kann ist eindeutig im Vorteil, es geht nicht um Abspielen oder Rippen, sondern Authoring!


Information ist letztendlich alles wer sich der Herausforderung stellt Free BSD zu verwenden der sollte sich auch entsprechend Informieren bzw. auch lernen damit umzugehehn. So hast du das Beste Beispiel dafür abgegeben wie es die meisten machen und gleich die Flinte ins Korn werfen nur weil Sie sich nicht richtig Informieren oder damit lernen umzugehen. Es gibt auch auf andere Linux Distris Leistungsfähige E-Mail Server die man sich mühelos und weitaus Besser einrichten lassen. Es zwingt dich ausserdem niemand unbedingt Free BSD zu nehmen. Es gibt insgesamt über 150 Linux Distris die bekannter sind von über 400 die im gesamten weniger bekannt sind. Ich selber hab einen eigenen Linux Server auf einem Debian Linux sitzen. Dieser war sehr leicht Einzurichten gewesen . Mittlerweile läuft sogar nebenher auf meiner Modifizierten Nas ein kleiner E-Mail Server. Da ich nur 10 E-Mails brauche ist auch deren Aufwand nicht allzugroß.
FreeBSD unterstützt ZFS native und kann auch davon booten. PC-BSD (ein FreeBSD mit vernünftiger Installationsroutine) bietet sogar
die Installation auf ZFS an, ohne die Installation in eine Bastelstunde ausarten zu lassen. ZFSonLinux scheint noch mehr Bastelstunde als es bei FreeBSD der Fall ist. Es entzieht sich meiner Kenntnis, ob Linux überhaupt schon von ZFS booten kann.
Sowohl für Linux als auch für FreeBSD wir meist Dovecot als IMAP Server empfohlen.
Wobei man bei *nix ja nicht ein kompletten Mailserver installiert, sondern sich einen Mailserver aus einzelnen Programmen zusammenstricken muss. Die Definition von Mailserver ist bei *nix eine andere, als bei Windows.

Bei Windows ist ein Mailserver ein "alles in einem Paket" - bei dem man zum Teil Optionen zu oder abwählen kann, aber es ist und bleibt ein komplettes Paket.
Bei *nix ist ein Mailserver nur die Komponente, die Postfächer bereitstellt. Aber alles was zum Betrieb eines Mailservers notwendig ist, muss man sich selber zusammensuchen - zum einen hat man dabei eine gewisse Wahlmöglichkeit, die auf der anderen Seite aber durchaus Überfordert. Der Mailserver bei *nix ist für sich gesehen Funktionslos, da standalone nicht sinnvoll nutzbar!

[ACHTUNG: MEINE MEINUNG, Laßt euch nicht Provozieren!]
Die Shell ist für mich Bedienung von Anno Dunnemals und nicht mehr Zeitgemäss - das Selbe gilt für das Editieren von zum Teil kryptischen Konfiguratiuonsdateien, die zum Teil nichtmal vernünftig kommentiert sind und auch nicht alle Optionen enthalten (ob nun ein- oder ausgeschaltet), die muss man sich aus den Manpages / How-To's mühsam raussuchen.
Eine didaktisch sinnvoll aufgebaute und gut strukturierte GUI mit "Normalsprache" als Konfigrationsschnittstelle zwischen Mensch und Maschine ist auf Dauer mit Sicherheit leichter zu verstehen und zu 95 % Selbsterklärend (für die restlichen 5% schaut man dann in die ebenso gut aufgebaute und Strukturierte Hilfe /Doku). Das es auch unter Windows bei vielen Programmen genau daran hapert, darüber brauchen wir nicht zu diskutieren, daß ist Fakt. Ich führe hier mal eine in meinen Augen löbliche Ausnahme an: den "Super Flexible File Synchroniser".
Ich behaupte, daß dieses Tool mindestens genausoviel kann, wir Robocopy!

Die gesamte Unixoide Welt steht auf dem Standpunkt das war schon immer so, warum soll man das ändern. Und genau diese Einstellung verhindert, daß sich diese Systeme bei Normalbenutzern durchsetzen, auch wenn mit KDE, Gnome etc. Ansätze vorhanden sind, das zumindest teilweise zu ändern. Das Grundproblem bleibt aber bestehen. "*nix-Gurus" wollen unter sich bleiben, anders kann ich Antwort nicht interpretieren, wenn in einem Forum gefragt wird, wann es von FreeBSD eine Version mit einer anwenderfreundlicheren Installationsroutine gibt, und als Antwort kommt "Hopefully never." Wobei es diese wie schon gesagt mit PC-BSD sogar gibt.

Mir ist meine Zeit zu wertvoll, um mich Monatelang in etwas unnötiges einzulesen. Unter heutigen Gesichtspunkten und Möglichkeiten der Schnittstelle Mensch/Mashine ginge das weitaus einfacher - aber einfach ist ja in der *nix Welt verpönt weil nicht Professionell genug.
[/ACHTUNG: MEINE MEINUNG, Laßt euch nicht Provozieren!]


Mercury Mailserver kannst knicken das Teil ist genauso Löchrig wie der Windows Käse und du bestätigst auch das was ich weis das es Hoffnungslos veraltet ist (5 Jahre) man kriegt es ausserdem kaum noch. Wenn man nicht zu Anfang erstmal alle Löcher von Windoof Stopft nutzt dir im Betrieb der Mailserver recht herzlich wenig. Und da man unter Windows nicht alle Ports z.B. dichtmachen kann ( unter Linux geht das) wirst du immer eine Sicherheitslücke bei Windows mitschleppen und mir sind hier meine E-Mails auf einer Linux Distri lieber (auch wenn ich dafür einen einzigen Port öffnen muss) als mit etwas zu arbeiten das von vornherein unsicher ist und generell nur so vor Bugs strotzt (Windows)
Ich hatte Mercury nicht verwendet, da damals nur eine ältere IMAP Version implementiert war und die weiterentwicklung abgekündigt war. Wie ich soeben gesehen habe wird mitlerweile doch IMAP4rev1 unterstützt, es scheint also doch weiterentwickelt worden zu sein.
Mail@work hatte damals alles was wir brauchten. (Exchange hat vieles was wir nicht brauchen, und das was wir brauchen ist per Exchange nicht möglich.)
Apropos Sicherheit: Das macht bei uns die Firewall, da wir den Mailserver nicht im Internet haben, brauchen wir da auch nichts nach draussen freigeben. Das sehe ich durchaus als Vorteil eines "passiven" Mailservers.



Wer die Sicherheitsregeln nicht versteht wird auch die Logik nicht verstehen.
Tip an dich bevor du dich mit Linux weiter Befasst und dich als Quereinsteiger immer noch behaupten willst.

Galileo Press

- Autoren : Johannes Plötner und Steffen Wendzel
- Titel: Linux das Umfassende Handbuch (auch für Einsteiger geeignet)
- Zusätzliche Infos : Grundlagen,Instalation,Praxis,Kommandoreferenz,Linux als Workstation,Multimedia,Office,Gnome,KDE ,X11,Kernel,Shell,Netzwerk und Systemadministration,Sicherheit,Programmierung
- ISBN: 978-3-8362-1622-1
- Preis: 49,95
- Inkl. 4 Linux Distris auf mehren DVD´s sowie einigen Lernvideos.

Die 50 Euro sind gut Investiert und mittlerweile gibt es schon die 6te Überarbeitete Auflage wenn nicht schon die 7te. Da es immer wieder Änderungen am Kernel gibt passt sich u.a. auch das Buch dazu an.

Danke für den Tip, aber das Thema *nix habe ich für mich abgehakt, ich setze es weiterhin da ein, wo ich es gebrauchen kann, ansonsten steht meine Begründung weiter oben im Text
Achja, ich habe schon Red Hat, Suse, Knoppix, und Ubuntu installiert und angeschaut (offen gestanden gefällt mit freeBSD - bzw. PC-BSD immer noch am besten). Bei Debian habe ich mir zumindestens mal die Live CD angeschaut.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn nun ein fähiger Programmierer vor der Entscheidung steht, ein tolles Programm zu schreiben und dafür entweder nichts zu bekommen, wenn er es für Linux schreibt, oder ein 100k Euro Jahresgehalt, wenn er es für Windows schreibt, was wird er dann wohl machen?
Ich weiß ja nicht, weshalb immer auf dem Punkt herumgeritten wird, es gäbe für Linux keine kommerzielle Software. Das ist Quatsch! Natürlich gibt es kommerzielle Software, allerdings meist für ganz andere Bereich als sich der 08/15 das wünscht.

---------- Post added at 20:32 ---------- Previous post was at 20:01 ----------

Wobei man bei *nix ja nicht ein kompletten Mailserver installiert, sondern sich einen Mailserver aus einzelnen Programmen zusammenstricken muss. Die Definition von Mailserver ist bei *nix eine andere, als bei Windows.
Es gibt keinen Hochleistungsmailserver, der unter Windows läuft. Das sind allesamt *I*X Boxen. Den meisten Betriebsmitarbeitern fällt es nicht auf, daß auch bei Ihnen in der Firma Unices irgend im RZ stehen und die Aufgaben erledigen. Man interagiert nur indirekt mit den Maschinen und sieht sie halt nicht. Noch verdutzter sind die Nutzer, wenn sie erfahren, daß im Keller eine zSeries werkelt.

[ACHTUNG: MEINE MEINUNG, Laßt euch nicht Provozieren!]
Die Shell ist für mich Bedienung von Anno Dunnemals und nicht mehr Zeitgemäss
Da stimme ich Dir für den normalen Endnutzer auch vollkommen zu. Aber für Großinstallationen und spezielle Aufgaben ist es grundfalsch. Dreimal darfst Du raten, weshalb man die neusten Windows Server Varianten komplett ohne GUI und nur mit PowerShell installieren kann. Damit reiht sich Windows Server in all die anderen Server OS ein: VMS, *I*X, i, z/OS, …

Eine didaktisch sinnvoll aufgebaute und gut strukturierte GUI mit "Normalsprache" als Konfigrationsschnittstelle zwischen Mensch und Maschine ist auf Dauer mit Sicherheit leichter zu verstehen und zu 95 % Selbsterklärend
Das trifft nur zu, wenn die Komplexität ein bestimmtes Niveau nicht überschreitet. Danach wird es extrem häßlich mit GUI. So wie Du Dich äußerst hast Du mit dem Computern noch nie wirklich komplexe Probleme lösen müssen.

Ein ganz simples Beispiel. Wir haben einen Jobscheduler für unseren HPC Cluster im Betrieb, der eine GUI mitbringt, mit der man Jobs verwalten kann. Das ganze funktioniert ganz gut, wenn man so 10-20 Knoten im Cluster hat. Wir haben aber fast 1000 Knoten im System, wenn man die GUI startet passiert erstmal minutenlang gar nichts, bis er endlich reagiert. Dann muß man das Intervall für die automatische Auffrischung drastisch verlängern, weil er jedesmal Minuten braucht um fertig zu werden. Das passiert auch immer, wenn man eine Änderung vornimmt. Mittlerweile haben wir das GUI runtergeschmissen, es ist schlichtweg nicht benutzbar und per Shell kann man die Aufgaben viel besser durchführen. Damit das GUI wirklich funktionieren könnte, müßte man die eigentliche Applikationen vollständig neu entwerfen, damit das GUI effizient die Daten anfordern könnte. Es ist also gar nicht damit getan, mal eben so ein GUI zu basteln, man muß darauf auch beim Entwurf der Software achten.
 
Das trifft nur zu, wenn die Komplexität ein bestimmtes Niveau nicht überschreitet. Danach wird es extrem häßlich mit GUI. So wie Du Dich äußerst hast Du mit dem Computern noch nie wirklich komplexe Probleme lösen müssen.

Ein ganz simples Beispiel. Wir haben einen Jobscheduler für unseren HPC Cluster im Betrieb, der eine GUI mitbringt, mit der man Jobs verwalten kann. Das ganze funktioniert ganz gut, wenn man so 10-20 Knoten im Cluster hat. Wir haben aber fast 1000 Knoten im System, wenn man die GUI startet passiert erstmal minutenlang gar nichts, bis er endlich reagiert. Dann muß man das Intervall für die automatische Auffrischung drastisch verlängern, weil er jedesmal Minuten braucht um fertig zu werden. Das passiert auch immer, wenn man eine Änderung vornimmt. Mittlerweile haben wir das GUI runtergeschmissen, es ist schlichtweg nicht benutzbar und per Shell kann man die Aufgaben viel besser durchführen. Damit das GUI wirklich funktionieren könnte, müßte man die eigentliche Applikationen vollständig neu entwerfen, damit das GUI effizient die Daten anfordern könnte. Es ist also gar nicht damit getan, mal eben so ein GUI zu basteln, man muß darauf auch beim Entwurf der Software achten.

Dann ist es aber wiederum Sache des Programmierers da mit passenden Caching Algorithmen zu arbeiten, um eben nicht zum Programmstart ertmal alle Nodes abzuklappern, sondern mit den gecachten Ständen zu arbeiten. Die Aktualisierung auf den Nodes hat gefälligst im Hintergrund zu erfolgen.
Was wiederum voraussetzt, das dieser Scheduler auf einer einzigen Maschine / Node läuft (mit ner "Backup-Node im Hintergrund)
1000 Nodes muss man nicht auf einem Blick haben, es würde nur verwirren, die Kunst heist auch hier "Partitionieren"
Wenn man also mit eine GUI nicht vernünftig arbeiten kann, so liegt die Ursache mit Sicherheit am Programmierer.
Hinzu kommt, daß gerade im OSS Bereich viele Programmierer Ihre Tools/Programme für Ihre Anforderung entwickeln. Jemand der ein derartiges Werkezug für eine vergleichsweise kleine Installation schreibt, macht sich möglicherweise gar keine Gedanken darüber, daß sein Ansatz zu Programmstart erstmal den Ist Zustand aller Nodes abzufragen in grösseren Installationen schlichtweg gegen die Wand fährt.

Bei Novell 4.11 war die Verwaltung der NDS schlisslich auch nur via GUI vorgesehen, und damit konnte man Weltweite Unternehmensstrukturen abbilden. (Ja ich bin CNE 3.12 und CNA 4.11 - den letzten Novell Server habe ich allerdings 1997 gesehen)

Oder warum glaubst du, wird im Videoschnittbereich von vielen Programmen mit Proxydateien gearbeitet - zumindestens bei den Professionellen Schnittprogrammen.


Da stimme ich Dir für den normalen Endnutzer auch vollkommen zu. Aber für Großinstallationen und spezielle Aufgaben ist es grundfalsch. Dreimal darfst Du raten, weshalb man die neusten Windows Server Varianten komplett ohne GUI und nur mit PowerShell installieren kann. Damit reiht sich Windows Server in all die anderen Server OS ein: VMS, *I*X, i, z/OS, …

Wohlgemerkt man kann, ist aber nicht dazu gezwungen, man kann also genausogut wie bisher die Verwaltung komplett auf GUI Basis fahren. Für *i*X - "Gurus" ist das vermutlcih der Notwendige Schritt von MS, um von diesen "Gurus" als Server-OS anerkannt zu werden.
Bei Unilever bestand die IT Abteilung aus gut 100 Angestellten, zumeist studierte Informatiker, SAP Consultants etc. Da sind halt Leute drunter, die kennen jedes Bit beim Vornamen. Da stand auch nicht nur 1 Mailserver, sondern recht viele, u.a. Notes und Exchange, zzgl. einige Mailhubs auf Unix. Das sind prinzipiell auch ganz andere Dimensionen als bei einem Betrieb mit 6 Angestellten.

Bei diesem Betrieb werden wir wohl aus Kostengründen jetzt bei Exchange bleiben, Die Migration von einigen 100.000 Mails auf einen anderen Mailserver kostet ja auch wieder viel Zeit, da nicht wirklich automatisierbar.
Auch wenn Exchange an sich vollkommen überdimensioniert für die Aufgabenstellung ist (Der Chef ist vor einigen Jahren von einem seiner Mitarbeiter falsch beraten worden anstatt auf seinen IT-Dienstleister zu hören)

Der vormals eingesetzte Mail@Work hatte genau den richtigen Leistungsumpfang (einfach ein Purer Mailserver, nicht mehr und nicht weniger), sollte halt ersetzt werden, weil es keinen Support mehr gibt.
Da nächstes - spätestens übernächstes Jahr ein Plattformwechsel ansteht (Support für Server 2003 läut aus) hatte ich einfach mal über den Zaun geguckt, ob es neben "h-mailserver" auf Linux oder freeeBSD nutzbare Alternativen gibt. Die dafür genutzen über 150 Stunden waren meine Freizeit, die mir kein Mensch bezahlt.
 
Zuletzt bearbeitet:
gecachte states von Netzwerkressourcen... imho kommt mir das eher wie ein Antipattern vor.
Ob GUI oder CLI kommt auf die Requirements und auf die Nutzer an. ich persönlich arbeite sehr gerne mit der CLI , auch bei Programmen (LaTex, R , Dev...)


Ein Server braucht aus Ressourcen und Sicherheitsgründen keine GUI (im Sinne von X11).... die Administration kann sehr wohl über eine Client GUI /CLI (z.B. über ssh/vpn) erfolgen....
Ob SAP-Consultants überhaupt Wissen was ein Bit ist steht imho auf einem ganz anderen Blatt.

100k emails oder mailboxen? natürlich kann man die automatisiert umziehen.... zur Not halt per fetchmail, viele Anbieter bieten auch migrationstools an.
Inzwischen gibt es recht viele Groupwares auch für linux (mit kommerziellem Support). Z.B. zimbra, kolab, zafira, sogo (mit exchange Kompatibilität) usw. . Wer nur einen Mailserver möchte, dann halt postfix/imapd usw.

Wie schon öfters hier im Forum gesagt... wenn man nicht will, muss man kein Linux etc. einsetzen.
 
Der Unterschied zwischen Linuxplattform und Windows ist für viele Entwickler und Anwender einer bezüglich der Philosophie "offen" (offene Lizensen+Standards - GPL2/GPL3) und geschlossen ("NDA", "Intellectual Property", Softwarepatente - closed source).

BluRay Authoring hat vermutlich ähnliche Probleme wie die Wiedergabe (zB mögliche Patentverletzungen).
Musikproduktion: Der Kopierschutz von Steinberg ist über den ganzen Code verteilt. Anteil: ~25%. "Softwarequalität" ist etwas anderes
Dazu kommt der relativ kleine Markt.
Für Musikhardware müssten z.B. Datenblätter und Schnittstellen veröffentlicht werden. Dies unterbleibt auch wegen "Patenten" (Konkurrenz könnte etwas patentiertes erkennen), Konkurrenz etc.
btw - In früheren Zeiten bekam der Endnutzer auch Schaltpläne seiner Hardware...

Für kleine/unabhängige Entwickler sind selbst "offene" Standards nicht einfach - mehrere 100€ in Vorleistung gehen bei der ISO ? :haha:

Musikwiedergabe und Bearbeitung (foobar2000),
Musik-CDs auslesen (dBpoweramp, EAC),
Dateimanagement (Total Commander),
clementine ,
morituri ,
krusader

Die perfekte Software gibt es sowieso nicht - jeder stellt andere Anforderungen. Bei wikipedia gibt es einige Featurevergleiche zB von File managers oder Audio Player ...

Eine didaktisch sinnvoll aufgebaute und gut strukturierte GUI mit "Normalsprache" als Konfigrationsschnittstelle zwischen Mensch und Maschine ist auf Dauer mit Sicherheit leichter zu verstehen und zu 95 % Selbsterklärend (für die restlichen 5% schaut man dann in die ebenso gut aufgebaute und Strukturierte Hilfe /Doku).
Das wäre ja mal eine Revolution. ^^ Leider ist Sprache nicht eindeutig. Konfigurationsschnittstellen ändern sich.
Auch "einfache" Abfragesprachen wie SQL sind inzwischen extrem komplex.

Bei den letzten erheblich umstrittenenen "Verbesserungen" in der Oberfläche von Windows 8 / 8.1 , iOS / iOS7 , OSX erkennt man, dass das Rad eben nicht stehenbleibt.
"Interface Guidelines" sind teilweise umstritten und außerdem umfangreich - (OSX
Gute Features und gutes Design gleichzeitg scheint nicht so einfach zu sein :d

PS:
Mit freier Software unter Linux kann quasi jeder die Qualität verbessern:
- Entwickler bezahlen
- Dokumentation schreiben (Übersetzung, Wiki, Blog, Anleitungen ...)
- Bugs suchen, fixen ...
- Communityarbeit ...

Wegen einiger interessanter Posts über das Betriebsklima bei Microsoft (Kernel Entwickler), Microsoft-"Fail" sieht das für mich nicht unbedingt soo toll aus.

"Fehlerfixing" in Bezahlsoftware kann sich ebenso hinziehen. - siehe Bluescreens etc ...

Der Support für das Apple iPad 1 -- nur 2 Jahre. Etwas kurz im Vergleich zu Windows XP - allerdings gibt es da ja nur wegen den Firmenkunden einen längeren Support von dem der Endanwender profitiert. Bei Linux kann man es ja ähnlich machen - LTS Releases/Enterprise Desktops verwenden.
 
Zuletzt bearbeitet:
Dann ist es aber wiederum Sache des Programmierers da mit passenden Caching Algorithmen zu arbeiten,
Niemand hat etwas von veralteten Informationen, wenn man das Aufstarten verbessern will, muß man sich darauf beschränken, die Knoteninformationen nicht anzuzeigen, wenn man sie nicht explizit anfragt. Aber dann heulen alle GUI-Fetischisten wieder herum, das GUI würde ja überhaupt nichts anzeigen etc. pp. Was die Zahl der Knoten betrifft, wenn hunderte Knoten pro Job alloziert sind, muß man diese wohl oder übel pro Job anzeigen und vorher den Knotenstatus abfragen.

Hinzu kommt, daß gerade im OSS Bereich viele Programmierer Ihre Tools/Programme für Ihre Anforderung entwickeln. Jemand der ein derartiges Werkezug für eine vergleichsweise kleine Installation schreibt, macht sich möglicherweise gar keine Gedanken darüber, daß sein Ansatz zu Programmstart erstmal den Ist Zustand aller Nodes abzufragen in grösseren Installationen schlichtweg gegen die Wand fährt.
Die Software läuft auch Systemen die sehr viel größer sind - ohne GUI natürlich.

Bei Novell 4.11 war die Verwaltung der NDS schlisslich auch nur via GUI vorgesehen, und damit konnte man Weltweite Unternehmensstrukturen abbilden.
Novell Netware war aber nie auf Hochleistungsrechern verfügbar, was hat man denn Mitte der 90er für PC Gurkenserver kaufen können? Dual und Quad PPros gab's, das war's aber auch schon. Dazu waren die PC Server auf Grund von Designfehler auch noch extrem langsam, wenn alle CPUs arbeiten mußten: Stichwort QPI vs. FSB.

Wie viele Server hast Du denn betreut?
 
I.d.R. sind es kleine Installationen zwischen einem und 6 Servern und 5-50 Clients.
Bei Unilever habe ich über 4 Jahre lang Nachts im Operation Desk nach Vorgaben diverse Systeme & Tasks überwacht (Windows, Unix, Linux) und hatte entsprechend aus diversen Abteilungen dann Third-Level Ruf-Bereitschaften in der Hinterhand.

Aufghört hatte ich bei Unilever weil die gesamte IT von Hamburg nach England verlagert wurde. *Ich hoffe mal inständig nicht wegen mir :-)*
Unilever war also bislang meine einzige Berührung mit den ganz grossen IT-Installationen.

Wie schonmal an anderer Stelle gesagt bin ich eigentlich staatlich geprüfter Elektrotechniker (Damit kann ich mir mitlerweile den A... abwischen, da bald 20 Jahre raus aus dem Berufsfeld).
Schätzungsweise 95 % meines Wissens in der EDV/IT habe ich mir selbst erarbeitet, sei es in der System-Administration (eigentlich nur Windows), Programmierung (VBA, Pascal, Basic, Envox, SQL) Datenbanken (Access, MySQL) etc., die restlichen 5 % durch Schulung (CNE 3.12 und CNA 4.11). Mit meinen 100 % decke ich aber Schätzungsweise nur 2-5 % des gesamten möglichen IT Wissens ab.

Ich gebe offen zu, daß ich mit meinen fast 50 Jahren nicht mehr ganz so Lern- und Aufnahmefähig bin, wie noch vor 20 Jahren und muß daher abwägen, was für mich wichtig ist.
*i*X gehört für mich derzeit nicht dazu. Zur Zeit bin ich dabei meine Kenntnisse im Bereich SQL zu erweitern und zu vertiefen. Als nächstes werden dann die Visual Basic Kenntnisse deutlich erweitert - oder vielleicht auch C++ / C# komplett from Scratch gelernt.

Achja, um nochmal die "Reissleine" zu Bergründen! Ich habe mich gut 6 Wochen lang über 150 Stunden damit auseinandergesetzt, in dieser Zeit habe ich so gut wie kein Geld verdient, da ich ja kaum noch Zeit dazu hatte - ich habe also effektiv nicht nur Zeit sondern tatsächlich auch Geld investiert (oder krass gesagt zum Fenster rausgeschmissen), weil ich eigentlich guter Dinge war, daß da eine Sinnvolle Erweiterung meiner Kenntnisse für die Zukunft dabei rausspringt. Ich hätte diese Kenntnisse spätestestens übernächstes Jahr einsetzen können (und die Zeit bis dahin genutzt, um diese peu a' peu zu Vertiefen).

Novell Netware war aber nie auf Hochleistungsrechern verfügbar, was hat man denn Mitte der 90er für PC Gurkenserver kaufen können? Dual und Quad PPros gab's, das war's aber auch schon. Dazu waren die PC Server auf Grund von Designfehler auch noch extrem langsam, wenn alle CPUs arbeiten mußten: Stichwort QPI vs. FSB.

Ach, und das waren damals keine Hochleistungsrechner? Komisches Argument!
Die Pentium Pro waren damals die Krone der x86 Prozessoren! Der FSB hat noch bis zum Pentium 4 durchgehalten, immerhin!
Wem das nicht reichte hat 'nen Alpha genommen - wobei Novell nicht auf Alpha lief, in sofern hast du nicht ganz unrecht.
 
Zuletzt bearbeitet:
Bitte nicht soviel OT, ich bezweifle schon ob Interrex überhaupt noch mitliesst.

@Interrex:

Zu deiner letzten Frage, bezüglich der Virtualisierung:
Dein Windows 7 wird ganz normal weiterlaufen, die VM ist für dein Betriebssystem nichts anderes als ein übliches Programm.

Hi,
Ich lese noch mit;)

Was mich noch interessieren würde und wohl andere auch, wie sicher ist Linux-OS gegenüber Windows. Von Windows ist bekannt und jeder weiß es auch, der es auch wissen will, dass im Programmcode der häufigsten Windows Versionen (XP, Vista, 7,8) Backdoors für die NSA und ihre Partner im Ausland eingebaut worden sind. Wie sicher ist vor diesem Hintergrund noch der Linux-Kernel, der zwar open-source ist, aber an dessen Entwicklung sich hunderte unterschiedliche Unternehmen und Organisationen beteiligen (auch mit unterschiedlichen Interessenlagen), auch die NSA (siehe Selinux)! Gibt es noch User oder eine übergeordnete Linux-Organsiation die den neuen, zusätzlichen Codebeitrag in zukünftigen Linuxkernelversionen einem strengen, kritischen Review unterwerfen?

Linux insgesamt wird immer "fetter" siehe die Entwicklung der Codezeilen im Linuxkernel. Viel Platz um Schadcode zu "parken".
 
Zuletzt bearbeitet:
Es gibt KEINE sichere Software. Das Argument für offene Software: Lücken können leichter gefunden werden, was in der Praxis aber häufig daran scheitert, dass diese gar nicht so einfach zu erkennen sind.
Argument für proprietäre Software: Lücken sind für Angreifer nicht so leicht zu finden, weil diese den Sourcecode nicht einsehen können. In der Praxis werden diese Lücken trotzdem gefunden.

Ansonsten teilen sich beide Modelle auch das "Problem" der vielen Entwickler. Denn egal ob wir über Windows oder Linux reden, es arbeiten an beiden hunderte Entwickler, die selbstverständlich auch von der NSA bezahlt werden könnten(!). Ansonsten dürfte es ein leichtes sein, dass man Projektbeteiligte zwingt Lücken einzubauen und per Gerichtsbeschluss dürfen diese auch nicht darüber reden.

Bis heute hat niemand den Beweise antreten können, dass ein Modell dem anderen überlegen wäre, was aber keines davon schlecht oder unbrauchbar macht, es sind eben verschiedene Herangehensweisen. Ich bin Anhänger der "the right tool for the right job"-Fraktion und nutze das, was mir persönlich gerade am besten gefällt, bzw. für meine Aufgabe wichtig ist.
Darum habe ich zum Beispiel Arch Linux und Windows 7 auf dem Desktop, Gentoo auf dem Server und Android auf dem Smartphone.
 
Zuletzt bearbeitet:
Es gibt KEINE sichere Software. Das Argument für offene Software: Lücken können leichter gefunden werden, was in der Praxis aber häufig daran scheitert, dass diese gar nicht so einfach zu erkennen sind.
Argument für proprietäre Software: Lücken sind für Angreifer nicht so leicht zu finden, weil diese den Sourcecode nicht einsehen können. In der Praxis werden diese Lücken trotzdem gefunden.

Ansonsten teilen sich beide Modelle auch das "Problem" der vielen Entwickler. Denn egal ob wir über Windows oder Linux reden, es arbeiten an beiden hunderte Entwickler, die selbstverständlich auch von der NSA bezahlt werden könnten(!). Ansonsten dürfte es ein leichtes sein, dass man Projektbeteiligte zwingt Lücken einzubauen und per Gerichtsbeschluss dürfen diese auch nicht darüber reden.

Bis heute hat niemand den Beweise antreten können, dass ein Modell dem anderen überlegen wäre, was aber keines davon schlecht oder unbrauchbar macht, es sind eben verschiedene Herangehensweisen. Ich bin Anhänger der "the right tool for the right job"-Fraktion und nutze das, was mir persönlich gerade am besten gefällt, bzw. für meine Aufgabe wichtig ist.
Darum habe ich zum Beispiel Arch Linux und Windows 7 auf dem Desktop, Gentoo auf dem Server und Android auf dem Smartphone.

Durch die NSA-Prism-Affäre ist es soweit gekommen, dass man nicht mehr weiß, wen man vertrauen kann...und wenn da noch Berichte in Medien lanciert werden, es könnten auch Backdoors auch direkt in Hardware existieren (zB. bei Intel), dann fehlt es noch wenig bis zum totalen Überwachungsstaat, in dem die Machthaber fast alles über dich wissen, du aber nichts über die Machthaber. Es treibt einen die Wut an, wie besonders die US-Konzerne (abr auch deutsche) die eigene und internationale Kundschaft hinsichtlich ihres Rechts auf Privatsspähre hinterfotzig hintergehen!
 
Zuletzt bearbeitet:
Es ist einfach die menschliche Angst, die gerade bei abstrakten Gefahren, mit relativ geringer Eintrittswahrscheinlichkeit dazu führt, dass wir diese völlig überschätzen. Damit hat die NSA in der breiten Bevölkerung wohl sehr großen Rückhalt, aus ihrer Sicht machen sie absolut alles richtig.
Ironischerweise verlieren wir damit die Alltagsrisiken aus den Augen, die mit sehr großer Wahrscheinlichkeit zum Tod führen. Die Folge: noch mehr Tote als vorher.
Ein gutes Beispiel war die Zeit nach dem 11. September, als die Leute nicht mehr fliegen wollten. Es starben dadurch viel mehr Menschen bei Autounfällen, als bei Flugzeugunfällen gestorben wären.

Das geglaubte Allheilmittel ist Big Data: weiß ich alles kann ich alles steuern und jedes Risiko minimieren. An sich ja eine interessante Idee, wenn wir Menschen nur voller Altruismus, Ehrlichkeit und Demokratieverständnis wären. Hier ist dann auch die Ironie der Statistik zu sehen: wir gehen davon aus, dass ein unwahrscheinliches, schädigendes Ereignis eintritt, obwohl dessen Wahrscheinlichkeit konvergent gegen 0 geht, gehen aber nicht davon aus, dass ein Mensch mit Macht diese missbraucht, obwohl die Wahrscheinlichkeit dafür wesentlich größer ist.

Anyways, wir kommen wohl vom eigentlichen Thema ab. Das ist eher ein politisches Thema und gehört wohl eher in einen eigenen Thread, bevor uns ein Mod - verständlicherweise - köpft.
 
Zuletzt bearbeitet:
Wie sicher ist vor diesem Hintergrund noch der Linux-Kernel, der zwar open-source ist, aber an dessen Entwicklung sich hunderte unterschiedliche Unternehmen und Organisationen beteiligen (auch mit unterschiedlichen Interessenlagen), auch die NSA (siehe Selinux)! Gibt es noch User oder eine übergeordnete Linux-Organsiation die den neuen, zusätzlichen Codebeitrag in zukünftigen Linuxkernelversionen einem strengen, kritischen Review unterwerfen?
Wenn der Quelltext nicht gefällt, dann kann er geändert werden. Gerade bei Linux kannst du auch selbst den Kernel selber bauen - keine überflüssigen Codezeilen mehr.
Vollständiger Schadcode wird im Kernel nicht parken. So etwas wird von USB Stick/Internet nachgeladen.

Außerdem kann jeder Nutzer auch selber Reviewen oder reviewen lassen. Das Buch liegt die ganze Zeit offen herum , jeder redet darüber, aber keiner liest es ;)
Außerdem kann prinzipiell jeder in dem Buch herumschreiben, kopieren usw...
Bei geschlossener Software gibt viel Gejammer, wenn es keine Unterstützung mehr gibt - die offene Software kann dank Quelltext auch noch Jahre später verändert werden.

Lücken können leichter gefunden werden, was in der Praxis aber häufig daran scheitert, dass diese gar nicht so einfach zu erkennen sind.
Es gibt von Google und anderen regelmäßige Wettbewerbe.
Bereits 2012 wurden für Chrome 6 verschiedene Sicherheitslücken kombiniert. "Trivial" ist das nicht mehr ...
siehe: Anatomy of a hack: 6 separate bugs needed to bring down Google browser (Updated) | Ars Technica
 
Wenn der Quelltext nicht gefällt, dann kann er geändert werden. Gerade bei Linux kannst du auch selbst den Kernel selber bauen - keine überflüssigen Codezeilen mehr.
Vollständiger Schadcode wird im Kernel nicht parken. So etwas wird von USB Stick/Internet nachgeladen.

Außerdem kann jeder Nutzer auch selber Reviewen oder reviewen lassen. Das Buch liegt die ganze Zeit offen herum , jeder redet darüber, aber keiner liest es ;)
Außerdem kann prinzipiell jeder in dem Buch herumschreiben, kopieren usw...
Bei geschlossener Software gibt viel Gejammer, wenn es keine Unterstützung mehr gibt - die offene Software kann dank Quelltext auch noch Jahre später verändert werden.


Es gibt von Google und anderen regelmäßige Wettbewerbe.
Bereits 2012 wurden für Chrome 6 verschiedene Sicherheitslücken kombiniert. "Trivial" ist das nicht mehr ...
siehe: Anatomy of a hack: 6 separate bugs needed to bring down Google browser (Updated) | Ars Technica

Ich schreibe hier als Otto-Normal-User, wie die meisten hier, und die meisten hier haben keine 3 oder 4 jährige Uniausbildung in Informatik, um den neusten Linuxkernel einem kritischen Review zu unterwerfen oder sich die Linux Codzeilen selbst zu einem funktionierenden OS "zusammenzubasteln";)
 
Wie sicher ist vor diesem Hintergrund noch der Linux-Kernel, der zwar open-source ist, aber an dessen Entwicklung sich hunderte unterschiedliche Unternehmen und Organisationen beteiligen (auch mit unterschiedlichen Interessenlagen), auch die NSA (siehe Selinux)!
SELinux ist von der NSA eingebaut worden, damit Linux für die Verwendung in der NSA tauglich ist. D.h. die NSA verwendet Linux selbst.

Gibt es noch User oder eine übergeordnete Linux-Organsiation die den neuen, zusätzlichen Codebeitrag in zukünftigen Linuxkernelversionen einem strengen, kritischen Review unterwerfen?
Grundsätzlich wird der Code reviewed, aber wenn Institutionen wie die NSA Backdoors einbauen wollen, tun sie das nicht mit einem Submit sondern in vielen verschiedenen. Wahrscheinlicher ist es, daß keine Backdoor eingebaut wird, sondern ein Ziel explizit angegriffen wird. Bei so einem Angriff ist die Wahrscheinlichkeit entdeckt zu werden viel geringer. Das geht in dem man die Schlüssel z.B. von RedHat hat und mit einem Man-in-the-Middle Angriff dem Ziel falsche Pakete beim Softwareupdate unterschiebt, die mit dem Originalschlüssel signiert sind. Man muß bei RedHat, Novell, … davon ausgehen, daß sie die Schlüssel an die NSA herausgegeben haben.
 
Ich nutze Windows7 nurnoch fürs Gaming und spezielle Anwendungen.

Für Internet, E-Mail etc. nutze ich erfolgreich Linux Mint 64-Bit in der MATE-Ausführung.
 
Hey,
ich habe auch überlegt auf Linux umzusatteln, weil es bedienungsfreundlicher sein soll und mehr Funktionen bietet als Windows. Deswegen habe ich mir mal diese Infos eingeholt, die sich mit der Installation von Linux beschäftigen. An sich finde ich die Seite nicht schlecht, aber ob ich es als Laie hinbekommen würde, Linux zu installieren ist fraglich ;)
 
Kannst es mit Ubuntu probieren, da kannst man eigentlich kaum etwas falsch machen bei der Installation, ist sehr benutzerfreundlich.
 
Statt Ubuntu würde ich persönlich zumindest auf Xubuntu umsteigen. Oder Elementary OS -- das habe ich vor einer Weile meiner Cousine und meiner Freundin auf deren Laptops gemacht und die mögen es sehr. Ubuntu ist mittlerweile alles andere als Schlank und die Performance auf ihren etwas betagteren Laptops war mies mit Unity. Elementary OS läuft hingegen wunderbar ohne weniger "schön" zu sein und ist dabei quasi Ubuntu.

Bei fast keinem Linux sollte die Installation heute noch ein Problem sein, außer man wählt Gentoo, Arch oder ähnliches.
 
Zuletzt bearbeitet:
Elementary OS kannte ich bisher noch gar nicht. Die GUI hat aber eine gewisse Ähnlichkeit mit eine anderen OS, wessen Namen ich nicht nennen möchte ;)
 
Zuletzt bearbeitet:
habe seit ein paar monaten eOS im produktivbetrieb, es ist einfach nur unfassbar schnell und hübsch. Leider noch auf 12.04 basierend, neuere Hardware kann Probleme machen (auf nem Rechner mit AMD APU habe ich es nicht hinbekommen). Installation ist bei Ubuntu und Derivaten davon keine Hexenwerk, wer ein Win 7 installiert bekommt schafft auch das.
 
Elementary OS kannte ich bisher noch gar nicht. Die GUI hat aber eine gewisse Ähnlichkeit mit eine anderen OS, wessen Namen ich nicht nennen möchte ;)

Dann hat Unity aber auch änglichkeit damit. Sagt ja auch keiner, dass es schlecht ist... Geschmackssache. Aber das denkst du wahrschienlich nur wegen dem ersten Blick durch Google-Bilder-Suche, oder? Den der Rest unterscheidet sich schon.
 
Ich habe gar nicht gewertet, nur sind mir die Ähnlichkeiten ins Auge gesprungen. Bin noch bei der Arbeit, da kann ich mir grade nur schnell mit Hilfe von Google mir ein Bild davon machen. Aber eOS hört sich wirklich interessant an, werde es am Wochenende mal auf meinem Notebook installieren und schauen, wie es sich so macht.
 
eOS ist das neue linux mint! ich finds absolut empfehlenswert, vor allem auch für unbedarfte umsteiger, weil es sehr aufgeräumt und reduziert ist. habe das zwei linux n00bs empfohlen und bei beiden läuft es nach anfänglicher einrichtung wunderbar ohne murren.
 
eOS ist das neue linux mint!

Das klingt ja nicht schlecht. Hatte ne zeitlang Mint auf dem Notebook, aber dann ging ein Versionsupgrade schief und es lief nicht mehr wirklich toll.
Bin also wieder zurück zu Windows. Der Desktop muss einfach für das was ich brauche funktionieren und das hat er halt leider nicht mehr.
 
Das klingt ja nicht schlecht. Hatte ne zeitlang Mint auf dem Notebook, aber dann ging ein Versionsupgrade schief und es lief nicht mehr wirklich toll.
Bin also wieder zurück zu Windows. Der Desktop muss einfach für das was ich brauche funktionieren und das hat er halt leider nicht mehr.

Bei Windows funktioniert es doch auch viele nicht. Was lief bei Dir konkret bei Linux Mint (du hast hoffentlich die Debian Version genutzt?) schief?
 
Also ich habe persönlich habe nun mit einigen Derivaten gearbeitet (Ubunutu,Xubuntu,Debian,Mint) und bin auf eOS hängen geblieben. Finde es ist ein super OS, absolut easy (ist ja quasi Ubuntu ohne den ganzen Müll), und rennt auch stabil.
 
Bei Windows funktioniert es doch auch viele nicht. Was lief bei Dir konkret bei Linux Mint (du hast hoffentlich die Debian Version genutzt?) schief?
Kann ich dir im Detail nicht mehr sagen. Ich glaub ich hab mit Mint13 angefangen, da lief alles out-of-the-box was ich wollte und nach dem Upgrade auf 14 hatte ich nicht mehr "runde Feeling".
Ich brauch halt auch die typischen MS Office Produkte vor allem Outlook und da gab's auch Probleme. Ein Kollege von mir hat komplett auf Linux migriert, aber das war ein längerer Kampf bis alles lief.

Mir reichen unsere Linux Server, da hab ich genug zu tun. Ob mein Terminal Anzeige Programm jetzt Windows, oder Linux heißt ist fast egal. ;)

Die Iso hab ich schon mal runtergeladen, mal schauen ob es wieder das richtige Feeling liefert.
Nur so am Rande:
Ich hab mit Gentoo 1.2 rc1 mit Linux am Desktop angefangen und während des Studiums auch so 5 Jahre genutzt. Erster Kontakt war glaub ich Suse 5.3. ;)
 
Zuletzt bearbeitet:
opensuse vs ubuntu

Fürn umsteiger der es gerne einfach hat würde ich ubuntu 12.04 lts mit unity empfehlen. Für experimentierfreudige
openSuse 12.3 mit KDE. Als alternative Mandriva linux.

openSuse gegen Ubuntu:

Unity hat den vorteil dass gerade linux anfänger nicht durch zu viele Prgrammstarter wie im KDE überfordert sind!
Will man das System nachher anpassen sollte muon gegen die synaptik-paketverwaltung getauscht werden. Synaptik
ist übersichtlicher zu bedienen als wie muon. Ähnlich wie YAST bei Suse.

Ich selber bin von openSuse auf Kubuntu umgestiegen weil openSuse seit 9.3 sehr schlecht gepflegt ist. Ingesamt ist
bei open Suse nach 9.3 auch die Sprachunterstützung mangelhaft.
Unity ist schlank und einfach zum bedienen - mir selber bietet die Obefläche aber zu wenig möglichkeiten weshalb ich
es gleich nach der installation fürn kde rausgeschmissen habe. Das Problem bei allen debian derivaten ist dass debian
sehr konsolen-lastig ist.
Was Suse wiederum mit YAST ganz einfach macht, muss bei ubuntu (wie dazu auch bei RedHat und seinen schwestern)
per shell erledigt werden.
Anfänger stehen da meistens vor einer grossen Wand die es erst mal zu überwinden gilt!

Ubuntu installiert sich ausserdem gerne im 32bit modus, auch wenn der computer 64bit unterstützt.
Bei Suse und Mandriva wird 64bit standardmässig und ohne grosse sucherei installiert, sofern der computer dies
auch unterstützt.

Mint ist genauso ein unfertiger Pfusch wie window$ 8 nimmt man sich die Zeit und liest alle threads im entsprechenden
forum durch auf welches von der ubuntu-seite verwiesen wird. Canonical selber !verweigert mittlerweile den
support für Mint.

Der support für Ubuntu Kubuntu Lubuntu ist gut. Für openSuse schlecht weil n.m erachten viele von suse auf
ubuntu umgestiegen und jetzt dort aktiv sind. Bei Mandriva ist der support gut muss aber durch den kauf der distro
miterworben werden.

Sicherhiet sowie hardware-kombatibilität ist eigentlich bei keinem linux ein thema da zu 98% alle gängige hardware
unterstützt wird. Hast du Intel drin läuft es auch. Mit exotischen Geräten wie z.b. dem qualcomm atheros lankontroller
tun sich linux wie auch window$ schwer. Unter openSuse läuft er gar nicht weil die quelldatei falsch kompiliert ist.

Mandriva linux ist auch interessnt weil es, für umsteiger doch wichtig, auch sehr viel automatismus beinhaltet.
Vorsicht ist da nur beim installieren notwendig, da der Mandriva-installer gerne einfach ALLE Partition sämtlicher
angeschlossenen Platten im computer löscht!!
Ich teste Mandriva zwischendruch immer mal, bis auf den fehlenden YAST und der eigentlich doch bessere
support als wie bei openSuse konnte mich das kostenpflichtige Mandriva somit nicht vollends zum
umstieg von openSuse überzeugen.
Aber eine alternative dazu ist es allemal. Hätte Mandriva YAST und einen fehlerfreien installer wäre es für mich klar
die Nummer 1!
 
Zuletzt bearbeitet:
Ich halte Unity nicht gerade für den einsriegsfreundlichsten Startmanager, wenn man da Win Startmenü gewohnt ist, ist das schon eine ziemliche Umstellung.
Auch wenn das narürlich ein sehr einfacher Desktip ist:
An sich ist Ubuntu mit XFCE relativ einfach für die Umstellung.
Oder eben OpenSuse oder Mint. Wobei ich KDE nicht so genial finde, das liegt schon am (relativ) hohem Reccourcenverbrauch...

Gesendet von meinem GT-I5500 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Unity ist doch viel einfacher als wie kde. Alles schön links aufgereiht - will man aber mehr, fängt die Sucherei an.
Gnome und afterstep und xfce sind alte Oberflächen, noch komplizierter als wie es kde schon ist.
Aber die Befindlichkeiten sind halt verschieden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh