"Wird Linux langsam marktfähig?"

Auch wenn sichs viele (v.a. jüngere, "klickibunti-verwöhnte") Leut nich vorstellen können, es gibt mehr CLI-User als ihr denkt :P
So arbeiten v.a. viele "alte Hasen" auch unter Windows heut noch ganz gern mit der Konsole und/oder schätzen diese ob ihrer wesentlich umfangreicheren Funktionen erst recht unter Linux :D
--> Evtl. sollten manche hier einfach mal über den eigenen Tellerand gucken... :]

BTW: TFTs laufen auch alle mit 75Hz, was z.B. fürs Zocken mit Vsync oder für Videos und Fernsehen glotzen auch wesentlich besser @fps is ;)

Seh ich ganz genauso, aber der Massenmarkt besteht eben nicht aus diesen alten Hasen - würde ich jetzt zumindest vermuten. Das CLI wird mit Sicherheit auch nie abgeschafft werden. Gott sei's gedankt! ;D
Schaden kann Nutzerfreundlichkeit über das GUI aber wohl nie. Ein CLI macht eben auch nur in einer Window-Oberfläche wirklich Spaß. Das native CLI ist selbst virtualisiert schlichtweg überholt und in vielerlei Hinsicht nicht effizient genug. Wohl angemerkt: Das müsste es nicht sein - um z.B. das Thema Direkthilfe zu nennen. Das native CLI ist für mich eigentlich nur noch eine Fallback-Lösung.

75Hz lassen sich leider selten über DVI oder an Laptops realisieren. Und den Unterschied merkt man doch nur wirklich bei Videos/Streams. Obwohl er da schon derb auffällt.
Viele spielen schließilch noch mit deaktiviertem VSync. *grusel* Tripplebuffering und/oder geringere Grafikeinstellungen tun ihr Übriges ... in 3D-Anwendungen ist die Wiederholfrequenz kaum mehr ein Thema.
 
75Hz per DVI *kopfkratz Technisch kein Problem, nur eben oft ned per automatischer Erkennung :]
Unter Windows kannst dir dann mit Glück die richtige Frequenz "zusammenklicken" und beten, dasse nach dem nächsten Reboot auch noch so is oder n paar Stunden ohne Erfolgsgarantie n der Registry verbringen )((
Unter Linux reichen n paar Tipper in der xorg.conf, Strg+Alt+Backspace und gut is :D
SOWAS versteh ich unter ECHTER Nutzerfreundlichkeit *great*
 
Das CLI ist IMHO nur für den Power-User sinnvoll. Einfache Einstellungen wie die der Maus, des Bildschirms usw. sollten schon über ein GUI möglich sein. Die Variablen/Commands werden in dieser Form durch einfaches Sehen/Klicken ersetzt. Das halte ich auf jeden Fall für nutzerfreundlicher.
Das ist soo nicht richtig.
Eine GUI lebt davon, dass man die verfügbaren Optionen auf das Wesentliche beschränkt.
Das bedeutet entweder, dass man weitergehende Konfiguration verschleiert oder nicht
ermöglicht, wenn man auf GUI only setzt. Prinzipiell spricht nix dagegen, eine GUI mit
allen verfügbaren Optionen auszustatten, doch wohin das führt sieht man bei xine.
Es mag gut sein, dass man heutzutage mit manchen Distributionen fast mit GUI only
auskommt, aber das liegt auch nur daran, dass es jemand vorkonfiguriert hat.
Dabei sind oftmals einige der Optionen, die die GUI nicht bietet, recht interessant, aber
man wird sie eben nie zu gesicht bekommen.

Ein GUI mag nicht so mächtig sein, hat aber eine niedrigere Anforderung an den Nutzer. Für die meisten Nutzer haben das Betriebssystem und seine Applikationen schlichtweg keinen Selbstzweck. Wenn's tut, dann tut's! ;)
Wie gesagt, man kann eine GUI auch sehr mächtig gestalten. Das Problem ist dann aber,
dass sie ihren größten (und nach Meinung vieler einzigen) Vorteil gegenüber eines CLIs
einbüßt, nämlich die Übersichtlichkeit und Schlichtheit.

So sehe ich ehrlich gesagt kaum mehr die dringende Notwendigkeit eines CLIs in moderen Unix-Derivaten.
Das ist nicht richtig. Ich geh jetzt aber mal davon aus, dass du etwas anderes gemeint hast.
Vermutlich meinst du, es besteht keine dringende Notwendigkeit seitens eines Nutzers
ein CLI zu verwenden. Damit hast du prinzipiell recht.
Allgemein sind CLIs genauso notwendig wie schon immer, denn das Debuggen und die
Bedienung gestaltet sich deutlich einfacher.
Zudem hat ein CLI noch einen riesigen Vorteil:
Man kann nämlich auf ein CLI verschiedene GUIs aufbauen, das ist eigentlich optimal. ;)
BTW: TFTs laufen auch alle mit 75Hz, was z.B. fürs Zocken mit Vsync oder für Videos und Fernsehen glotzen auch wesentlich besser @fps is ;)
Naja, wenn du den TFT digital anschließt, dann läuft er mit 60Hz, nicht mehr, nicht weniger.
Solange es cygwin und cygwin-X gibt arbeite ich auch unter windows gern und effektiv ;D 8)
Wenn das nur unter XP x64 funktionieren würde. :/
 
Naja, wenn du den TFT digital anschließt, dann läuft er mit 60Hz, nicht mehr, nicht weniger.
Das ist sooo nicht richtig.
Der TFT läuft auch digital mit der Frequenz mit er er angesteuert wird innerhalb seiner erlaubten Grenzen.
Eben sinnvoller Weise mit 75Hz wenn man PAL Videos ruckelfrei abspielen möchte.

Digitale Ansteuerung hat keine Festlegung auf eine bestimmte Frequenz.
Es gibt nur übliche Frequenzen oder häufig verwendete wie (60,50,75 oder 24,48,72 Hz)

lg
__tom
 
Topic:
Ist Linux langsam marktreif

Meine Antwort:
Nein, da nicht DAU-tauglich. Drei Installationsversuche von (K)Ubuntu in verschiedenen Fassungen in der Sandbox scheiterten an elementarsten Hindernissen (fixierte Auflösung von 1600 x 1200 @ 1280x1024 TFT, Abbruch der Installation bei 66% und solche Scherze).
Vorhin testete ich nochmal eine LiveCD von IPCop. Oh Wunder! Die erste Linux-Distri die sich auf Anhieb ohne Probleme installieren lies.
Solange dieses Hindernis nicht beseitigt wird ist Linux als OS kaum Massentauglich (und das ist für den Wettbewerb am Markt entscheidend).
Für ein Windows muß ich als normaler Mensch nicht jahrelang studiert haben. CD-einlegen, Anweisungen folgen, fertig. System ist einsatzbereit und erfordert ggf. noch ein paar Treiber.
Linux: CD einlegen, BETEN das die eigene Hardware erkannt und unterstützt wird und die Installation nicht ohne Grund abbricht. Die EIGENTLICHE Stärke von Linux, nämlich das CLI, ist für einen normalen Nutzer einfach ZU komplex! Klar, wer in der Materie steckt für den ist das ein Witz, aber als normaler Mensch schlage ich die Hände über den Kopf zusammen. Nicht einmal MS-DOS war annähernd so "unfreundlich".

Das möchte ich nicht als Supportaufruf verstanden wissen, sondern einfach als Meinung eines Versuchswilligen in diesem Thread.

"Wird Linux langsam marktfähig?"
Nein, wird es nicht. Es ist noch ein langer Weg dorthin.
 
Das ist sooo nicht richtig.
Der TFT läuft auch digital mit der Frequenz mit er er angesteuert wird innerhalb seiner erlaubten Grenzen.
Eben sinnvoller Weise mit 75Hz wenn man PAL Videos ruckelfrei abspielen möchte.

Digitale Ansteuerung hat keine Festlegung auf eine bestimmte Frequenz.
Es gibt nur übliche Frequenzen oder häufig verwendete wie (60,50,75 oder 24,48,72 Hz)
Mein TFT und jeder andere, den ich bisher verwendet/gesehen hab, wird digital mit der
Frequenz von 60Hz betrieben. Mag sein, dass es da prinzipiell Ausnahmen gibt, mir
sind/waren aber keine bekannt.

Analog sieht das natürlich wieder anders aus.
 
Topic:
Ist Linux langsam marktreif

Meine Antwort:
Nein, da nicht DAU-tauglich. Drei Installationsversuche von (K)Ubuntu in verschiedenen Fassungen in der Sandbox scheiterten an elementarsten Hindernissen (fixierte Auflösung von 1600 x 1200 @ 1280x1024 TFT, Abbruch der Installation bei 66% und solche Scherze).

Welche Virtualisierungslösung (=Sandbox?) hast du verwendet?
 
Welche Virtualisierungslösung (=Sandbox?) hast du verwendet?
Virtual PC 2007, VMWare wird später noch getestet. ATM arbeite ich mich durch verschiedene Linux Distributionen durch. Interessieren täte mich ja mehr Debian. Aber wie gesagt: Das ist kein Supportthread!!! (Bevor ich von TiKu WIEDER Haue bekomme ;D).
 
Ich würde dir raten, als erstes mal VirtualPC wegzulegen und dir Virtualbox runterzuladen, ist auch kostenlos und zumindest aus meiner Erfahrung tuts, der Hersteller sagt auch, dass hier Linux unterstützt wird :-)
Und als nächstes würde ich nicht versuchen, bei jedem Haker das ganze von vorne zu beginnen, sondern wirklich mal zu gucken, warum es hakt, und das abzuschalten. Häufig tut es eine Bootoption (noide, noapic, acpi=off oder irgendsowas), damit zumindest die Installation tut.
 
Analog sieht das natürlich wieder anders aus.
Nochmal analog und digital verhalten sich nicht anders wenn es um Bildwiederholfrequenzen geht.
Das bei den TFT's 60Hz als Standard gewählt wird, liegt an NTSC welches bekanntlich mit 60Hz läuft, und hat nichts mit digitaler Ansteuerung zu tun.

lg
__tom
 
mein TFT hier läuft digital mit 75Hz ;)
 
Die drei hier im Haus auch - sowohl unter Linux als auch unter Windows und zwei davon per DVI ;)
 
Nochmal analog und digital verhalten sich nicht anders wenn es um Bildwiederholfrequenzen geht.
Das bei den TFT's 60Hz als Standard gewählt wird, liegt an NTSC welches bekanntlich mit 60Hz läuft, und hat nichts mit digitaler Ansteuerung zu tun.

lg
__tom
mein TFT hier läuft digital mit 75Hz ;)
Die drei hier im Haus auch - sowohl unter Linux als auch unter Windows und zwei davon per DVI ;)
Okok, da hab ich mich wohl geirrt. ;)
.
EDIT :
.

Nein, da nicht DAU-tauglich. Drei Installationsversuche von (K)Ubuntu in verschiedenen Fassungen in der Sandbox scheiterten an elementarsten Hindernissen (fixierte Auflösung von 1600 x 1200 @ 1280x1024 TFT, Abbruch der Installation bei 66% und solche Scherze).
Vorhin testete ich nochmal eine LiveCD von IPCop. Oh Wunder! Die erste Linux-Distri die sich auf Anhieb ohne Probleme installieren lies.
Solange dieses Hindernis nicht beseitigt wird ist Linux als OS kaum Massentauglich (und das ist für den Wettbewerb am Markt entscheidend).
Zunächst mal schade, dass deine Installation nicht geklappt hat.

Für ein Windows muß ich als normaler Mensch nicht jahrelang studiert haben. CD-einlegen, Anweisungen folgen, fertig. System ist einsatzbereit und erfordert ggf. noch ein paar Treiber.
Sorry, das ist unter Linux kein Stück anders. Natürlich kann es (leider) passieren, dass der
Installer fehlschlägt, aber das kann dir unter Windows genauso passieren. Ich kenne einige
Fälle, die bei der Installation von Vista einen Bluescreen bekommen haben, jedes mal.
Es ist möglich, dass das unter Linux derzeit noch häufiger passiert, aber genau kann man
das schlecht wissen, da man die genauen Anteile der gescheiterten Installationen nicht
kennt. Nur eins kannst du mir glauben, es sind unter Windows mehr als du denkst.

Was die Installation an sich angeht, ich kenne genug Leute, die _nicht_ fähig sind, Windows
zu installieren, und selbst wenn sie diese Hürde gemeistert haben, nicht fähig sind, die
nötigen Treiber zu installieren. Davon ganz zu schweigen, rauszufinden, was für eine Karte
das ist, wo man die Treiber (im Internet findet) und wie man diese installiert.
Klingt für dich vermutlich genauso albern wie für mich, aber ist halt so.
Von daher finde ich die Möglichkeit eines Betriebssystemes, dass die Treiber schon selbst
mitbringt und diese (wenn man ein Kernel Update macht/machen will) aktualisiert, sehr
lobenswert. Das gilt ja jetzt nicht nur für Linux, sondern auch für BSD etc.
Natürlich ist das System nicht optimal und es fehlen hier und da Treiber (meist weil die
Hersteller sich verweigern), das ist natürlich extrem bescheuert.

Ich persönlich hatte übrigens noch keine fehlgeschlagene Installation (also dass der Installer
abgebrochen hat) und das bei bestimmt 20 Linuxinstallationen. (Suse 7.0,8.2,9,3,10.0...
Ubuntu/Kubuntu diverse Male und natürlich Gentoo, wobei bei Gentoo der Installer schlecht
fehlschlagen kann, da ich ihn nicht nutze, sondern manuell installiere. ;) Mir wurde allerdings
gesagt, dass der Gentoo Installer nicht gerade zuverlässig ist.)

Nicht einmal MS-DOS war annähernd so "unfreundlich".
Mit dem CLI hast du teilweise recht, allerdings ist es nicht zu komplex, sondern schreckt
einfach nur ab, weil man es nicht kennt. Aber das mit MS DOS meinst du ja hoffentlich
nicht ernst, das kann ja nur ein schlechter Scherz sein. ;)

"Wird Linux langsam marktfähig?"
Nein, wird es nicht. Es ist noch ein langer Weg dorthin.
Wenn du "Wird Linux langsam daufähig?" meinst, dann magst du damit recht haben.
Marktfähig ist es schon und wurde es zu dem Zeitpunkt als Dell und andere angefangen
haben es auf Rechnern vorzuinstallieren.
 
Virtual PC 2007, VMWare wird später noch getestet. ATM arbeite ich mich durch verschiedene Linux Distributionen durch. Interessieren täte mich ja mehr Debian. Aber wie gesagt: Das ist kein Supportthread!!! (Bevor ich von TiKu WIEDER Haue bekomme ;D).

Das hast auch Haue verdient. "Microsoft Virtual PC 2007" unterstützt offiziell (und inoffiziell schlecht) kein Linux. Deshalb Linux das Prädikat "nicht marktfähig" zu verleihen, ist etwas fragwürdig.
VMWare ist die bessere Lösung. Der einfachste Weg ist, den Player und schon fertige virtuelle Maschinen herunterzuladen. Probleme mit Inkompatibilitäten deiner Hardware kann es eigentlich nicht geben, da sie ja komplett (außer USB, LPT) simuliert wird.
 
Für ein Windows muß ich als normaler Mensch nicht jahrelang studiert haben. CD-einlegen, Anweisungen folgen, fertig. System ist einsatzbereit und erfordert ggf. noch ein paar Treiber.
Linux: CD einlegen, BETEN das die eigene Hardware erkannt und unterstützt wird und die Installation nicht ohne Grund abbricht.

Vom Einwand von sp42b mal ganz abgesehen, kann es sein, dass du Äpfel mit Birnen vergleichst? Wieviel Erfahrung mit Windows hast du und wieviel mit Linux? Wenn du mal ein bisschen ernsthaft und ehrlich überlegst, musst du zum Schluss kommen, dass Windows durchaus auch so einige Probleme bei der Installation machen kann und auch tut. Für jemanden, der schon Kenntnisse der Plattform hat, ist es aber ebenso leicht mit diesen Problemen umzugehen, wie für jemanden mit Unix/Linux-Kenntnissen auf dieser Plattform.
 
Da möcht ich mal deutlich widersprechen! Viele Probleme mit proprietärer Software sind max. für deren Herstellerfirma lösbar...
 
Da möcht ich mal deutlich widersprechen! Viele Probleme mit proprietärer Software sind max. für deren Herstellerfirma lösbar...

Scheinargument! Die meisten Probleme in OpenSource-Software sind für den normalen Anwender auch nicht zu lösen, egal wie tief er Einblick in die Sourcen hat. Für den 0815-Anwender macht das kaum einen Unterschied. Er muss so oder so jemand anderes bemühen, der ihm die Fehler debugt und beseitigt.
 
Wenn man mal SDs virtuellen Test außen vor lässt, scheint es aber auch mir so, dass die Grundinstallation des Betriebssystems - zumindest gefühlt - bei Windows besser läuft. Man muss natürlich einräumen, dass die häufigste Ursachen wie mangelnde Treiber und instabile Rechner nicht Linux angelastet werden sollten.

Die Installationsroutine ist meiner Meinung nach auch nicht unbedingt als Kriterium für Massenmarkttauglichkeit nötig. Es gibt - wie einige schon schön anmerkten - jede Menge Leute, die seit einer Dekade Windows nutzen aber dessen Installationsroutine noch nie gesehen haben ... die problemlose Installation läuft ja bei allen ganz nett.
 
Scheinargument! Die meisten Probleme in OpenSource-Software sind für den normalen Anwender auch nicht zu lösen, egal wie tief er Einblick in die Sourcen hat. Für den 0815-Anwender macht das kaum einen Unterschied. Er muss so oder so jemand anderes bemühen, der ihm die Fehler debugt und beseitigt.
Jein - für den "Otto-Normal-User" sicher ned, aber z.B. für Hersteller von Hard- oder Software schon! Und eben ohne auf die "Gnade" des Betriebssystemherausgebers angewiesen zu sein...

@floTTes: Ebenso jein - ich denk da nur z.B. an Einbindung von Sata-Platten ohne Trickserei mit IDE-Modus, allg. halbwegs aktuelle Hardware oder auch natürlich an den Unterschied beim Umfang der mitgelieferten Software (Open Office vs. Notepad :-X)...
 
Zuletzt bearbeitet:
Wenn man mal SDs virtuellen Test außen vor lässt, scheint es aber auch mir so, dass die Grundinstallation des Betriebssystems - zumindest gefühlt - bei Windows besser läuft. Man muss natürlich einräumen, dass die häufigste Ursachen wie mangelnde Treiber und instabile Rechner nicht Linux angelastet werden sollten.

Nun, Windows lastet man sie ja auch nicht an. Wenn dort die Treiberinstallation nicht klappt, wird auf Hersteller XY geschimpft, was der wieder für einen Schrott abliefert. Wenn die Hardware unter Linux nicht geht, ist seltenst der Hersteller Schuld. Meist ist dann Linux einfach nur Mist.

Jein - für den "Otto-Normal-User" sicher ned, aber z.B. für Hersteller von Hard- oder Software schon! Und eben ohne auf die "Gnade" des Betriebssystemherausgebers angewiesen zu sein...
In welchem Zusammenhang der Marktfähigkeit von Linux steht das jetzt? ???
 
@Puck
Danke für Deine objektive Meinung. Mir geht es auch nicht darum zu sagen "Wuäh, aber Windows ist viel besser als Linux". Das ist quatsch und lag auch nicht in meinem Sinne. Einen Porsche vergleiche ich auch nicht mit einem Traktor -> 2 getrennte Bereiche.

Erinnere ich mich zurück an die Zeit mit Windows 3.x und MS-DOS würde ich sagen, das die "bisher" mir bekannten Linux-Distributionen, zumindest bei der Installation, auf deren Niveau sind. Da ist Dein Einwand berechtigt, ich habe MS-DOS Kenntnisse und es ist mir ein Leichtes Variablen zu setzen, oder Treiber zu konfigurieren.

Aber die Ära ist vorbei. Jetzt gilt es ein Windows 2K/XP/Vista/2K3 mit Linux zu vergleichen, wenn man an die Marktfähigkeit denkt. Und im Regelfall ist es bei Windows seit 2K recht simpel: CD einlegen, paar Tasten drücken, Product Key eintragen, warten und fertig. Im Normalfall wird die Hardware auch weitestgehend erkannt. Bei Grafikkarten steht zumindest ein VGA-Treiber zur Verfügung.
Wenn ich nun an die Linux Distris denke, ist es eben nicht ganz so einfach. Natürlich ist es von Vorteil, wenn man sich seine Kernel selber backt und somit Linux ganz individuell an "seine" Hardware anpaßt. Damit man aber überhaupt soweit kommen kann, sollte man zumindest die Oberfläche arbeitsfähig installiert bekommen.
Bin ich nun in der Situation, das ich dem Installationsprozess von Ubuntu folge und gebannt sehe, das er seit Stunden auf 66% beharrt, ohne irgendeine Fehlermeldung, oder abgesicherte Installation beim Reboot fortsetzt, bin ich verunsichert. Als Linux Neuling habe ich absolut keine Ahnung woran es hapert! Keine Fehlermeldung, nix. Es steht einfach.
Wenn solch ein Fall bei Windows eintritt, resettet man ihn. Die Installation wird dann "automatisch" mit entschärften Parametern fortgesetzt.

Aber natürlich besteht das PC Leben nicht nur aus Installationen eines OS, so das meine Meinung "Linux sei nicht marktfähig" vielleicht hochgegriffen war. Leider bin ich noch nicht soweit gekommen, das ich normal mit Linux arbeiten könnte, wie es mir mit Windows möglich ist.

@boidsen
OpenOffice <-> Notepad.exe @ Standardinstallation? Muß ich jetzt nicht verstehen, oder? Mal wird über Microsoft gewettert, wenn sie ihre Installationen mit Programmen ÜBERLADEN, im gleichen Atemzug hält man Microsoft dann aber vor keine komplette OfficeSuite zu integrieren. Es gibt ja schon genug Leute, die wegen dem integrierten Windows Media Player anfangen zu weinen (der nachwievor sehr gut ist).

@Topic
Ich finde diesen Topic eigentlich sehr geeignet, meine persönlichen Erfahrungen und ersten Schritte mitzuteilen. Denn ist es nicht irgendwie das, was die Marktfähigkeit ausmacht...?
 
Bin ich nun in der Situation, das ich dem Installationsprozess von Ubuntu folge und gebannt sehe, das er seit Stunden auf 66% beharrt, ohne irgendeine Fehlermeldung, oder abgesicherte Installation beim Reboot fortsetzt, bin ich verunsichert. Als Linux Neuling habe ich absolut keine Ahnung woran es hapert! Keine Fehlermeldung, nix. Es steht einfach.
Wenn solch ein Fall bei Windows eintritt, resettet man ihn. Die Installation wird dann "automatisch" mit entschärften Parametern fortgesetzt.
Sicherlich wäre es schön, wenn man bei dem Ubuntu Installer eine Art "Verbose" Modus
aktivieren könnte. Vermutlich kann man das auch, indem man ihn aus der Konsole startet.
Genau weiß ich das aber nicht. Aber klar, optimal ist das so nicht.

Mit deinem Hinweis zu Windows liegst du leider falsch. Es gibt genügend oft den Fall, dass
eine Windows Installation fehlschlägt und sich nicht fortsetzen lässt. Oftmals sind das dann
sogar reproduzierbare Fehler, sprich Windows ist nicht installierbar.

Jedenfalls ist die Installation von Windows nicht so unproplematisch wie du das kennst.

Übrigens, wenn es funktioniert (wenn!), dann ist die Installation von (K)ubuntu sogar deutlich
einfacher als die von Windows (meine Meinung).

Lediglich die Vielfalt an Software wird einen am Anfang vermutlich erschlagen, aber man muss
ja nicht alles gleich installieren.
 
hmmm
also irgendwie scheint es mir das ich komischerweise andere linux distris benutze als alle anderen hier.

bei mir läuft das irgendwie so ab:
cd einlegen--> installer starten , auf dem gleichen pc nebenher im websurfen--> ein paar einstellungen tätigen (partitionierung, zeit, sprache etc)--> warten und immernoch im websurfen --> neustart , fertig--> Ergebnis : Volleingerichtetes System mit allen wichtigen Programmen --> Anpassungen vornehmen (evt. Nvidia-blob und codecs)--> fertig

(außer Gentoo , LFS , und andere src -based distris)

das ist echt nicht sooooo schwer. Außerdem finde ich es klasse nebenher im web surfen zu können.
Naja aber jetzt mal wieder ernsthaft:

MS und Softwarebundeling:
Es geht um Kartelle bzw. Marktbeherschende Stellung , nicht darum ob der WMP gut oder schlecht ist, es geht darum, dass MS als Plattformanbieter (bzw. Netzbetreiber --> s Netzökonomie) anderen Anbietern ermöglicht auf dieser Plattform Geschäfte zu machen.
Außerdem würde MS sich selbst bevorzugen wenn sie mit ihrem BS andere MS Software ausliefern würden. Dieses Bundeling wäre Wettbewerbsverzerrung und somit sehr schlecht für die Volkswirtschaft. Ökonomisch gesehen müsste MS in 3 verschiedene Gesellschaften zerschlagen werden (s. AT&T) um die Innovationsgeschwindigkeit zu erhöhen und übertriebene Monopolrenten (und somit geringere Konsumentenrenten) zu verhindern, weil das alles ziemlich schädlich für die Volkswirtschaft und natürlich auch für den Verbraucher ist.
Jedoch gibt es je nach Situation in der Netzökonomie verschiede Optimalitätsbedingungen für Monopole / Standardisierungsentscheidungen (Kompatibilität / Inkompatibilität) , die jedoch hier den Rahmen sprengen würden.

2. MS-Dos kenntnisse bringen für linux überhauptnix , ok manche Befehle sind evt. ähnlich, aber die Bash mit Dos zu vergleichen ist wie BASIC mit C++ (oder einer richtigen hochsprache) zu vergleichen.

3. CLI vs. GUI

Beide Konzepte haben ihre Stärken und Schwächen. Jedoch ist es imho einfacher jemand anderem etwas zu erklären indem man CLI benutzt anstelle "jetzt oben rechts , dritter reiter , im 2 kasten , das häkchen setzten)
auch ist das CLI Konzept nicht so angestaubt wie viele hier meinen, sogar MS hat ja mit der PowerShell etwas in diese Richtung unternommen.
Natürlich sind GUIs unerlässlich und sind auch wichtig und sollten auch weiter entwickelt werden. U.a. bin ich gespannt auf die Möglichkeiten , die evt. eine "echte" 3D GUI bieten könnte, die aktuellen 3d Desktops gehen ja in die Richtung, evt. wird man da noch das eine oder andere interessante sehen können.



4. Bringt der offene Quellcode was ?

Naja je nach dem. für den Dau sicherlich nicht, aber sogar er profitiert davon, wenn jemand einen fehler findet und fixt, dann kommt der in den upstream und irgendwann (beim nächsten release)wieder beim normalen user an. (s. z.B. interview mit dell über die linux strategie)
Für mich bietet Linux die Möglichkeit fehler zu erkennen und diesen ,aufgrund der logs, auf den Grund zu gehen und ggf. zu lösen. Meistens findet man mit diesen Informationen in Netz eine Lösung, andere Probleme sind natürlich manchmal schwieriger zu lösen. Jedoch kann man immernoch einen Bugreport schreiben und so dem Projekt helfen.
Im allgemeinen fühle ich mich mit FOSS auf der sicheren Seite und ich lern auch einiges hinzu.
Bei CSS ist das so meistens nicht möglich.


Ist Linux reif für den Desktop / Massenmarkt ?

Ja , für die meisten Aufgaben absolut . Auch wird der Desktop immer unwichtiger, da viele sachen ins Netz ausgelagert werden.
Spiele sind natürlich so eine Sache,
Ich persönlich würde auch den Spielern zu Linux zum arbeiten raten, ein dual boot ist schnell eingerichtet. zum arbeiten linux und zum spielen windows ( wenn die spiele nicht auf linux laufen)
Bevor jemand wieder schreibt :"Photoshop / AutoCad/ 3dMax etc funktioniert aber nicht"

bitte erst überlegen ob ihr die software wirklich braucht und ob ihr sie auch legal erworben habt.
Ist nicht böse gemeint , aber soviele Photoshop experten wie es angebelich in allen Foren hat , kann es doch gar nicht geben , oder ? ;-)

cu
idontknow
 
Die Installation während einer Live-CD-Sitzung ist überhaupt die netteste Idee. Wird hoffentlich auch irgendwann mal zum Standard. Echtzeithilfe! Ich schätze aber mal, dass das Live-OS nicht ordentlich laufen wird wenn die Installation schon fehlschlägt - und umgekehrt.
Kann sich MS für das nächste OS abschauen! ;) Windows Vienna ... wir lieben dich! :P

Dual-Boot-Systeme saugen! Gerade wenn du mal 1-2 Ründchen neben deiner Mammut-Arbeit zoggen willst. Linux ist main-stream-gaming-untauglich und dual-booten unbequem. Emotional gesehen, ist auf meinen Rechnern - zumindest auf nativer Ebene - nur Platz für ein OS. Wenn ich da alleine schon an das Sharing von Nutzerdaten denke ... *bah*
 
Zurück
Oben Unten