24 Juli 2011

Alureon und das pinke Netbook


Ich hatte bis vor kurzem ein pinkes Netbook in Pflege, welches in einer Boot-Schleife festhing. Es handelte sich dabei um ein Acer Aspire One D250. Diese kleinen Zeitgenossen werden ja bekanntlich, wie es heutzutage üblich ist, nur mit einer Recovery-Partition anstatt Installationsmedien ausgeliefert. Bei Netbooks ist dies mangels optischen Laufwerken allerdings auch sinnvoll.

Sei es wie es sei, diese Recovery-Partition macht eine Wiederherstellung nicht unbedingt einfacher, vor allem dann nicht, wenn man sie nicht gestartet bekommt (ALT+F10 ging nicht) und keine Recovery-DVDs gebrannt wurden. Ich fange aber besser mal ganz am Anfang an.

Das Netbook verhielt sich beim Starten so, dass es beim Bootvorgang einen Bluescreen produzierte und danach sofort neu startete. Dies war auf die Standardkonfiguration von Windows zurückzuführen, die das System automatisch neu startet, wenn es ein Problem gibt. Wieso dies die Standardeinstellung ist, ist mir schleierhaft, so kann ein Bluescreen zumindest manchmal einen Anhaltspunkt geben, wo das Problem liegt.

Meine Vermutung war, dass das Netbook mit einem Virus infiziert war, welcher den Fehler verursacht. Also bestand mein erster Versuch darin, mit Desinfec't die Festplatte zu säubern. Dies scheiterte grandios, wobei ich nicht herausgefunden habe, wieso. Ich vermutete irgendwelche Fehler im Dateisystem.

Bei Windows-Systemen hat sich bei mir eine gewisse Routine eingeprägt, mit denen man derartigen Problemen beikommt. Hier wurde die Schwierigkeit allerdings durch die Recovery-Partition und die Anforderung diese zu erhalten, verschärft. Der erste Punkt der Routine sieht vor, zunächst Windows "drüberzubügeln" um solche von mir vermuteten Dateisystemfehler und ähnliches zu beseitigen. Die Recovery-Partition ist für sowas leider nicht geeignet (warum eigentlich nicht?). Aber da sie ja eh nicht startete, musste ich mich einer Windows XP Home CD bedienen, die ich zufällig noch parat hatte. Mit ihrer Hilfe gelang es mir den Prozess des "Drüberbügelns" mehr oder weniger erfolgreich zu beenden. Das System war nicht mehr in einer Boot-Schleife gefangen und startete.

Es lief aber alles andere als stabil und zwei der drei installierten Virenscanner meldeten ständig irgendwelche Funde. Ich habe es daraufhin nochmal mit Desinfec't versucht und war erfolgreich. Die BitDefender-Engine fand über 80(!) infizierte Dateien mit fast genausovielen unterschiedlichen Schädlingen. Bei sowas frage ich mich immer wieder, wie schafft man sowas? Ein Virus, ok, aber so viele. Naja, ich habe dem Programm aufgetragen alle infizierten Dateien zu löschen und das System neu gestartet. Wie ich erwartet hatte, lief es noch instabiler, aber keines der Anti-Viren-Programme meldete noch ein Problem.

Ich ging davon aus, dass ich die Instabilitäten durch ein erneutes "Drüberbügeln" beseitigen kann und habe dies auch versucht. Leider ohne den erhofften Erfolg. Mir blieb nun nichts anderes übrig. Ich wollte den Auslieferungszustand wieder herstellen, indem ich die Recovery-Partition starte oder eine Recovery-DVD auftreibe. Letzteres hat leider nicht geklappt, also habe ich mich auf ersteres konzentriert.

Ein bootfähiger USB-Stick (mit Recovery-Partition) war meine erste Idee, die allerdings grandios scheiterte. Die zweite Idee stammte von einem Freund. Er meinte, ich solle mal versuchen die Partition mit einem externen Boot-Manager zu starten. UBCD gebootet und Super Grub Disk gestartet. Nach ein wenig hin und her hat die Partition dann gestartet und ich konnte die Wiederherstellung des Auslieferungszustandes initiieren. Ich dachte ich hätte den Laptop jetzt endgültig repariert. Aber wie es so oft ist, trog der Schein, aber das ist mir erst nach einer Weile bewusst geworden.

Das erste Anzeichen, bei dem ich stutzig wurde, war die Tatsache, dass Windows-Update nicht funktionierte. Ich schob das zunächst auf die Microsoft-Server und dachte mir nichts weiter dabei. Ich bezog die Updates von anderer Quelle und richtete das Netbook weiter ein. Ich installierte auch Avira Antivir (als einzigen Virenscanner) und damit fingen die richtigen Probleme erst an. Dies hatte aber nichts mit dem Scanner zu tun, sondern mit dem was er fand. Er zeigte mir einen Virus der Alureon-Familie an (die genaue Bezeichnung weiß ich nicht mehr). Dieser befand sich im MBR und konnte von Avira nicht entfernt werden. Das Programm sagte mir nur, dass er dort ist, bot mir aber keinerlei Hilfestellung an.

Nun wusste ich wo ich dran war. Der Schädling hat sich im MBR eingenistet und der Recovery-Vorgang überlebt, da dieser lediglich die Partition C: berührte, nicht aber den MBR (da sollte Acer dringend mal nachbessern). Nach ein wenig herumgegoogle habe ich dann herausgefunden, dass man einen MBR-Virus am besten eliminiert, indem man den MBR überschreibt (da hätte ich auch so drauf kommen können :-) ).

Eine Möglichkeit den MBR zu überschreiben bietet die Rettungskonsole einer XP Installations-CD. Diese habe ich gestartet und mit "fixmbr" den MBR neu geschrieben. Danach habe ich (ohne Windows vorher zu starten) die Recovery-Partition mit Grub gestartet und noch eine Wiederherstellung gemacht.

Danach war Ruhe im Karton. ALT+F10 klappt wieder und Avira funktioniert auch ohne zu Murren und ohne Funde. So ein MBR-Virus ist schon übel, zumindest wenn man nicht damit rechnet. Ich habe mittlerweile sogar herausgefunden, dass Alureon höchstwahrscheinlich für den anfänglichen Bluescreen verantwortlich war (das war die Geschichte mit der veränderten Speicheradresse).

17 Dezember 2010

Dampfmaschine

Heute möchte ich endlich mal einen Beitrag zu einem Thema schreiben, was mich nun schon seit mehreren Wochen bewegt. Ich habe ja bereits in meinem vorletzten Beitrag darüber geschrieben, was man eigentlich erwirbt, wenn man für digitale Güter Geld ausgibt. Dieses Thema möchte ich nun nochmal aufgreifen.

Jeder (zumindest jeder ernsthafte "Zocker") kennt den Dienst "Steam" der Firma "Valve". Bevor ich nun anfange diesen Dienst in der Luft zu zerreißen kritisch zu hinterfragen, werde ich erstmal beschreiben, was Steam überhaupt ist, und welche Vorteile es bietet.

Steam ist ein System, mit dem es möglich ist, Computerspiele zu erwerben und zu spielen. Die Spiele auf Steam sind in der Regel nicht mehr an ein Speichermedium gebunden, sondern werden aus dem Internet herunter geladen. Um den Service zu nutzen muss die Steam-Software auf dem Rechner installiert werden. Darüber hinaus muss man sich bei Steam einen Account einrichten. Die Spiele werden über die Steam-Software gekauft und auch gestartet.
Darüber hinaus ist Steam auch eine Online-Community, auf der man andere Spieler in einer Freundesliste verwalten kann, mit ihnen chatten kann und natürlich auch mit ihnen Spielen kann.

Die Vorteile von Steam sind auf den ersten Blick recht beachtlich:
  • Man kann Computerspiele auf beliebig vielen Rechnern installieren, da über den Account sicher gestellt wird, dass ein Nutzer das Spiel nur auf einem System gleichzeitig starten kann.
  • Man ist nicht mehr an ein Installationsmedium gebunden, welches kaputt gehen oder geklaut werden kann. Hat man ein Spiel einmal gekauft, kann man es beliebig oft herunter laden und neu installieren. Die Eingabe von Seriennummern ist dabei überflüssig, da die Lizenz automatisch an den Account gebunden ist.
  • Steam versorgt die Spieler automatisch mit den neuesten Patches. Damit ist sichergestellt, dass jeder Spieler zu jeder Zeit immer mit den aktuellsten Versionen spielt. Das nervige manuelle herunterladen und installieren von Patches entfällt.
  • Steam bietet einen Markt für preiswerte Spiele, die vom Umfang her eines Vollpreis-Spieles nicht würdig wären. Darüber hinaus bietet Steam ältere Spiele zu unschlagbar günstigen Preisen an. Bei Steam gibt es sehr häufig Spielepakete bei denen man viel Geld sparen kann (im Vergleich zu den Einzelpreisen). Manchmal bietet Steam sogar Neuerscheinungen zu günstigeren Preisen an, als die Äquivalente Retail-Version.
  • Die eingebaute Community-Funktion erlaubt es leichter Spieler für Multiplayer-Spiele zu finden, aber auch ganz einfach während eines Spiels mit anderen Mitspielern zu chatten. Steam erlaubt es auch, dass Lizenzen für andere Steam-Mitglieder gekauft werden können.
  • Die Steam-Software bietet einen einheitlichen Server-Browser, um für Multiplayer-Spiele einen passenden Server zu finden.


Die oben genannten Vorteile sind mit großer Sicherheit der Grund, wieso Steam mehrere Millionen Nutzer zählt (von denen derzeit mehrere Millionen online sind).

Die Nachteile von Steam sind allerdings weniger offensichtlich. Im Gegensatz zu Spielen, die man im Handel erwirbt, kann man Steam-Spiele nicht verleihen oder weiterverkaufen, wenn man sie durchgespielt hat oder aus sonstigen Gründen nicht mehr spielen möchte. Das mag auf den ersten Blick zwar nichtig und trivial erscheinen, aber bei Spielen, die das gleiche kosten, wie ein Spiel im Geschäft, welches ohne Steam lauffähig ist, stellt dies doch einen beachtlichen Unterschied dar, welche sich in einem geringeren Preis niederschlagen sollten.

Es sollte möglich sein Steam-Lizenzen für begrenzte Zeit an andere weiterzugeben, um das "Verleihen an einen Freund" zu simulieren. Desweiteren sollte es möglich sein eine Lizenz dauerhaft an einen anderen Account zu übertragen, um sowas wie einen "Gebrauchthandel" zu ermöglichen. Letzteres könnte Valve gegen eine (prozentuale) Gebühr ermöglichen, was ihnen zusätzlichen Profit verschaffen würde. Sie könnten sogar soweit gehen, einen "Gebrauchtspielhandel" in ihr Netzwerk zu integrieren.

Der zweite Nachteil ist weniger offensichtlich. Sollte die Firma Valve mal pleite gehen, oder aus irgend einem anderen Grund den Service nicht mehr weiterführen können oder wollen, gucken Millionen Spieler in die Röhre, weil es keine Verpflichtung seitens Valve gibt, die Spieler mit Versionen der Spiele zu versorgen, die ohne die Steam-Software funktionieren. Dies kann man auch den AGBs entnehmen, wenn man sich die Mühe macht sie zu lesen. Richtig übel wird es dann, wenn Steam sich dazu entschließt, Zugänge zu sperren. In diesem Fall gehen nämlich alle erworbenen Rechte an den Spielen mit dem Account verloren und das Geld für die Spiele ebenso.

Spätestens an diesem letzten Punkt sollte man erkennen, das ein bei Steam "gekauftes" Spiel eigentlich ein "auf unbestimmte Zeit gemietetes" Spiel ist. Wenn man sich damit abfindet, und sein Vertrauen in diese Firma setzt, kann sich getrost dort anmelden und die Spiele mieten und Spaß damit haben. Ich werde es nicht tun, weil ich dieses Vertrauen nicht habe (und Steam unter Linux nicht (zuverlässig) läuft).

14 Februar 2010

Das Unmögliche möglich machen

Ich bin ja mittlerweile bekannt dafür, dass ich gerne ungewöhnliche Dinge ausprobiere. Manche davon sind abgedreht, andere schlicht unmöglich. Manchmal jedoch stellen sich Dinge, die eigentlich unmöglich erscheinen als besser durchführbar heraus, als man denkt. So geschehen letzte Woche, als ich eine Festplatte ausgetauscht hatte.

Meine alte IDE-Platte (120G) hat irgendwie einen Ausfall angekündigt. Zumindest befand sich darauf ein ext3-System, welches sich zwar noch mounten und glücklicherweise auslesen ließ, aber ein fsck konnte man damit nicht mehr machen. Schlimmer noch, es stellte die Übertragungsrate von UDMA5 über viele Zwischenschritte herunter auf PIO0 und gab dann ganz auf. Für mich ein ganz klares Zeichen den Inhalt der Festplatte zu sichern und durch eine andere zu ersetzen. Dummerweise befand sich auf dieser Festplatte die Hauptboot-Partition für Windows (nicht zu verwechseln mit Laufwerk C, aber dazu später mehr). Daneben war da noch eine Open-Suse installation und besagte ext3-Partition mit Daten einer Home-Partition einer älteren Linux-Installation. Quasi Daten, die ich noch nicht neu einsortiert hatte.

Meine zweite Festplatte (500G) enthielt zu diesem Zeitpunkt folgende Partitionen: 1GB swap für Linux, eine Partition für die Windows-Installation (~50G mit Windows 7), eine Partition "/home" für Linux und eine Partition für die eigenen Dateien unter Windows.

Jetzt musste ich überlegen, wie ich das mit der neuen Festplatte mache. Ich wollte mir erstmal eine bestellen. Die Wahl fiel zuerst auf eine 750 GB-Platte von Western Digital. Aber ich habe mich vorerst gegen die Neuanschaffung einer Festpatte entschieden, da ich soviel Speicherplatz derzeit nicht benötige (ich habe noch eine externe 500G-Platte). Daher habe ich mich nach sinnvollen Alternativen umgesehen und mich dafür entschieden, mir auf lange Sicht ein Solid State Drive (SSD) zuzulegen. Dummerweise muss ich dafür erstmal etwas sparen (80 GB für 200 Euro). Nun ja, eine Zwischenlösung muss trotzdem erstmal her, und ich habe in meinem Gerümpel noch eine 60 GB Platte gefunden (2.5" SATA aus der Playstation3). In Anbetracht der gewünschten 80G für den SSD eine gute Zwischenlösung.

Um mir bei der Einrichtung der SSD später Ärger zu ersparen, habe ich mich dazu entschieden, die Partitionen so zu verteilen, wie sie dann auch mit der SSD verteilt werden sollen. Um die maximale Leistung aus einer SSD herauszuholen, sollte man dafür sorgen, dass sie möglichst wenig schreiben muss, aber dafür viel lesen. Also, liegt die Verwendung als Boot-Platte nahe, auf der dann auch die Programme installiert werden. Die Persönlichen Daten müssen dann auf die 500G Festplatte (wo sie ja schon sind :-) ). Aber halt, da fehlt noch was. Die Windows-Partition muss ebenfalls auf die SSD .... also erstmal auf die 60G Platte. Aber zunächst gilt es die wichtigen Partitionen der 120G-Platte auf die 60G-Platte zu kopieren. Gestern machte man das mit dd, aber heute gibt es ein noch besseres Tool dafür: gparted (okay, das gabs gestern auch schon, aber da wusste ich noch nicht, dass man damit auch Partitionen kopieren kann). Also 500G-Platte abgeklemmt, 60G-Platte angeklemmt, System Rescue CD gebootet und gparted gestartet. Dann erstmal die Windows Boot-Partition kopiert, gefolgt von der Open-Suse-Partition (da ist auch der Grub drauf gewesen). Bevor ich mich an die eigentliche Windows-Partition gemacht habe, habe ich erstmal getestet ob das System auch von der 60G-Platte booten kann. Also Grub auf der neuen Platte installieren, ausschalten, 120G-Platte abklemmen, 500G-Platte anklemmen und booten.

Ergebnis: Windows hat gebootet, Open-Suse nicht. Bei Open-Suse lag es augenscheinlich daran, dass es in der /etc/fstab nicht mit /dev/sdX auf die Partitionen verwiesen hat, sondern über die Datenträgernamen gegangen ist (nichtmal über die IDs). Ich hab die entsprechenden Einträge geändert, aber es hat trotzdem nicht geklappt. Vermutlich wurde das noch irgendwo anders referenziert, aber ich hatte irgendwie keine Lust nachzugucken, da ich das Open-Suse ohnehin durch ein Ubuntu ersetzen wollte.

Der nächste relevante Schritt war also die Windows-Partition zu kopieren und dann zum booten zu bringen. Ersteres war nicht schwer, letzteres dafür umso mehr. Manchen, denen ich davon erzählt habe, hielten es für unmöglich und meinten, ich müsste Windows neu installieren. Naja, ich habe mich auf jeden Fall nicht entmutigen lassen. Also wieder gparted gestartet. Dummerweise war die Partition zu groß um sie einfach zu kopieren, also musste ich sie erstmal verkleinern. Für gparted glücklicherweise ein Kinderspiel. Sicherheitshalber habe ich Windows nochmal gebootet und den NTFS-check gemacht, bevor ich mich ans Kopieren gewagt hatte.

Nachdem ich (diesmal mit dd) ein Backup-Image der Windows-Partition gezogen hatte, habe ich wieder gparted gestartet und die Partition erstmal kopiert. Ein Neustart hat natürlich erstmal die alte Partition auf der 500G-Platte gebootet. Ich habe erstmal herumgegoogelt, ob ich irgendwie das Boot-Verhalten von Windows auf eine andere Partition lenken kann. Dummerweise hat das einzige Tool, was dazu in der Lage gewesen wäre (bcdedit) mir den Dienst verwehrt. Also habe ich etwas ganz verrücktes ausprobiert.

Zunächst habe ich den Rechner herunter gefahren und die 500G-Platte vom System getrennt. Dann habe ich erstmal ganz normal gebootet um zu sehen, was passiert. Was dann geschah hat mich überrascht. Nein, es hat natürlich nicht gebootet, aber es kam die erste Microsoft-Fehlermeldung, die wirklich das Problem beschrieben hat und eine Sinnvolle Lösung vorschlug. Da stand nämlich sinngemäß drin, dass Windows nicht gestartet werden kann, da auf einen Datenträger nicht zugegriffen werden kann. Ich solle doch bitte mal die Setup-DVD starten und eine Computerreparatur versuchen. Gesagt getan, Die Boot-DVD herausgesucht, und das Windows7-Setup gestartet. Nach kurzer Suche bin ich fündig geworden. Ich habe die automatische Computerreparatur gestartet. Das Programm hat irgendeine Magic gemacht. Ich kann nur vermuten, was da passiert ist, aber es wird wohl erkannt haben, dass sich eine Windows-Installation auf der zweiten Partition der Festplatte befindet. Diese hat er dann irgendwie in die Boot-Konfiguration eingetragen und den alten Verweis gelöscht. Das Ergebnis war jedenfalls ein gebootetes Windows (was sich beim Starten beschwerte, dass keine Auslagerungsdatei gefunden wurde, die hatte ich auf die 500G-Platte verschoben).

Jetzt galt es nur noch die alte Partition von der 500G-Platte zu löschen und das System war fast so verteilt, wie es sein sollte. Ich habe jetzt sowohl Linux, als auch Windows auf der 60G-Platte drauf und kann jetzt seelenruhig darauf warten, mir ein SSD zu kaufen. Dann ne Image-Kopie (mit dd) und ich kann sie einfach verwenden ;-) )

Ich hätte niemals gedacht, dass es möglich ist mit Windows-Partitionen so zu jonglieren, und dann noch hauptsächlich mit Linux-Werkzeugen. Ich war auf jeden Fall sehr erstaunt, überrascht und natürlich erfreut. Jetzt kann das SSD kommen!

06 August 2009

Geld gegen Ware?


Was kaufen wir eigentlich, wenn wir Geld ausgeben? Für gewöhnlich ist es ganz einfach. Ich gehe in ein Geschäft, suche mir ein Produkt aus, gehe damit an die Kasse, lege mein Geld hin und danach gehört das, was ich mir ausgesucht habe mir. Dieser einfache Vorgang ist heutzutage leider nicht mehr ganz so eindeutig, wenn das Produkt eine Musik-CD, eine Video-DVD oder gar ein Stück Software ist. Um das klar zu machen, fange ich mal ganz von Vorne an.

Wenn ich mir in der Bäckerei ein Brot kaufe, was darf ich danach damit machen? Ich darf es eigentlich nutzen, wie ich will, z.B. essen, verschenken, wegwerfen, sogar weiterverkaufen.

Wie sieht es mit einem Gebrauchsgegenstand aus, sagen wir einer Waschmaschine? Ich darf Wäsche damit waschen, das ist klar. Das darf ich solange sie nicht kaputt ist, auch klar. Ich darf sie weiterverkaufen (z.B. wenn ich eine neue haben möchte). Wenn ich die Waschmaschine für irgendetwas anderes verwenden möchte, dann darf ich das auch, da sie MIR gehört. Es kann mich z.B. niemand daran hindern einen Ventilator draus zu bauen (nicht dass ich das wollen würde ;-) ). Wenn ich sowas mache verliere ich lediglich die Garantie des Herstellers. Wenn ich mich damit auskenne, kann ich mir auch anschauen, wie die Waschmaschine konstruiert ist, die nötigen Bauteile kaufen und eine neue bauen und diese selber nutzen. Verkaufen dürfte ich diese Eigenkreation höchstwahrscheinlich nicht, da der Hersteller möglicherweise irgendwelche Patente im Gerät angewendet haben. Benutzen dürfte ich es aber, da ich dieses Ding selber gebaut habe.

Interessant wird es jetzt wenn ich mich den virtuellen Gütern widme. Was erwerbe ich, wenn ich mir eine Musik-CD oder eine Video-DVD kaufe? Zum einen erwerbe ich den physischen Datenträger, das ist klar. Aber was ist mit der Musik oder dem Film? Diese Dinge werden mir nicht gehören, so gerne ich das vielleicht auch hätte. Ich erwerbe mit so einem "Bildtonträger" das Recht mir die darauf enthaltenen Medien so oft anzusehen oder anzuhören, wie es mir beliebt. Dummerweise ist dieses Recht an die Existenz des Mediums gebunden. Sobald sich dieses Medium nicht mehr in meinem Besitz befindet oder kaputt ist, erlischt automatisch dieses Recht.

Aber halt, es handelt sich hierbei doch um digitale Medien. Digital bedeutet doch, dass man die Information verlustfrei duplizieren kann. Also, wieso gehe ich nicht hin und fertige mir digitale Kopien der Medien an, um dem Verlust der Datenträger vorzubeugen?

Bei den meisten Musik-CDs geht das noch ohne Probleme und ist sogar erlaubt. Bei Video-DVDs und einigen Musik-CDs sieht das aber ganz anders aus. Diese sind mit einem sogenannten "Kopierschutz" versehen, der es unmöglich machen soll Kopien der Datenträger anzufertigen. Von den Nebenwirkungen mal abgesehen (viele betroffene Musik-CDs lassen sich nicht überall abspielen), fühle ich mich als Verbraucher entmündigt. Wenn mir nämlich jetzt eine Video-DVD kaputt geht (sowas ist schnell passiert), dann kriege ich höchstwahrscheinlich keinen Ersatz. Ich könnte natürlich hingehen und versuchen den Kopierschutz zu umgehen, aber damit würde ich mich strafbar machen. Wenn ich mir Nutzungsrechte an Medien kaufe, dann hätte ich gerne mehr Rechte was ich damit machen darf. Ich will nicht auf die Datenträger beschränkt sein, die ich kaufe. Ich möchte meine Musik vielleicht zusätzlich auf einem MP3-Player abspielen. Einige meiner Videos hätte ich vielleicht gerne in einem komprimierten Format auf einem Medienserver, damit ich nicht immer die DVD aus dem Regal suchen muss. Bei Musik ist das mittlerweile mehr oder weniger problemlos möglich, aber bei den Filmen nicht ohne sich strafbar zu machen.

Wie sieht es denn bei Software aus? Wenn ich jetzt in einen "Geiz-" oder "Blödmarkt" gehe, mir eine beliebige Software aus dem Regal greife, weiß ich an der Kasse nie genau, was genau ich da eigentlich erwerbe. Ich beziehe mich hier nicht auf das was ich damit machen KANN, sondern auf das, was ich damit machen DARF. Bei Software kann der Hersteller per EULA dem Benutzer so einiges aufdiktieren. Die bekannteste Einschränkung dürfte die Tatsache sein, dass man das Produkt nur auf einem System installieren darf. Was ist denn, wenn ich neben meinem Rechner einen Laptop habe und das Produkt auf beiden Systemen einsetzen möchte? Richtig, ich muss es mir nochmal kaufen. Richtig böse wird es, wenn der Hersteller einem vorschreibt, wofür man das Produkt verwenden darf. Z.B. darf Microsoft Office Home and Student nicht für gewerbliche Zwecke eingesetzt werden (obwohl es das ganz normale Office ist). Anders als bei der Waschmaschine darf ich auch keinen Ventilator daraus bauen. Ich darf Software nicht auseinander nehmen, verändern oder ergänzen (das darf ich nur mit freier Software, aber die steht hier nicht zur Diskussion).

Ganz besonders interessant bei dieser Diskussion ist aber, welche Rechte erwirbt man, wenn es kein Medium gibt? Bei Software ändert sich nicht viel, die ist bereits durch EULAs hinreichend beschnitten. Bei Musik sieht das anders aus (ich weiß das das mittlerweile nicht mehr ganz so schlimm ist). Wenn ich mir in einem Online Musikladen, der nicht aus Rußland stammt, Musik kaufe und es sich um kein MP3 handelt, dann kann ich diese Musik höchstwahrscheinlich nicht so einsetzen, wie ich das vielleicht gerne würde, weil sie mit DRM versehen ist. Es kann sein, dass das Lied nur auf dem Rechner läuft auf dem es runtergeladen wurde. Was ist, wenn das Betriebssystem mal kaputt geht oder man mit seinen Daten auf einen anderen Rechner umziehen möchte? Man kann die Lieder möglicherweise nur begrenzt oft kopieren und das nur auf Geräte, die dieses DRM auch unterstützen. Manchmal darf man zwar das Lied auf eine CD brennen, mit deren Hilfe man es in ein DRM-freies Format konvertieren könnte, aber darunter leidet leider die Qualität.

Bei Musik ist DRM mittlerweile out, aber bei Videos gerade im Kommen. Microsoft bietet auf der XBox360 einen Videomarktplatz an. Dort kann man Videos kaufen. Kaufen bedeutet hier aber, dass man sie nur auf der XBox abpsielen kann (also nichts mit Medienserver). Wenn diese kaputt geht kann man die Videos mit seiner Kennung kostenlos erneut auf eine andere XBox laden. Die Videos sind an die Kennung gekoppelt. Interessant ist der Verleih von Filmen über diese Plattform. Lädt man sich solch ein Video herunter, hat man 14 Tage lang Zeit es zu gucken. Sobald man aber das erste mal auf Play gedrückt hat, verringert sich diese Zeit auf ein paar Stunden (damit man es ja nicht mehr als einmal gucken kann). Ich bleibe da lieber bei der Videothek. Da kann ich selber entscheiden, wann ich den Film zurück bringe und muss nicht Stundenlang auf den Download warten und es ist auch noch billiger.

Richtig unverschämt kann es bei Software in Kombination mit DRM aussehen. Ich möchte erstmal mit dem Positivbeispiel anfangen und bleibe dafür mal auf der XBox. Dort können sogenannte Arcade-Spiele gegen virtuelles Geld gekauft werden. Diese sind, wie auch die Videos, an eine Kennung gekoppelt. Ist die Kennung nicht vorhanden, können diese Spiele nur als Demo gespielt werden. Anders sieht es hier bei Nintendo aus. Auf der Wii und auf dem neuen DSi kann man auch Spiele online kaufen. Diese sind aber nicht an eine Kennung gebunden, sondern an das Gerät. Das bedeutet, wenn das Gerät kaputt geht oder gestohlen wird, sind auch die Spiele weg.

Als letztes möchte ich mich um dem Wiederverkauf von virtuellen Gütern widmen. Bei der Waschmaschine ist es einfach, ich verkaufe sie und gut ist. Bei Video-DVDs ist es auch einfach, ich verkaufe die Filme, die ich nicht mehr haben möchte. Da ich ja keine Kopien machen durfte, gibt es keine Probleme. Wie ist es bei Musik-CDs? Ich kann und darf sie verkaufen. Aber Kopien davon darf ich nicht behalten und muss sie vernichten oder mit verkaufen. Bei Software ist es komplizierter. Laut Gesetz darf man generell Softwarelizenzen privat weiterverkaufen. Bei einigen Programmen ist das aber trotzdem nicht möglich (z.B. Online-Spiele). Spannend wird es bei Download-Spielen auf der Wii oder der XBox. Diese können nicht weiterverkauft werden. Auf der Wii ist das zwar möglich, aber dafür muss die ganze Konsole verkauft werden.

01 Mai 2009

Das blaue Wunder

Ich habe mir vor ein paar Wochen den neuen Nintendo DSi zugelegt. Ich wollte mir ohnehin einen neuen kaufen, da der Touchscreen meines alten DS lite mittlerweile nicht mehr richtig reagiert. Da ich zur Zeit in den USA bin dachte ich mir, dass ich die Gelegenheit nutzen sollte um den blauen DSi zu kaufen, den es in Deutschland nicht gibt. Ich hatte mich vorher informiert wie es um die technischen Details bestellt ist und war angenehm überrascht zu erfahren dass der DSi endlich auch WPA-Verschlüsselung für WLAN-Verbindungen bietet. Das Fehlen dieses Features hat mich beim DS schon immer sehr geärgert. Ein weiterer Vorteil war der kostenlose Browser, der in der Modul-Version für den alten DS(lite) über 40 Euro kostet. Der neue DSi hat einen eingebauten SD-Slot aber keinen Gameboy Advanced Schacht mehr. Letzteres stört mich eigentlich nicht besonders, da ich nie GBA auf dem DS gespielt hatte. Die A und B Knöpfe sind dort nämlich komisch angeordnet und man kann die Belegung nicht verändern.

Die größte Neuerung sind wohl die beiden neuen VGA Kameras. Sie erlauben Schnappschüsse und man kann die gemachten Bilder auch direkt am DSi bearbeiten. Eine der Kameras ist auf der Rückseite des DSi und die andere im Inneren. Letztere ist dafür da um Aufnahmen von sich selbst zu machen. Ein lustiges aber sinnloses Feature. Für alle Voyeure sei aber eine Warnung ausgesprochen. Die Kamera lässt sich nicht leise stellen. Selbst ein eingesteckter Kopfhörer hilft nicht. Sie haben dafür sogar den mechanischen Schiebewiderstand durch zwei Knöpfe ersetzt um die Lautstärke ausschließlich über die Software zu regeln.

Der DSi kann über das Mikrofon die Stimme aufzeichnen und auch verändern. Das gleiche ist auch mit Musikdateien möglich. Ich weiß leider nicht welche Dateiformate unterstützt werden, aber ich fürchte MP3 ist nicht dabei. Einen Musikplayer gibt es (noch) nicht.

Ein weiteres neues Feature ist der Spielemarktplatz, den man auch schon von der Wii kennt. Die Punktekarten sind kompatibel, aber obwohl man sowohl die Wii als auch den DSi mit einem Club Nintendo Account koppeln kann, können die Punkte untereinander nicht ausgetauscht werden. Es kommt noch schlimmer. Genau wie bei der Wii sind die Punkte nicht an die Person oder an den Account gebunden, sondern an die Hardware. Das bedeutet wenn Hardware kaputt/geklaut => verbleibende Punkte weg und das Recht auf wiederholten Download der bereits gekauften Spiele weg.

Überrascht war ich, als ich erfuhr dass der DSi einen Regionalcode besitzt. Das bedeutet mit meinem DSi werde ich nur amerikanische DSi-Spiele spielen können. Normale DS Spiele sind davon nicht betroffen. Ich hoffe mal dass ich von Deutschland aus auf den amerikanischen Spielemarktplatz zugreifen kann, sonst bringt mir diese neue Feature recht wenig. In Zeiten der Globalisierung sollte so etwas doch eigentlich der Vergangenheit angehören. Der Regionalcode hat auch zur Folge dass ich z.B. Deutsch nicht als Systemsprache einstellen kann. Da der DS(i) anhand der Systemsprache die Spielsprache festlegt, werde ich wohl in Zukunft Mehrsprachige Spiele auf Englisch spielen müssen. Nicht das mich das stört, aber ich hätte schon gerne die Wahl gehabt.

Der SD-Slot wird zum Speichern von Bildern, Audiodateien und Download-Spielen benutzt. Leider können Spiele nicht von der SD-Karte aus gestartet werden, sondern, wie bei der Wii, nur ausgelagert werden.

Bis auf den Regionalcode sieht es ja ganz gut aus mit dem Ding, aber der größte Hammer kommt jetzt. Ich erwähnte ja bereits dass der DSi jetzt endlich WPA kann. Das kann er auch, aber nur für DSi Inhalte. Das bedeutet im Moment nur den Webbrowser, den Shop und die Downloadspiele, die über Online-Funktionen verfügen. Ich verstehe einfach nicht wieso die das bei Nintendo nicht hinkriegen. Sie haben beim alten DS einen Designfehler gemacht und auf die Unterstützung von WPA verzichtet. Damit kann ich leben, wir alle machen Fehler. Dieser Designfehler scheint aber größer zu sein als ich zunächst angenommen habe. Mir ist vorher schon aufgefallen dass man im Hauptmenü des alten DS keine WLAN-Einstellungen machen kann. Das geht nur in Spielen die dies auch nutzen. Gespeichert werden die WLAN-Daten allerdings im internen Speicher des alten DS. Der neue DSi besitzt den Menüpunkt für WLAN-Einstellungen. Man kann, wie auch zuvor, 3 Verbindungen einrichten, die nur WEP können. Will man WPA muss man die erweiterten Einstellungen einrichten. Diese bieten dann 3 weitere Verbindungen, die auch WPA beherrschen. Allerdings können diese nicht von alten Spielen genutzt werden. Ich bin davon überzeugt dass es theoretisch möglich ist eine Anfrage eines alten Spieles auf die Ressource "WLAN" transparent zum neuen WLAN-Treiber (mir fällt grade kein anderes Wort ein) weiterzuleiten. Aus softwartechnischer Sicht ist das einfach nur ein Murks-Design, welches sich jetzt nur noch schwer verbessern lässt. Ich kann nur hoffen dass sich die Designer um einen Workaround bemühen und irgendwann ein Firmware Update zur Verfügung stellen welches diese Schwäche beseitigt.

Dieser Mangel ist für mich so schwerwiegend, dass ich es fast bereue mir den DSi gekauft zu haben. Aber eben nur fast, da er in seinem blauen Design immer noch schöner aussieht als alle Modelle die vorher erschienen sind. Wer kein blaues Wunder erleben will sollte sich allerdings zweimal überlegen ob er sich einen DSi zulegt oder nicht.

16 Dezember 2007

Kleines Programm, große Wirkung


Bildquelle: Karikatur, Cartoon und Witze

Ich möchte heute unter anderem über das Programm dd berichten. Doch zuvor muss ich euch wohl erstmal kurz auf den neuesten Stand bringen.

Ich habe mir mittlerweile einen neuen Desktop-Rechner zugelegt, den ich nicht behr mit Gentoo, sondern mit Kubuntu betreibe. Das habe ich deswegen gemacht, weil Kubuntu einfach nicht so viel Wartungsaufwand erfordert, es läuft einfach (naja fast, manchmal muss man schon ein wenig Hand anlegen).

Der Rechner ist ein AMD Athlon64 X2 4200+, also ein Quantensprung im Vergleich zu meinem alten Duron 800 ;-) Ich habe mir dafür ein neues Board, und neues RAM kaufen müssen, wobei ich die Festplatten aus dem alten Rechner übernommen habe. Mittlerweile habe ich mir noch eine neue Grafikkarte und ein neues Gehäuse zugelegt, aber das soll jetzt nicht das Thema sein.

Meine Festplattenkonfiguration sah so aus, dass ich eine 120 GB-Platte mit Linux hatte und eine 30GB-Platte mit Windows. Die 120er war die erste (hda) und die 30er, die zweite (hdb). Die Platten waren noch aus der "alten Zeit" und daher keine SATA, sondern IDE-Platten. Leider bot das neue Board nur einen IDE-Kanal, also musste ich mir, da mein DVD-Laufwerke logischerweise auch über IDE läuft, einen IDE-Controller einbauen.

Das DVD-Laufwerk habe ich an den eingebauten Controller angeschlossen, und die Platten an den OnBoard-Controller. Dummerweise hatte der Onboard-Controller die Angewohnheit, nach einem Warmstart das DVD-Laufwerk nicht mehr zu erkennen. Das war für mich (unter anderem) die Motivation, mir eine neue Feltplatte schenken zu lassen (allerdings keine, die ein Spanferkel enthält ;-)).

Seit gestern bin ich im Besitz einer 500GB großen leisen Samsung-SATA-Platte. Das Problem, was sich mir stellte war, dass ich die Daten der 30er-Platte "irgendwietm" auf die neue schaufeln musste. Ich bin davon ausgegangen, dass ich um eine Neuinstallation von Windows nicht herumkommen werde. Da ich sowas immer als letze Möglichkeit sehe, habe ich zuerst etwas anderes ausprobieren wollen.

Ich habe also die neue Platte an den ersten SATA-Port angeschlossen, die alte zusammen mit dem DVD-Laufwerk an den internen IDE-Kanal und die alte 30er Platte an den eingebauten IDE-Controller. Die neue Platte heisst jetzt "sda", die 120er am internen Kanal "hda" und die 30er am Contorller heisst "sdb" (Linux bezeichnet wohl nur interne Ide-Platten mit hdx).

Die erste Möglichkeit, die mir einfiel, war

sudo dd if=/dev/sdb of=/dev/sda

Dieser Vorgang kopiert alles, was in der "Datei" /dev/sdb gespeichert ist, Byte für Byte in die "Datei" /dev/sda . Da beide "Dateien" Device-Nodes für Festplatten sind, wurde bei diesem Vorgang jedes Byte auf unterster Ebene (also auch inklusive Formatierung, Partitionstabelle und allen Partitionen inklusive den Dateisystemen und natürlich den Daten) von der alten Platte, auf die neue kopiert.

Nachdem ich ein paar Einträge in der /etc/fstab geändert hatte und (zur Sicherheit) einen Neustart gemacht habe, konnet ich die Partitionen auf der neuen Platte mounten. Soweit, so gut, das schlimmste, was mir jetzt noch hätte passieren können, wäre eine Windows-Reparaturinstallation gewesen (drüberinstallieren). Ich bin aber ein experimentierfreudiger Mensch, und habe einfach mal einen Neustart gemacht und im Grub-Menü den Eintrag "Windows-XP" gewählt. Ich traute meinen Augen nicht, als Windows ohne zu murren einfach hochgefahren ist. Er wollte nur nen Neustart wegen der neuen Festplatte und des reaktivierten SATA-Controllers machen, aber es lief "einfach so".

Als ich dann nochmal genauer drüber nachgedacht habe, wurde mir klar, warum. Die 120er-Platte ist nach, wie vor, die erste Platte des Rechners, da sie diegenige ist, die gebootet wird. Windows verlangt auf dieser ersten Platte die erste Partition als Boot-Partition zu haben. Darüber hatte ich mich bei der Intallation von Windows damals sehr aufgeregt, aber in diesem Fall hat diese Eigenart mich vor einer Neuintallation bewahrt.

Der dd-Befehl hat dafür gesorgt, dass die Partitionen in Ordnung sind, und Windows sieht die neue Platte automatisch als zweite Platte an. Zugegeben, es war jetzt etwas Glück bei der ganzen Sache dabei, aber ich bin äußerst angenehm überrascht gewesen. Manchmal haben gewisse Eigenarten von Windows auch nützliche Seiteneffekte.

03 März 2007

Einfach anders schreiben

Es ist schon ein Phänomen, dass sich in unserer Welt oft Dinge als Standard durchsetzen, obwohl es bessere Alternativen dazu gibt. Nein ich will diesmal nicht auf Windows und Linux herumreiten, diesmal will ich über Tastaturlayouts schreiben.

Jeder kennt es, viele hassen es, aber alle schreiben damit, das QUERTZ-Layout, oder besser gesagt das deutsche Standard-Tastatur-Layout. Dieses Layout basiert auf dem amerikanischen QUERTY-Layout und wurde ursprünglich für Schreibmaschinen entworfen. Ziel war es, die Typen bei alten Schreibmaschinen nicht verkeilen zu lassen, um so den Schreibfluß nicht zu behindern. Ob das wirklich der Grund war, warum die Tasten so angeordnet wurden, darüber streiten sich die Gelehrten. Wer es mal genau nachlesen will ist bei Wikipedia besser aufgehoben. Fakt ist jedoch, dass wir eigentlich nicht mehr an die physikalischen Grenzen von Typen in Schreibmaschinen gebunden sind, aber dennoch benutzen wir dieses Layout tagtäglich, ohne uns darüber Gedanken zu machen, dass das doch auch anders gehen müsste.

Glücklicherweise gab es (und gibt es immer noch) Leute, die das für uns gemacht haben, einer davon hieß August Dvorak. Er erfand in den 1930er Jahren das Dvorak-Layout, welches in den englischsprachigen Regionen zumindest an einigen Stellen Verwendung findet. Wer über die Entstehung und das Scheitern von Dvoraks Layout nachlesen möchte, den verweise ich wieder auf Wikipedia. Wie schon erwähnt, ist dieses Layout kaum akzeptiert, aber es ist nicht von der Hand zu weisen, dass es besser ist. Das Geheimnis bei diesem Layout liegt darin, dass die Buchstaben, die man am häufigsten benötigt, auf die Grundlinie gelegt wurden(mittlere Buchstabenreihe). Die Tasten wurden so angeordnet, dass die häufigeren Buchstaben leichter zu erreichen sind, als die, die man nicht so oft benötigt. Ein weiteres Merkmal ist, dass die Tasten so angeordnet wurden, dass beide Hände fast immer abwechselnd tippen können. Dadurch wird erreicht, dass die Hände gleichmäßig ausgelastet werden. Ein angenehmer Nebeneffekt ist, dass sich auch die Tippgeschwindigkeit erhöht. Da man weniger Knoten in den Fingern bekommt, reduziert sich auch die Anzahl der Tippfehler (theoretisch).

Das ist zwar alles schön und gut, aber leider ist das originale Dvorak-Layout auf die englische Sprache optimiert, und deswegen für Deutsche uninteressant. Die Idee die Buchstaben optimiert anzuordnen wird aber trotzdem dadurch nicht schlechter, weswegen es mittlerweile (schon etwas länger) eine deutsche Variante dieses Layouts gibt. Ich weiss jetzt leider nicht, wer den ersten Entwurf entwickelt hat, aber es gibt mittlerweile eine Optimierung, die als "Deutsches Dvorak-Layout Typ II" bekannt ist.

Ich bin darauf aufmerksam geworden, als ich in unserer Uni-Newsgroup einen Beitrag eines Kommilitonen gelesen habe, in dem er beiläufig erwähnte, dass er seine Notebook-Tastatur auf dieses Layout umgestöpselt hatte. Ich bin neugierig geworden und habe mir einige Seiten zu diesem Thema angeguckt. Nachdem ich festgestellt hatte, das das Kubuntu, was ich mittserweise auf meinem Notebook installiert habe, dieses Layout unterstützt, habe ich einige erste Versuche unternommen damit zu schreiben. Ich empfand es als sehr interessant und habe mich mittlerweile komplett umgestellt. Ich habe meine Notebook-Tastatur mit Aufklebern überklebt und mir für meinen Desktop-Rechner eine billige USB-Tastatur umgestöpselt.

Ich habe nach ca 2 Wochen meine alte Geschwindigkeit wieder drauf gehabt, nur mit dem Unterschied, dass ich das neue Layout mit dem 10-Finger-System schreibe, und es fast blind kann (da arbeite ich noch dran). Die Umstellung ist leichter, als man denkt, wenn man das Layout das erste mal sieht. Ich kann nur jedem empfehlen, der noch nicht blind schreiben kann, sich dieses Layout mal näher anzusehen, es ist wirklich sehr angenehm damit zu schreiben, und es reduziert die Tippfehler deutlich (produziert aber auch lustige neue). Der einzige Nachteil dürfte sein, dass man nach einer Umstellung auf normalen Tastaturen nicht mehr so schnell schreiben kann (auf der eigenen dafür um so mehr).

Links:

Analyse des Layouts (Text auf Englisch, aber sehr interessant)
Deutsches Dvorak Typ II für:
Linux
Mac
Windows

06 November 2006

W-Lan? Aber sicher (doch)!

Jeder will es haben, aber kaum einer weiss, wie man es wirklich gut absichert. In den Medien hört und liest man ja in sehr vielen Schauergeschichten, was "Hacker" mit einem Notebook vor der Haustür, so alles anstellen können.
Sie können ins lokale Netzwerk einsehen und eventuell auf die persönlichen Daten zugreifen. Sie können über die Leitung des W-Lan-Besitzers surfen, was ja zu Zeiten von DSL-Flatrates ja nicht mehr so dass Problem wäre, aber da der Besitzer des Anschlusses für die über ihn gesendeten Daten verantwortlich ist, muss er haften, wenn damit Schindluder getrieben wird.

Glücklicherweise sind die Zeiten vorbei, in denen W-Lan-Geräte mit einem unverschlüsselten Standart-Setup versehen wurden, aber dennoch sollte man sich Gedanken darüber machen, wie man sein W-Lan am besten absichert.
Das kabellose Netzwerk mit einem starken Schlüssel zu versehen ist schonmal ein sehr guter Anfang und sollte die meissten Möchtegern-Hacker davon abhalten, das Netzwerk anzuzapfen, aber manchmal ist es leider nicht möglich die bestmögliche Verschlüsselung zu wählen, da es einige Geräte im Netzwerk gibt, die das nicht unterstützen. Es gibt glücklicherweise, neben der Verschlüsselung, noch einige andere Steine, die man einem Angreifer in den Weg legen kann, um ihm das Surfvergnügen gehörig zu verderben. Ich möchte an Hand meines eigenen W-Lans, welches ich dieses Wochenende eingerichtet habe, erleutern, wie man das bewerkstelligen kann.

Die jetzige W-Lan-Karte meines Notebooks und der Nintendo DS können beide leider keine WPA-Verschlüsselung, die eigentlich die stärkste ist, die man derzeit nehmen kann. Schlimmer noch, die Notebook-Karte kann nur 64-Bit-WEP-Schlüssel verwenden, was es einem potentiellen Angreifer noch leichter macht ins Netzwerk einzubrechen. Deswegen habe ich mir ein Konzept überlegt, mit dem ich es dem Angreifer auf andere Weise erschwere ins W-Lan einzubrechen.

Der erste Stein ist die Unterdrückung der SSID. Damit ein Angreifer auf mein Netzwerk zugreifen kann, muss er erstmal wissen, wie es heisst. Normalerweise wird diese Information einfach so gesendet, aber nahezu alle Router bzw. Access-Points sollten in der Lage sein dies zu unterbinden.

Der zweite Stein ist die Verschlüsselung selbst, die in meinem Fall etwas dürftig ausfällt. Lediglich eine 64-Bit WEP-Verschlüsselung habe ich aktiviert, die zwar besser ist, als gar nichts, aber dennoch für spezielle Programme innerhalb weniger Minuten geknackt sein sollte.

Der dritte Stein ist der Mac-Adressen-Filter. Von allen Netzwerk-Geräten (sowohl kabelgebundene, als auch die W-Lan Geräte) die in meinem Netzwerk sind, habe ich auf meinem Router die Mac-Adresse registriert, zu allen anderen Mac-Adressen verweigert der Router die Verbindung! Beim Mac-Filter sollte man sehr vorsichtig sein, weil man sich bei einer falschen Konfiguration schnell selber aussperrt. Es ist dem Angreifer zwar möglich seine Mac-Adresse zu verändern, aber dazu muss er erstmal eine meiner Mac-Adressen kennen.

Diese drei Steine sind zwar nicht unüberwindbar, aber ich habe dafür gesorgt, dass ein potentieller Hacker, wenn er sie denn überwinden sollte, trotzdem nicht unbedingt Freude haben wird. Der Grund ist Stein Nummer 4. Ich habe die Firewall des Routers so eingestellt, dass nur speziellen IPs im LAN eine Internet-Verbindung gestattet werden darf. Alle anderen werden blockiert.

Das bedeutet, dass ein Angreifer zusätzlich noch eine IP raten muss, um wirklich eine Internetverbindung zu erhalten.

Zusätzlich könnte man jetzt z.B. den WEP-Schlüssel öfter mal ändern, die SSID öfter mal ändern und das W-LAN nur dann aktivieren, wenn es wirklich benötigt wird.
100%tigen Schutz bietet das alles natürlich nicht, aber wenn ich mich in die Lage eines Surf-Hungrigen Hacker versetze, würde ich mir ein leichteres Ziel aussuchen, derer es leider (oder zum Glück) viel zu viele gibt. In meiner Nachbarschaft hat z.B. jemand bis vor kurzem ein unverschlüsseltes W-Lan betrieben.

26 August 2006

Wie man einer Schnecke Beine macht

Ihr fragt euch jetzt sicher, warum ich hier jetzt über Schnecken schreibe, aber ich spreche natürlich von meinem neu erworbenen Notebook. Bereits beim Einrichten ist mir aufgefallen, dass es sehr langsam läuft. Ich habe mir die /proc/cpuinfo anzeigen lassen und gesehen, dass der Prozessor auf 300 MHz läuft. Ich habe mir aber am Anfang nichts weiter dabei gedacht, weil ich davon ausgegangen bin, dass Speedstep falsch eingerichtet ist und habe das Problem auf später verschoben. Nachdem ich Speedstep eingerichtet hatte, zeigte mir die /proc/cpuinfo ganz brav die 1200 MHz an. Ich dachte, dass nun alles im Lot wäre. Das wars aber nicht!

Bei genauerer Betrachtung der /proc/cpuinfo, stellte ich fest, dass der bogomips-Wert bei ca. 580 lag. Mein Desktop-Rechner (ein Duron 800) hat 1700. Ich habe zunächst ein Benchmark-Tool ausprobiert, welches die genaue MHz-Zahl berechnen kann (das tool "mhz" aus dem Paket "lmbench"). Es hat mir knapp 300 MHz berechnet, obwohl /proc/couinfo was anderes sagte. Ich habe daraufhin Speedstep erstmal wieder ausgeschaltet, weil er beim runtertakten nicht auf 800 runter ist, sondern auf 200.

Hier ging jetzt die Sucherei nach der Ursache los. Meine Vermutung war zuerst, dass der Prozessor kaputt war. Darauf deutete auf jeden Fall die Tatsache hin, dass mir das Bios falsche Werte angezeigt hat. Ein Freund von mir meinte, der Prozessor könnte gefälscht sein. Ich hatte auch noch eine andere mögliche Erklärung: der Front Side Bus ist zu niedrig getaktet. Ich habe mich schweren Herzens dazu entschieden meine swap-Partitionen für eine Windows2000-Installation frei zu machen, damit ich diverse Tools ausprobieren konnte. Ich startete das Tool "cpu-z", welches in der Lage ist sehr viele Informationen über den Prozessor anzuzeigen. Dieses Tool zeigte mir nicht nur die 300 MHz an, sondern auch den FSB, der nicht auf 133 MHz getaktet war, sondern auf 33 MHz. Der Multiplikator von 9 würde bei 133 MHz die gewünschten 1,2 GHz liefern. Also ging es jetzt drum, wie bringe ich meinem Motherboard bei, dass es schneller laufen soll?
Ich habe zwei Tools ausfindig gemacht, die das im laufenden Betrieb, unabhängig vom Bios, bewerkstelligen können. Das eine heißt SoftFSB und das andere ClockGen. Da ich nicht wusste, welchen PLL (so heißt der Taktgeber) ich auf meinem Motherboard hatte, musste ich etwas rumprobieren. Nach zahlreichen Reboots, weil das System mehrmals eingefroren war, habe ich aufgegeben und mich zunächst an Dell gewendet.

Ich hab also da angerufen und bin mit dem Techniker dort alles nochmal durchgegangen. Wir kamen zu dem Ergebnis, dass auf dem Motherboard irgendetwas nicht in Ordnung ist und es ausgetauscht werden muss. Ich wusste, dass ich es nicht bei Dell kaufen werde (die amerikanische Firma, bei der ich das CD-Rom-Laufwerk gekauft hatte, hat die Dinger günstig im Angebot), habe mir aber trotzdem ein Angebot schicken lassen. Ich bat darum, dass ich nur das Motherboard haben möchte, aber keinen Einbau. Der letzte Teil dieser Information fiel wohl irgendwo unter den Tisch. Ich bekam nach 4 Tagen ein Angebot für einen vor Ort-Service (Motherboard + Einbau). Die wollen sage und schreibe 1200 Euro dafür haben!!! Naja, ich hab denen ne Mail geschrieben, dass ich mir dafür ein neues Notebook kaufen kann und es abgelehnt.

Am selben Tag, als ich mit Dell telefonierte, habe ich auch bei der amerikanischen Firma angerufen. Erstaund von mir selbst, wie flüssig ich doch Englisch sprechen kann, habe ich mich nach dem Gespräch dazu entschlossen das Motherboard und auch noch ein neues Unterteil zu bestellen (bei letzterem fehlte ein Gummifuß und die 15$ fielen dann auch nicht mehr ins Gewicht).

Gestern kam der ganze Spaß dann hier an, und nachdem ich dem Postboten den Zoll bezahlt hatte, bin ich ans Basteln gegangen. Nach ca. 2 Stunden hatte ich mein neues neues Notebook zusammengeschraubt (ich kann jetzt guten Gewissens dranschreiben "Assembled in Germany"). Das Problem war, es ging nicht mehr an! Ich war stinksauer. Die ganze Fummelarbeit für nix! Ich wollte nochmal in Amerika anrufen, aber das war noch zu früh. Also bin ich den ganzen Tag mit ner miesen Laune durch die Gegend gelaufen und habe gewartet, bis ich endlich dort anrufen konnte.
Der Techniker in Amerika meinte nur, dass ich möglicherweise den Arbeitsspeicher falsch eingebaut habe. Ich musste das Notebook nochmal halb auseinander bauen, habe die Riegel vertauscht und das ganze wieder zusammen gesetzt.

Und? ES LÄUFT!!!! Nein: ES RENNT!!!!

Also wenn man über einen Monat mit 300 MHz gearbeitet hat, dann ist es eine Wohltat auf 1200 MHz umzusteigen! Ich habe jetzt zwar mehr Geld bezahlt, als geplant war, aber dafür funktioniert die Kiste jetzt! Ich bin um einige Erfahrungen reicher geworden. Ich werde nie wieder irgendwas derartiges gebraucht bei Ebay kaufen, und wenn das Angebot noch so verlockend ist. Ich werde nie wieder den Fehler machen mir Honig ums Maul schmieren zu lassen, und ich werde teure Sachen nie wieder ohne Garantie oder Gewährleistung kaufen.
Außerdem kann ich jetzt wunderbar Dell Latitudes C400 auseinander bauen und wieder zusammen setzen! Also, wenn irgendjemand sowas zum reparieren hat, hierher, wo der Finger leuchtet ;-)))

08 Juli 2006

Mein eigener Laptop

Lange habe ich auf diesen Moment gewartet und jetzt konnte ich es endlich wahr machen! Ich habe mir meinen eigenen Laptop bestellt. Es ist zwar nur ein Pentium III mit 1,2 GHz, aber für mein Studium sollte er genau richtig sein!

Das Modell ist ein Latitude C400 von Dell. Es handelt sich hierbei um ein leichtes Subnotebook (12,1" Display), welches seinerzeit als eines der kleinsten der Welt galt. Noch ist dieses faszinierende Gerät zwar nicht bei mir angekommen, aber ich rechne quasi jeden Tag damit.

Bestellt habe ich es bei einem Ebay-Händler, der Laptops normalerweise (nicht bei eBay) verleast. Das Gerät stammt also aus einem Leasing-Vertrag und dürfte sich in einem dementsprechend guten Zustand befinden. Der Anbieter hat eines der besten Angebote für dieses Modell, weil es mit 40 GB Festplatte und 512 MB RAM daher kommt. Andere Anbieter haben nur 20 GB Platte und 256 MB RAM. Der einzige Nachteil ist das fehlende externe optische Laufwerk, welches ich aber in Amerika am gleichen Tag seperat bestellt habe.

Ich plane auf jeden Fall Gentoo-Linux als alleiniges Betriebssystem auf diesem Rechner einzusetzen. Wie ich es installiere hängt davon ab, ob das Laufwerk rechtzeitig da ist, oder nicht. Sollte es nicht der Fall sein, werde ich eine Netzwerk-Installation wagen müssen, weil das Gerät laut diverser Internet-Foren, nicht in der Lage ist von einem USB-Stick zu booten.
Ich werde auf jeden Fall in diesem Blog beschreiben, wie ich was gemacht habe.

Bis es soweit ist, bewundert doch bitte weiter das Foto meines letzten Beitrags ;-)

24 Juni 2006

Die Invasion hat begonnen, wir müssen was tun

Das Linux Windows technisch in vielen Bereichen weit überlegen ist, dass habe ich ja jetzt mehrfach beschrieben. Aber trotz allem gibt es einige wenige, aber entscheidende Punkte, die die Windows-Welt davon abhält Linux zumindest mal zu probieren. In meinem Beitrag Teufelskreis habe ich ja schon einiges darüber geschrieben.

Sobal Vista auf dem Markt ist und damit DRM und Trusted Computing der Standard wird (was sich ja glücklicherweise durch Microsofts eigene Unfähigkeit verzögert hat), werden die Leute "wach" werden, dann könnte es allerdings schon zu spät sein! Microsoft will uns mit Vista die Administrationsrechte unserer Hardware entziehen! Wir sollen dann bedingungslos akzeptieren, wovon Microsoft denkt, das es gut für uns ist. Ich würde und werde mir das niemals vorgeben lassen und spätestens bei Vista wäre bei mir entgültig Schluß mit Windows gewesen. Ich bin davon überzeugt, das viele, sobald sie "wach" geworden sind auch dieser Meinung sein werden. Sobald dieser Tag gekommen ist, werden sie nach einer Alternative schreien und wir als Linux-Community haben dann die Gelegenheit ihnen eine Alternative zu bieten, die Windows in allen Bereichen überlegen ist. Bis es aber soweit ist muss Linux noch um einige Features erweitert werden!

Das größte Manko für die meißten sind die Spiele. Hier benötigen wir eine Schnittstelle, die in der Lage ist Direct-X ohne große Emulationsverluste unter Linux darzustellen. Damit wäre es für Spieleentwickler sehr leicht Spiele zu entwickeln, die sowohl unter Windows, als auch unter Linux laufen und Linux-Anwender könnten ohne Probleme Windows-Spiele einfach unter Linux spielen. Ein, leider kostenflichtiges, Programm vermag dies heute schon eingeschränkt zu leisten: cedega

Das nächste große Manko ist die Hardware-Unterstützung. Es wäre schön, wenn es für den Linux-Kernel eine Schnittstelle gäbe, die mit Windows-Treibern zurecht käme. Dann könnten viele Produkte unter Linux verwendet werden, die bisher nur unter Windows liefen und die Hersteller bräuchten sich nicht darum zu kümmern. Das beste Beispiel sind hierfür die Canon-Drucker der neueren Generation (Pixma). Für den NTFS-write-Support ist sowas, soweit ich weiß, schonmal gemacht worden (allerdings mit schlechter Performance)

Der Windows-User von heute erwartet für jedes Problem, was er lösen will eine grafische Oberfläche. Mittlerweile gibt es für Linux sehr viele grafische Frontends zu Kommandozeilen-Programmen, die sich wirklich sehen lassen können, aber in einigen Bereichen muss noch einiges passieren! Bestes Beispiel ist das DVD-Authoring. Das beste Programm, was mir jetzt spontan einfällt (und was ich auch benutze) ist Q-DVD-Author. Es ist zwar sehr gut, aber es kann mit Windows-Software, mit der man eigene DVDs erstellen kann, nicht mithalten.

Linux braucht einen DVD-Player, der eine offizielle Lizenz zum Abspielen hat, damit sich nicht jeder, der unter Linux DVDs guckt strafbar macht. Es müsste sich hierfür irgendein Hersteller finden, der seinen Windows-DVD-Player unter Linux anbietet (in diesem Fall kostenpflichtig).

Zu guter letzt muss Wine bzw. Crossover-Office noch um einiges verbessert werden, damit auch exotische Software problemlos emuliert werden kann.

Sobald diese Probleme, die ja leider nicht gerade klein sind, behoben werden können, ist Linux aber immer noch nicht reif um auf unerfahrene Benutzer losgelassen zu werden. Es müsste eine Distribution geben, die extra für solche Benutzer gemacht ist. Diese Distribution soll die Wahlfreiheit der Benutzer stark einschränken und ein einheitliches Desktop mit einem einheitlichen Look and Feel erzeugen. Die Distribution soll dem Ein- bzw. Umsteiger als Linux-Starthilfe dienen, in der er sich noch nicht so viel mit den Innereien des Betriebssystems auseinandersetzen muss, sondern, wie bei Windows, einfach drauf los arbeiten kann. Sobald der Nutzer sich gut genug zurecht findet, soll er die Möglichkeit haben seine eingeschränkte Distribution zu erweitern um die volle Stärke des "großen Bruders" zu nutzen. Als großer Bruder ist wahrscheinlich Debian am besten geeignet. Ich kann mich erinnern, dass Lothar vor geraumer Zeit eine Distribution vorgestellt hat, die vermutlich bereits sowas ähnliches leistet, ich weiss aber nicht mehr genau, welche das war.

Zu guter Letzt möchte ich noch sagen, dass jeder über die Gefahren von Trusted Computing nachdenken sollte. Wollt ihr Euch wirklich vorschreiben lassen, was gut für Euch ist und was nicht? Ich glaube es liegt in der menschlichen Natur an diesem Punkt zu rebellieren. Wenn Ihr soweit seid: Linux is waiting for you!

19 Juni 2006

Pakete verwalten

Ich habe schon sehr oft gelesen, dass Linux unter anderem deswegen nicht den Weg aufs Desktop findet, weil die Installation von neuer Software sehr kompliziert wäre. Auf den ersten Blick ist sie das auch, aber wenn man genauer hinsieht, verbirgt sich unter der "Kompliziertheit" ein genial ausgeklügeltes System, welches sicher stellt, dass bei der Installation von Programm A auch alle anderen Programme installliert werden, die für den Betrieb von A erforderlich sind.

Zunächst möchte ich aber auf die chaotischen Zustände von Windows eingehen. Ein Windows-System hat den Anspruch sehr benutzerfreudlich zu sein und eben den Benutzer nicht mit unnötigen System-Details zu belasten. Neben vielen Dingen, die ich früher schon beschrieben habe, gehört dazu auch die Möglichkeit Software "einfach so" zu installieren. So schön dies auf den ersten Blick auch ist, so furchtbar ist es, wenn man es sich genauer ansieht. Die Setup-Programme dürfen quasi machen, was sie wollen. Sie dürfen für alle Benutzer funktionieren, nur für den aktuellen Benutzer, oder aber nur für den Administrator. Letzteres ist natürlich sehr schlecht, wenn man die Software als eingeschränkter Benutzer verwenden möchte. Windows stellt zwar eine Funktion zur verfügung, die zumindest scheinbar in der Lage ist, installierte Programme zu entfernen. Es handelt sich hierbei aber lediglich um eine Darstellung von Programmen, die sich in die Registrierungsdatenbank eingetragen haben, mit einem Link auf das Programm, welches die Software weieder entfernen kann oder es ermöglicht zusätzliche Funktionen nachzuinstallieren. Die Programme können sich in diese Datenbank eintragen, müssen es aber nicht (wie es manche Windows-Updates zum Teil auch nicht machen). Möchte man nun ein spezielles Programm installieren, dann muss man zusätzlich wissen, welche anderen Programme erforderlich sind, damit es funktioniert.

Ein triviales Beispiel wäre ein Plugin für ein Programm, wobei das Programm nicht installiert ist. Gute Programme haben die Abhängigkeitsbehandlung in der Installationsroutine für das Plugin eingebaut. Es wird bei der Installation geprüft, ob die Software installiert ist, oder nicht. Wie das funktioniert, und welche Bedingungen erfüllt sein müssen um zu entscheiden, ob ein Programm installiert ist, oder nicht, ist nicht klar und auch nirgendwo einheitlich definiert. Schlecht programmierte Plugin-Installer scuhen entweder garnicht nach der benötigten Software oder finden sie nicht, obwohl sie installiert ist.

Ganz anders sieht es hier bei Linux aus. Jede Distribution teilt die Software, die installiert werden kann, in mehr oder weniger große Pakete ein und benutzt einen sogenannten Paketverwalter, um die Abhängigkeiten der Pakete zueinander zu ermitteln. Möchte ich jetzt z.B. Gimp installieren, kommt es, auch wenn ich nur mit KDE arbeite, nicht ohne die Gnome-Kernbibliotheken und die GTK-Bibliotheken aus. Einem unerfahrenen Benutzer kann man aber nicht zumuten das zu wissen, und genau hier faltet der Paketverwalter einen Teil seiner Stärke aus. Er prüft, welche Pakete erforderlich sind, um Gimp laufen zu lassen, prüft, welche davon schon installiert sind (das merkt sich der Paketverwalter selbstverständlich auch immer) und installiert die fehlenden Pakete automatisch mit (sinnvollerweise bevor das eigentliche Paket installiert wird). Die meißten Paketverwalter sind auch in der Lage, bei der Deinstallation eines Pakets, alle Pakete die davon abhängig sind automatisch mit zu deinstallieren. Wenn ich jetzt z.B. die Gnome-Kernbibliotheken lösche und Gimp installiert habe, wird Gimp auch deinstalliert.
Der gängiste Paketverwalter ist RPM. Er wurde ursprünglich von Red-Hat benutzt und wird heutzutage auch von vielen anderen Distributionen verwendet. Der Paketmanager von Debian heißt "APT" und wird von allen Debian-basierenden Systemen verwendet (unter anderem Knoppix). Diese beiden Systeme beherrschen die von mir beschriebene Funktionsweise sehr vorbildlich.
Der Paket-Verwalter von Gentoo ("portage") setzt da aber noch einen drauf! Gentoo zeichnet sich durch seine enorme Anpassungsfähigkeit aus. Alle Programme werden aus den Quelltexten übersetzt und somit gibt es theoretisch die Möglichkeit Programmteile, die auf nicht erwünschten Programmen basieren, einfach weg zu lassen, und somit indirekten Einfluss auf die Abhängigkeiten auszuüben. Praktisch umgesetzt wird dies durch die sogenannte "USE-Variable". Hier kann der Benutzer (möglichst bei der Erstinstallation) genau angeben, welche Features die Programme haben sollen, und welche nicht. Möchte ich ein reines KDE-System haben, dann setzte ich in der Use-Variable einfach "USE=... -gnome +kde ..." und alle Pakete, die sowohl eine KDE, als auch eine Gnome-Unterstützung bieten, werden nur mit der KDE-Unterstützung kompiliert. Die resultierenden Programme (Binaries) werden so sehr viel kompakter als bei den "herkömmlichen" Distributionen. Kleinere Binaries bedeuten auch eine schnellere Ausführung, woher Gentoo übrigens seinen Namen hat (Gentoo = schnelle Pinguin-Art).

Einer der Hauptvorteile der Paketverwalter ist die Fähigkeit das System mit nur einem einzigen Befehl auf den neuesten Stand zu bringen (bei Gentoo braucht man zwei). Es wird für jedes Paket geprüft, ob ein Update verfügbar ist, und alle veralteten Programme werden automatisch aktualisiert. Eine solche Funktionalität sucht man bei Windows vergeblich und es wird sie auch nie dort geben (wenn man mal vom Windows-Update absieht, welches aber nur für Windows, aber nicht für die Anwendungsprogramme funktioniert)!

Alle Paketverwalter haben allerdings einen Nachteil wenn es um die Installation von Software geht, die nicht in der Datenbank der installierbaren Pakete steht. Aber bei allen gibt es die Möglichkeit die Datenbanken zu manipulieren und somit auch Software zu installieren, die nicht in der Distribution enthalten sind. Möchte man das nicht, kann man die Software auch "direkt" installieren, verliert aber damit die Vorteile der Paketverwaltung.

25 Mai 2006

Das verrückte Notebook

Computer sind manchmal recht eigenartige Wesen, sie sollen zwar dazu da sein die Befehle ihrer Benutzer auszuführen, aber es kommt dennoch sehr häufig vor, dass sie schlimmer sind als kleine Kinder und scheinbar machen was sie wollen. Um einen Rechner zu beherrschen muss man nicht nur wissen, was man genau von ihm will (daran scheitert es meißt schon bei vielen), sondern auch, wie man ihm das "sagt".

Ich hatte vor kurzem einem Bekannten angeboten sein neues Notebook nach seinen Vorstellungen einzurichten. Was ich nicht ahnte war, dass seine Vorstellungen etwas eigenartig (aber für ihn sinnvoll) waren. Er wollte neben dem vorinstallierten Windows XP eine alte DOS-Version im Dual-Boot-Betrieb laufen lassen. Das "Installations-Medium" für die DOS-Installation waren 4 Disketteninhalte (NICHT Images) auf einer CD, die NICHT bootfähig war. Das Notebook konnte zwar von USB-Diskettenlaufwerken booten, aber ein solches hatte ich auch NICHT zur Hand. Dazu musste auch noch das Problem mit der Partitionierung gelöst werden. Letzteres ging sehr leicht mit dem Programm GParted, welches es auch als Linux-Live-CD gibt, mit der ich es dann auch gemacht habe. GParted kann sogar NTFS-Partitionen verkleinern, allerdings nur am Ende, weswegen ich auf der Festplatte am Ende eine relativ kleine FAT16 Partition angelegt hatte.

Mit einem Image einer DOS-Boot-Diskette aus dem Internet hatte ich es dann geschafft eine Bootfähige CD zu erstellen, die zumindest scheinbar das DR-Dos installiert hatte. Leider konnte die Fat16-Partition nicht gebootet werden. Ich war natürlich der Meinung, es läge an der Tatsache, dass die Partition so weit hinten lag und DOS sie nicht sehen konnte, aber ich irrte mich, was ich allerdings erst nach einer Neu-Partitionierung und Neuinstallation von Windows XP herausfand.

Das Installationsprogramm für DOS war, so wie es war, völlig unbrauchbar und ich musste mir etwas neues einfallen lassen. Ich bastelte mir aus dem Festplatten-Image meines alten 386er (hab ich hier mal vorgestellt) eine Boot-CD (diesmal mit Festplatten-Emulation) und habe die dort installierte DOS-Version manuell installiert. Jetzt gab es natürlich noch das Problem des Boot-Managers. Der Einfachheit halber wollte ich eigentlich den von Windows XP nutzen, aber der konnte mit dem extrahierten Startsektor der DOS-Partition nicht viel anfangen. Aber ein Linux-Mensch, wie ich gibt ja nicht so schnell auf ;-) Die Lösung hieß für mich ganz klar GRUB! Dieses bemerkenswerte Stück Software behauptet von sich, dass es alle Betriebssysteme starten kann und, soweit ich es beurteilen kann, zu Recht. Also nochmal mit Gparted gebootet, die DOS-Partition um einige MB verkleinert, und eine EXT2 reingehauen, Knoppix gebootet und Grub installiert. Als dann beim Reboot das Grub-Menü geladen wurde hätte ich nicht glücklicher sein können ;-)

Der Bekannte hat also jetzt ein Notebook mit DOS, Windows XP und einem Linux-Bootloader, aber kein Linux. Es klingt verrückt, aber es funktioniert. Ich habe ihm dann alerdings noch eingeimpft, dass er es tunlichst vermeiden sollte die Grub-Partition zu löschen, weil er sonst seinen Rechner nicht mehr booten könnte.

Alles in allem habe ich den Kampf "Mann gegen Notebook" knapp nach Punkten gewonnen ;-)

31 März 2006

LOS! Start(e) mich neu!

Jeder Windows-Benutzer hat einen solchen Dialog in irgendeiner Form schonmal gesehen. Windows hat eine Angewohnheit bei jedem Furz neu starten zu wollen. Ich kann mich daran erinnern, dass Windows 98 nach dem Anzeigen der Netzwerkeinstellungen, ohne etwas verändert zu haben, einen Neustart forderte. Zugegeben, es ist bei Windows XP nicht mehr so schlimm, wie bei Windows 9x, aber für einen Linux-User ist es selbst bei XP unbegreiflich, warum das System bei manchen Änderungen nach einem Reboot schreit.
Unter Linux gibt es nur eine einzige Situation, bei der ein Reboot nötig ist, und das ist ein Kernel-Update. Wenn ich mir beispielsweise einen neue Version von Apache installiere, dann starte ich nur dieses Programm neu, aber nicht das ganze System. Selbst wenn die grafische Oberfläche mal stecken bleibt, besteht immer die Möglichkeit den X-Server abzuschießen und neu zu starten. Sogar bei einem neuen Gerätetreiber muss man unter Linux das System nicht neu booten, er kann im laufenden Betrieb als Modul in den Kernel eingebunden werden.
Bei Windows sieht das ganze anders aus. Viele Programme erfordern einen Neustart, nachdem man sie installiert oder eine neuere Version installiert hat (hier ist es nicht mehr so schlimm, wie früher). Stürzt bei Windows die grafische Oberfläche ab (ja, sowas soll schonmal vorgekommen sein) muss das System neu gestartet werden, weil Windows nicht nur nicht die Oberfläche vom Konsolenmodus trennt, sondern gar keinen reinen Konsolenmodus mehr bietet. Bei neuen Gerätetreibern muss man, nach wie vor, neu starten, obwohl das eigentlich unbegreiflich ist, es müsste doch möglich sein die neuen Treiber einfach ins laufende System zu integrieren. Ein reines "Kernelupdate" wie unter Linux, gibt es bei Windows nicht, weswegen man es entweder mit einem neuen Service-Pack vergleichen müsste (obwohl hier nicht unbedingt der Kern ausgetauscht wird) oder sogar mit einem Update auf eine neue Windows-Version. Hier kann sich man allerdings glücklich schätzen, wenn man mit einem Neustart auskommt (zumindest beim kompletten Update kommt man dabei bei weitem nicht hin).
Linux-Software-Updates, außer der Kernel selbst, kommen prinzipiell, wie schon gesagt, ohne einen Reboot aus, obwohl es bei einigen Programmen durchaus einen Sinn ergibt, wenn man freiwillig neu startet (z.B. beim Gerätedateimanager udev). Hier hat man als User aber immer die Wahl, ob man das wirklich will. Selbst beim Kernel-Update zwingt einen das System nicht zum reboot. Es läuft einfach mit dem alten Kernel solange weiter, bis das System neu gestartet wird und bootet dann (hoffentlich) den neuen Kernel.
Fairerweise muss ich sagen, dass Windows-Systeme, zumindest augenscheinlich, sehr viel schneller booten, als Linux-Systeme, wobei es sicher viele Ausnahmen gibt, die mich eigentlich dazu zwingen sollten das nicht so pauschal zu sagen. Fakt ist jedoch, das ein Linux-System, nachdem man sich an der Oberfläche angemeldet hat und die Session-Daten wiederhergestellt wurden, sofort bedienbereit ist. Windows muss oft noch sehr viele Prozesse im Hintergrund starten, bevor man mit der Arbeit beginnen kann (ich habe schon erlebt, das ich über 1 Minute warten musste, bevor ich nach dem Erscheinen der Taskleiste auf Start klicken konnte).
Ich persönlich unterziehe mein Linux-System zur Zeit einem kleinen Härtetest und habe seit über 28 Tagen keinen Reboot gemacht und das wäre mit Windows, egal in welcher Version, undenkbar, weil man in 4 Wochen immer mal irgendwas macht, was das System zum Reboot zwingt und das muss noch nichtmal ein Systemabsturz sein!

20 März 2006

Digitale Epidemien

Seit es Computer gibt, gibt es Menschen, die schädliche Software programmieren. Okay, ganz so schlimm ist es nicht gewesen, die ersten Computerviren wurden erst Ende der 80er bzw. Anfang der 90er entwickelt (siehe Eintrag in Wikipedia). Die Art und die Zielsetzungen und vor allem die Verbreitungswege dieser digitalen Bedrohungen haben sich allerdings mit der Zeit geändert. In den 90ern bestand die Bedrohung aus Viren, die sich über Datenträger und über LANs verbreitet haben. Sie haben andere Dateien infiziert und Dinge mit dem Computer angestellt, die nicht im Interesse des Benutzers waren. Dies reichte von harmlosem Schabernak bis zum kompletten Datenverlust. Es gab sogar Viren, die Harware zerstören konnte (z.B. den Monitor mit extremen Signalen zur Implosion bringen). Mit der Zeit wurden PCs mit Windows (damals 95) immer beliebter und viele Leute kauften sich einen. Damit und mit der Verbreitung des Internets wurde ein gewaltiger Nährboden für Würmer, Trojaner und andere Malware geschaffen.
Würmer sind Viren insoweit überlegen, weil sie sich selbst verbreiten können (z.B. per E-mail oder durch Sicherheitslücken in Software). Sie haben ähnliche Funktionen, aber oft andere Ziele. Die meißten Würmer und Viren heutzutage sind daran interessiert sich vor dem Benutzer und vor Antiviren Software zu verbergen, sich selbst zu verbreiten und die Kontrolle über das System zu erlangen um beispielsweise DDOS-Attacken zu starten. Würmer und Viren sind nicht das Einzige, wovor vor allem Windowsbenutzer Angst haben müssen. Trojanische Pferde, die als nützliche Software getarnt sind, können unbemerkt beliebige Malware auf dem Rechner installieren. Besonders gefährlich sind Backdoors und Keylogger, weil diese Programme einem Angreifer direkte Kontrolle über das System geben bzw. die Tastatureingaben mitschreiben und somit möglicherweise geheime Daten, wie Kreditkartennummern oder Passwörter auszuspionieren.
Besonders Heimtückisch sind die sogenannten Rootkits, die es sowohl für Unix/Linux, als auch neuerdings für Windows gibt. Auf Linux-Systemen werden sie benutzt, um einem Hacker, der eine Sicherheitslücke in einer Serversoftware (z.B. einem Webserver) ausgenutzt hat um Root-Rechte zu erlangen diese auch weiterhin zu erhalten und vor dem Serveradministrator zu verbergen. Desktop-Linuxnutzer, die keine Serversoftware laufen lassen brauchen sich darüber nicht den Kopf zu zerbrechen, aber für Webmaster, die einen eigenen Server betreiben stellt dies ein sehr ernstes Problem dar.
Unter Windows sind Rootkits deswegen so gefährlich, weil man sie sich als normaler Benutzer bereits einfangen kann, wenn man sich nur eine original-CD kauft und abspielen möchte. Dies ist bei diversen Sony-CDs bereits geschehen (siehe hier). Rootkits unter Windows verstecken z.B. Gerätetreiber und Programme vor dem Benutzer und werden im Verborgenen aktiv und können nur mit erhöhtem technischem Aufwand und einem sehr großen Know-How aufgespürt werden, was den meißten Benutzern fehlen dürfte (siehe Link weiter oben, über den Sony-Vorfall). Antiviren-Software hat mit Rootkits die größten Probleme, da sie eben sehr schwer aufzuspüren sind.
Hat man eine Malware aufgespürt macht sie einem das Löschen oft nicht gerade einfach, da sie selbst dem Administrator die Zugriffsrechte entzihen können, der sie sich dann erstmal wiederbeschaffen muss um die Löschung vorzunehmen. Hinzu kommt eine der häßlichsten Windows-Eigenarten überhaupt, das Verbot des Löschens von Dateien, die in Verwendung sind! Malware, die gerade ausgeführt wird und sich nicht beenden lässt (ja auch das ist unter Windows möglich) kann nur dann gelöscht werden, wenn auf die Datei nicht zugegriffen wird. Ich habe einmal eine derartig hartnäckige Spyware entfernen müssen, die dies nur mit der Wiederherstellungskonsole auf der Setup-CD zugelassen hat, da sie selbst im abgesicherten Modus ausgeführt wurde.
Der abgedrehteste Fall, über den ich glücklicherweise nur gelesen habe, war der von einem Virus, der persönliche Daten in eine mit Passwort geschützte ZIP-Datei packt und vom Benutzer Geld erpresst um ans Passwort zu gelangen! Das Passwort ist glücklicherweise geknackt worden.
Die Hauptschuld trägt zwar Windows, aber auch die unerfahrenen Benutzer, die auf die Tricks der Entwickler hereinfallen. Zusätzlich machen über 90% (grobe Schätzung) der Anwender den Fehler und benutzen ihr System ausschließlich als Administrator (das ist übrigens Microsofts Standard-Einstellung, Komfort über Sicherheit!). Ich muss zugeben, dass ich selbst auch mal auf einen Backdoor-Trojaner hereingefallen bin und dass ich auch keinen eingeschränkten Benutzer-Account unter Windows hatte, aber damals gehörte ich auch noch zu den unerfahrenen Benutzern. Fakt ist, vor digitalen Epidemien kann und sollte man sich schützen, ein Paketfilter (besser bekannt als Firewall) und ein Anti-Virenprogramm sind Pflicht, wobei beides keinen optimalen Schutz bieten kann. Mit gesundem Menschenverstand, einem eingeschränkten Benutzerkonto und den beiden Software-Produkten sollte aber ein vernünftiger Schutz gewährleistet sein.
Ich persönlich bevorzuge allerdings den für mich besten Schutz und benutze einfach kein Windows. Das heißt nicht, das ich 100%tig geschützt bin, aber ich sehe das so, bevor sich ein Hacker die Mühe macht mein System zu hacken, wird er sich vorher an unzähligen armen Windows-Usern vergreifen, die alle ein viel einfacheres und somit verlockenderes Ziel darstellen.

14 März 2006

Teile und Herrsche

Im letzten Artikel ging es um Dateisysteme, und welche besser sind. Diesmal befasse ich mich mit der sinnvollen und effizienten Aufteilung von Festplatten. Natürlich ist vieles hiervon Geschmackssache, und ich werde den Teufel tun zu behaupten, die Lösungen, die ich jetzt vorstelle, seien optimal.
Grundsätzlich kann eine Festplatte in vier Bereiche unterschiedlicher Größe eingeteilt werden. Diese Partitionen werden auch als "primäre Partitionen" bezeichnet. Eine dieser Partitionen darf eine sogenannte "erweiterte Partition" sein. Erweiterte Partitionen können ihrerseits in beliebig viele Bereiche geteilt werden ("logische Partitionen" oder "logische Laufwerke"). Jede primäre und jede logische Partition werden unter Windows als Laufwerke angezeigt.
Der worst-case stellt eine einzige Festplatte mit nur einer Partition dar. Leider werden fast alle PCs, die heute verkauft werden mit einer riesigen Festplatte, die eine Partition enthält ausgeliefert. Da viele unerfahrene Anwender keine Neuinstallation wollen (es ist ja alles so schön eingerichtet) wird es so hingenommen. Das diese Vorgehensweise sehr ineffizient ist weiss man als Neuling einfach nicht.
Unter Windows benötigt man für gewöhnlich weniger Partitionen, als unter Linux. Bei einer Festplatte empfiehlt es sich einen kleinen Teil (je nach Größe der Festplatte 10 - 20 GB) für die erste Partition zu reservieren. Der Rest kann dann für die zweite verwendet werden. Die Auslagerungsdatei sollte man bei dieser Konstellation auf der ersten Partition belassen (keine Änderung nötig). Wer es effizienter mag, kann sich für die Auslagerungsdatei eine extra-Partition schaffen (bis 1 GB) und sie dorthin verlagern. Das hat auch den Vorteil, dass sie bei der Defragmentierung nicht im Weg ist oder selber fragmentiert. Diese Partition sollte als zweites kommen, wenn nicht sogar als erste (was aber etwas komplizierter zu bewerkstelligen wäre). Die Auslagerungsdatei sollte auf jeden Fall in ihrer Größe fixiert werden.
Bei zwei oder mehreren Platten sieht es schon anders aus. Hier bietet sich die Möglichkeit die Auslagerungsdatei auf eine Festplatte zu verlagern, auf die im Normalbetrieb weniger Zugriff erfolgt (Also nicht die Platte auf der Windows und die Programme installiert ist).
Bei Windows-Systemen ist der große Nachteil, dass es umso unübersichtlicher wird, je mehr Partitionen im Spiel sind, weil jede Partition ihren eigenen Laufwerksbuchstaben zugeteilt bekommt. Das NTFS-System bietet, wie im letzten Bericht bereits erwähnt, die Möglichkeit Partitionen in eine Verzeichnis-Struktur einzubinden. Da ich das nicht getestet habe (mir waren zu meinen Windows-Zeiten die Vorteile nicht bewusst) weiss ich nicht, in wieweit das permanent ist (ein Kommentar zu diesem Thema wäre großartig).
Linux-Systeme erfordern normalerweise mehr Partitionen, als Windows-Systeme. Beide kommen theoretisch mit einer Partition aus, aber bei beiden ist es nicht ratsam. Linux-Systeme kennen keine Auslagerungsdatei, sondern erfordern eine Auslagerungs-Partition (es können auch mehrere oder gar keine sein). Diese sogenannte Swap-Partition sollte an den Anfang der Festplatte gesetzt werden, weil dort die Zugriffszeiten kürzer sind. Linux-Setup-Programme bieten normalerweise immer die Möglichkeit der Partitionierung.
Ich werde jetzt zunächst auf ein reines Linux-System eingehen. Besitzt man nur eine Festplatte ist es ratsam, sie geschickt zu partitionieren. Linux kennt keine Laufwerke, das ganze System wird in einem Verzeichnisbaum dargestellt, und die Partitionen können an beliebigen Stellen eingehängt werden. Die Root-Partition (sie wird im Stammverzeichnis eingehängt) sollte die zweite oder die dritte Partition sein. Wenn man das Verzeichnis "/boot" (hier kommt der Kernel und der Bootloader rein) in einer extra-Partition haben möchte sollte dies die zweite sein (<50 MB ext2). Das hat den Vorteil, dass diese kritischen Daten im laufenden System nur dann eingehängt sein müssen, wenn man Änderungen an ihnen vornimmt (z.B. ein Kernel-Update). Der Nachteil ist, dass man jedes mal daran denken muss es zu mounten, wenn man daran etwas ändern möchte. Das "/home"-Verzeichnis sollte auf jeden Fall eine eigene Partition erhalten. Auf diese Weise kann man Benutzereinstellungen und persönliche Daten ganz einfach mit einer eventuell anderen Linux-Version verwenden (z.B. wenn man die Distribution wechselt). Daneben können "/usr" (Programme im Userspace) und "/var" (Log-Dateien und temporäre Dateien) eigene Partitionen erhalten. Gentoo-User sollten für "/usr/portage" eine eigene Partition in Erwägung ziehen und diese mit reiserfs formatieren, da der Portage-Tree äußerst viele sehr kleine Dateien enthält.
Bei zwei Festplatten kann man sehr viel flexibler partitionieren. Die erste Platte könnte z.B. alles außer das Home-Verzeichnis enthalten, oder man erzeugt auf jeder Platte einen Swap-Bereich. Die Möglichkeiten sind nahezu grenzenlos.
Bei gemischten Systemen (Windows und Linux) wird es richtig interessant. Zu beachten ist, das Linux (je nach Kernel) alles lesen kann, aber auf NTFS nicht bzw. nur eingeschränkt schreiben kann. Windows kann Linux-Partitionen grundsätzlich nicht lesen, obwohl es dafür auch Treiber und Tools gibt (wie Lothar in seinem Blog in diesem und vor allem diesem Artikel schreibt).
Am einfachsten formatiert man eine Partition im FAT32-Format um eine Austausch-Partition zu haben (die kann aber nur Dateien unter 2 GB aufnehmen). Es empfiehlt sich Windows auf die erste Platte zu werfen und Linux von der zweiten zu booten (der Rest kann sein, wo man will). Zu beachten ist, dass man zuerst Windows und dann Linux installiert. Genauer gesagt zuerst Windows und dann den Linux-Boot-Loader, weil Windows die böse Angewohnheit hat den MBR ungefragt zu überschreiben.
Um jetzt noch einen abschließenden Vergleich zu ziehen, beide Betriebssysteme sollten partitionierte Festplatten benutzen, Linux im Besonderen. Wer sich einen neuen Rechner zulegt sollte seine einzige Partition verkleinern und eine zweite, wenn nicht sogar mehrere erzeugen, je nach Geschmack. Am besten ist es das Betriebssystem eines neuen Systems selbst zu installieren und die Partitionierung gleich zu Beginn richtig zu machen.

10 März 2006

Dateien mit System

Daten werden ja bekanntermaßen meißtens auf Festplatten gespeichert. Egal, ob es nun eine, oder mehrere im Raid sind, sie müssen in geordneter Form gesichert werden, damit man sie wiederfindet. Wir Menschen sortieren unsere Dateien in Verzeichnisse bzw. Ordner ein. Auf der Ebene des Betriebssystems werden Dateien in einem Dateisystem abgeleg. Windows kennt, grob gesagt zwei Dateisysteme, FAT und NTFS. Das FAT-Dateisystem ist recht antiquiert, wird aber auf Speicherkarten und sonstigen Medien mit eingebautem Speicher immer noch verwendet. Da es nicht über ein Journal verfügt, geht bei der Formatierung von kleinen Medien kein kostbarer Speicherplatz verloren. Bei einem Systemabsturz kann es aber sein, dass Daten vernichtet werden (verlorene Cluster). Das FAT-System ist recht ineffizient, weil es sehr schnell fragmentiert und der Schreib-Lese-Kopf bei Zugriffen auf große Dateien sehr häufig zwischen Dateizuordnungstabelle und Datenbereich hin und her springen muss. Um das im Rahmen zu halten sollte ein FAT-System in regelmäßigen Abständen defragmentiert werden, weil sonst die Systemleistung extrem leidet. Hinzu kommt, das eine FAT32-Partition höchstens 32 GB groß sein darf und die maximale Dateigröße 2 GB beträgt. NTFS ist für ein reines Windows-System die klügere Wahl, weil hier nicht nur diese Beschränkungen stark erhöht sind (ich kenne die genauen Zahlen jetzt nicht, aber sie sind jeweils im Terabyte-Bereich), sondern das Dateisystem auch über ein Journal verfügt, was die Datenintegrität (nicht unbedingt die Daten selbst) bei einem Systemabsturz sichert. Die Zuordnungstabellen arbeiten effizienter, wenn auch nicht optimal, und es verfügt über diverse Funktionen, die beim FAT-System fehlen. NTFS kann transparent (der Zugriff erfolgt, wie auf eine normale Partition) komprimiert und/oder verschlüsselt werden. Hinzu kommen die Benutzer- und Gruppenspezifischen Zugriffsbeschränkungen, die sogar noch leistungsfähiger sind, als bei Linux-Systemen, weil man einer Datei explizit sagen kann, welche Gruppe und welcher Benutzer wie auf sie zugreifen kann. Wie bei Linux-Systemen können NTFS-Partitionen auch in den Verzeichnisbaum gemountet werden (erscheinen dann nicht als Laufwerk), aber dies ist, soweit ich informiert bin, statisch und lässt sich, wenn überhaupt, nur sehr schwer ändern. NTFS neigt leider auch zur Fragmentierung und das Defragmentierungsprogramm, welches bei WindowsXP beiliegt behebt den Zustand zwar, aber nicht mehr so effizient, wie sein Vorgänger bei Windows 9x. Es entstehen relativ kleine Lücken zwischen den Datenblöcken, wodurch im zukünftigen Betrieb die Fragmentierung beschleunigt wird. Hierfür gibt es allerdings von Drittherstellern bessere Tools, wie zum Beispiel das Defragmentierungsprogramm, der Norton-Utilities.

Linux-User können zwischen mehreren wirklich guten Dateisystemen wählen. Ich werde jetzt hier nicht alle erklären, aber ich werde kurz auf die, meiner Meinung nach, wichtigsten eingehen.
Auch wenn ReiserFS mitlerweile von einigen Distributionen als Standard verwendet wird, möchte ich mit Ext2 bzw. Ext3 beginnen. Ext2 kann man mit dem FAT-System von Windows vergleichen, da es nicht über ein Journal verfügt. Allerdings unterliegt es nicht den Grenzen von FAT. Je nach Inode- (Block-)Größe (1KB bis 4KB) sind auf PCs Partitionsgrößen von 2TB bis 16 TB möglich und Dateien dürfen maximal 16 GB bis 2 TB groß sein. Das Ext3-System erweitert Ext2 um die Journaling-Funktion, und wird deswegen neben ReiserFS of als Dateisystem für Linux verwendet. Beide Ext-Systeme sind so konzipiert, das sie sehr schwer fragmentieren, und selbst bei einer Fragmentierung der Schreib-Lesekopf sich effizienter bewegt, als bei den Windows-Systemen, was nicht nur die Geschwindigkeit erhöht, sondern auch die Platte leiser laufen lässt (was eine persönliche Beobachtung von mir ist). Bemerkenswert ist, das Ext3-Dateisysteme, wenn das Journal sauber ist, auch als Ext2 gemountet werden können, ohne, dass die Datenintegrität verloren geht. Das ist z.B. praktisch, wenn man bei einem Kernelwechsel den Ext3-Support vergessen hat.
ReiserFS verwendet zur Speicherung von Dateien anstatt Tabellen, Bäume, die im Endeffekt mit der Verzeichnisstruktur übereinstimmen. Der Dateizugriff erfolgt, vor allem bei kleineren Dateien, sehr viel schneller, als bei den Ext-Systemen.
Zu erwähnen wären da noch XFS und JFS, die beide vorzugsweise in Server-Systemen verwendung finden. Ich habe beide nicht getestet und kann deswegen nur sehr wenig darüber sagen. JFS ist ein sehr schnelles Dateisystem, was vor allem daran liegt, das alle Datenträger zugriffe so spät wie möglich erfolgen und alles gecached wird. Das hat allerdings den Nachteil, das bei einem Stromausfall mehr Daten verloren gehen, als beispielsweise bei ReiserFS.
Zu XFS kann ich noch weniger sagen, außer, dass es die höchste Partitionsgröße, der hier vorgestellten Dateisysteme bietet (18 Exabyte) und sehr robust sein soll. So wie es sich anhört ist es für den normalen Anwender etwas "overpowered", obwohl mich für diese Aussage sicher einige Leute hassen werden ;-)
Einige Konzepte vereinen alle Linux-Dateisysteme in sich und die werde ich jetzt zum Schluß noch vorstellen.
Alle Systeme bieten die Unix-typischen Nutzerrechte. Jede Datei hat für den Benutzer, die Gruppe und für alle anderen die Attribute "lesen", "schreiben" und "ausführen". Jede Datei hat einen Besitzer und wird einer Gruppe zugeordnet, wobei beides änderbar ist. Diese Attribute können alle vom Besitzer der Datei oder vom superuser (root) manipuliert werden. Verzeichnisse besitzen die selben Attribute, wobei sie hier etwas anders zu verstehen sind. "Ausführbar" bedeutet, dass man in dieses Verzeichnis wechseln darf, "lesen" bedeutet, dass man sich den Inhalt auflisten lassen darf und "schreiben", dass man eigene Dateien hinzufügen darf. Mit diesen Mitteln lassen sich recht komplexe Zugriffs-Strukturen erzeugen, die denen von Windows (mit NTFS) allerdings etwas unterlegen sind, wobei sie einfacher zu verstehen und umzusetzen sind.
Der größte Vorteil gegenüber der Windows-Systeme ist das Konzept der Links. Man unterscheidet zwei Arten von Links, die Softlinks und die Hardlinks. Hardlinks sind zusätzliche einträge im Dateisystem und können daher nur auf der selben Partition existieren. Streng genommen ist der einzige Eintrag einer Datei im System auch ein Hardlink. Eine Datei wird erst dann gelöscht (der belegte speicher freigegeben), wenn der letzte Eintrag (Hardlink) entfernt wurde. Softlinks sind da etwas flexibler, weil sie Partitionsübergreifend erzeugt werden können. Sie haben aber keinerlei Einfluß auf die original-Datei. Man kann sie in etwa mit den Verknüpfungen bei Windows vergleichen. Anders als bei Windows werden sie aber als Vollwertige Dateien bzw. Verzeichnisse betrachtet und können den Verzeichnisbaum dynamischer gestalten (z.B. ein symbolischer Link im eigenen Home-Verzeichnis auf /mnt). Löscht man einen symbolischen Link, wird nur der Link gelöscht, und die Datei bzw. das Verzeichnis bleibt unberührt. Löscht man allerdings die Datei, zeigt der Link immer noch auf sie und wird somit ungültig, aber er kann nicht automatisch gelöscht werden, da in einer Datei nicht gespeichert wird, ob und wo Softlinks auf sie existieren.
Zusammenfassend kann gesagt werden, dass Linux-User (mal wieder) die größere und vor allem bessere Auswahl haben. Windows-User sollten nur dann ein FAT32-System wählen, wenn sie Daten mit einem Linux-System tauschen wollen. Linux kann zwar NTFS lesen, aber der Schreibzugriff sollte mit Vorsicht genossen werden. Mit FAT hat Linux keine Probleme.
Ich arbeite sowohl mit Ext3, als auch mit ReiserFS. Wie genau meine Partitionierung aussieht, werde ich in einem anderen Artikel genauer beschreiben.

09 März 2006

Die Qual der Wahl

Linux Systeme zeichnen sich vor allem dadurch aus, dass der Benutzer, in der Regel, sehr viel Entscheidungsfreiheit hat, wie er sein System einrichten möchte. Dies ist für erfahrene Anwender ein Segen, aber kann für (Linux-)Neulinge ein Fluch sein.
Am gravierensten trifft dies auf die Installation zu. Eine Windows Installation läuft immer nach dem selben Schema ab, der Benutzer muss kaum Angaben machen und nach 30 bis 60 Minuten hat er ein Standard-System, welches noch angepasst werden muss. Dann folgt der schwierigere Teil des Treiber nachinstallierens und dann läuft das System in der Regel ziemlich bald. Bei Linux-Installationen sieht das etwas anders aus. Muss man sich bei Windows lediglich um das Laufwerk kümmern auf das es installiert werden soll, wird man von Linux-Setup-Programmen aufgefordert eine Festplattenpartitionierung durchzuführen. Bei einem nackten Rechner ist das ja kein großer Akt, aber wenn sich bereits ein Betriebssystem auf dem Rechner befindet, ist es selbst für erfahrene Anwender ein sehr verwirrendes und gefährliches Unternehmen und so manche Windows-Installation verabschieded sich, wenn man hier etwas falsch macht.
Die Softwareauswahl, die bei Windows dabei ist, beschränkt sich auf wenige Standard-Programme, wie z.B. MSPaint. Hier bieten Linux-Distributionen eine sehr viel größere Auswahl, weil eine Distribution nicht nur das Kern-System enthält, sondern sehr viel optionale Software, die in der Regel zu Paketen zusammengefasst ist. Diese Pakete sind in komplexer Weise voneinander abhängig und diese Abhängigkeit wird normalerweise beim Aus bzw. Abwählen berücksichtigt. Eine Ausnahme bildet hier LFS (Linux from Scratch) welches für Normalanwender denkbar ungeeignet ist, da man das komplette System selbst baut und auch selber die Abhängigkeiten kennen muss. Diese Zusatzsoftware ist natürlich auch der Grund, warum Linux-Distributionen auf mehreren CDs bzw. auf einer DVD ausgeliefert werden.
Bei Linux hat man die Wahl, ob man eine Desktop-Installation haben möchte oder nicht. Das bedeutet, das Linux auch ohne eine grafische Oberfläche arbeiten kann (im Server-Bereich ist das, neben dem Preis, der größte Vorteil gegenüber Windows), was aber für Umsteiger völlig uninteressant ist. Viel interessanter und für Windows-Umsteiger sehr ungewöhnlich, ist die Tatsache, dass die Oberfläche zum einen als "normales" Programm angesehen wird und das man sich seine Oberfläche selber aussuchen kann. Für Umsteiger sind sowohl Gnome, als auch KDE interessant, und viele Distributionen installieren beide standardmäßig, damit man als Benutzer die Wahl nach seinem persönlichen Geschmack treffen kann. Es ist auf jeden Fall empfehlenswert, wenn man sich für eine entschieden hat, zumindest die Kernbibliotheken der anderen zu haben, damit gewisse Programme, die für eine von beiden konzipiert wurden, auf beiden lauffähig sind (Beispiel: Gimp unter KDE).
Ein Windows-Desktop sieht immer gleich aus. Zumindest seit XP kann man zwischen dem klassischen und dem bunten XP-Stil wählen. Alle grafischen Oberflächen, die Linux bietet sind äußerst anpassungsfähig, was das Design und sogar die Verteilung der Fenster-Steuerelemente angeht. Man kann das Desktop sogar so einstellen, dass es genauso aussieht, wie Windows oder eben, so wie man es gerne hätte, die Möglichkeiten sind fast grenzenlos. Das hat natürlich zur Folge, dass viele Linux-Desktops derart unterschiedlich sind, dass ein Windows-User kaum oder garnicht damit zurecht kommt. Mit Linspire wurde allerdings eine kostengünstige Distribution geschaffen, die sehr nah ans Windows-Layout angelehnt ist und für Umsteiger gedacht ist.
Die Distribution mit der größten Wahlmöglichkeit (und somit der kompliziertesten Installation) ist Gentoo-Linux. Es ist nach LFS die komplizierteste Art Linux zu betreiben, aber auch die interessanteste. Bei Gentoo wird das komplette System aus dem Quelltext übersetzt, wie bei LFS, aber es enthält auch Paketabhängigkeiten, wie andere Distributionen. Für die Installation sollte man allerdings ein paar Tage einplanen, da manche Dinge sehr lange kompiliert werden müssen.
Als Letztes möchte ich mich in diesem Artikel mit dem Kernel beschäftigen. Der Kernel ist das Herzstück eines jeden Linux-Systems. Er ist die einzige Instanz, die direkt mit der Hardware kommuniziert und über ihn läuft im System einfach alles. Er ist nicht nur der wichtigste Teil des Systems, sondern auch der anpassungsfähigste. Hardwaretreiber können entweder direkt in den Kernel kompiliert werden oder als sogenannte Module während des Betriebes dynamisch eingefügt werden. Was man fest integriert und was man als Modul kompiliert hängt vom persönlichen Geschmack ab, aber es ist ratsam viele Dinge als Modul zu kompilieren, weil der Kernel selbst kleiner bleibt und die Module bei Bedarf eingesetzt oder entfernt werden können. Die Module kann man mit den Hardware-Treibern von Windows vergleichen, wobei man bei Windows nicht die Möglichkeit hat sie in den Systemkern fest zu integrieren. Hardware-Treiber, die für Linux direkt vom Hersteller kommen werden als Kernel-Module geliefert und deren Installation ist nicht immer ganz leicht.
Viele Distributionen benutzen vorkompilierte Standard-Kernel, die den Großteil der Hardware abdecken und in der Regel für viele Leute ausreichend sind. Allerdings kann man mit einem spezialisierten Kernel sehr viel Systemleistung herausholen, die normalerweise nicht verfügbar wäre. Aber einen eigenen Kernel einzurichten ist für Laien der schwierigste Prozess, mit dem er sich bei Linux herumschlagen kann (aber heute nicht mehr muss).
Zusammenfassend kann man sagen, das ein Linux-Benutzer viel mehr Wahlfreiheit hat, als ein Windows-Benutzer, deswegen allerdings auch mit einer viel komplizierteren Installation rechnen muss. Man kann grob sagen, je mehr Wahlfreiheit besteht, desto komplizierter ist die Installation. Microsoft sammelt also unter anderem deswegen soviele Pluspunkte, weil sie ihre Kunden kaum entscheiden lassen, wie ihr Computer denn nun aussehen oder sich verhalten soll.