Donnerstag, Mai 12 2011

Der verflixte lila-blank-screen-post-Grub Fehler

Da es anscheinend kaum jemanden zu geben scheint der das folgende Problem mit dem Grub2 Bootloader hat/gelöst hat, will ich es mal auf diesem Weg versuchen; Vielleicht hat ja jemand eine passende Lösung parat? Nach der (Neu)Installation von Ubuntu Natty Narwhal und dem damit verbundenen Reinstall des Grub2 Bootloaders  fingen die Probleme an. Eigentlich kein wirkliches Problem, aber nervig allemal: Nach der Auswahl des Bootmenüeintrags verschwindet das Menü und Grub hängt nun gut 10 bis 15 Sekunden fest, dabei bleibt der Bildschirm komplett lila (Im Prinzip verschwindet nur der Text vom Menü). Der Rechner tut jedoch die ganze Zeit lang nichts! Dann lässt sich der restliche Bootprozess in der Konsole ablesen, jedoch keine Fehlermeldung oder ähnliches. Plymouth habe ich deaktiviert um das Problem sicher eingrenzen zu können. Auch an den Grafiktreibern kann es nicht liegen, da ich statt der proprietären ATI Treiber, die freien radeon Treiber verwende. Ich habe nun schon mit einigen Kernelparametern und Grub Optionen herumgespielt, viel gegoogelt und gelesen, jedoch lies sich das Problem bisher nicht lösen. Auch mit bootchart konnte ich nichts ungewöhnliches feststellen (...klar eigentlich, das Problem tritt ja vorher auf...). Für Tipps und Ideen bin ich dankbar!

Dienstag, Juli 6 2010

Lucid, der ATI Treiber, KMS und Performance

Bisher gab es nie Probleme mit der Installation eines proprietären Grafiktreibers für meine Onboard ATI Radeon HD3300, was sich aber in Ubuntu Lucid Lynx geändert hat. Nach dem Update von Karmic auf Lucid und dem Herunterladen des Treibers über das Applet Hardware Treiber erhielt ich einen bunten Brei an Farben und Linien, welcher sich auch noch bei jeder Mausbewegung änderte und bewegte. Verschob man ein Fenster, konnte man Glück haben, dass man eventuell Menüs oder Schriften wieder korrekt angezeigt bekam. Da dies aber in keinster Weise akzeptabel war, verschwand der verbuggte Treiber schnell wieder von meinem System und ich versuchte mein Glück diesmal mit dem Exemplar von der ATI Seite: Doch auch hier das gleiche Bild (im wahrsten Sinne des Wortes). Also, alle proprietären Treiber wieder entfernt und wieder den standard Open Source "radeon" aktiviert. Bisher lief damit eigentlich alles einwandfrei, bis, ja bis auf eine Kleinigkeit die eigentlich nich so besonders auffällig war aber doch ein wenig störte. Das System war träge, nicht wirklich langsam, aber träge. Mal ein ruckeliges Scrollen auf Websites während die CPU Last nach oben schoss, mal kurze Programmaussetzer, nichts gravierendes aber trotzdem nervig. Also entschloss ich mich dem Problem auf den Grund zu gehen, was allerdings gar nicht so einfach war, denn was löste diesen Bug aus? Nach einiger Suche fand ich dann den Übeltäter: KMS (kernel-mode-settings), die neue Kernel-Videoarchitektur die eigentlich Probleme be- und die Performans anheben sollte. Laut Known Issues for Lucid Lynx eine bekanntes Problem was allerdings nur sehr selten auftreten soll - anscheinend gehöre ich auch zu diesen sehr seltenen Fällen. Die Lösung ist einfach und schnell gemacht: Um KMS zu deaktiviern muss die Datei /etc/default/grub editiert werden. An der Stelle GRUB_CMDLINE_LINUX muss die Option nomodeset hinzugefügt werden. Anschliessend muss noch ein sudo update-grub ausgeführt werden um die Änderung zu übernehmen. Nach einem Reboot ist das Problem behoben.

Donnerstag, Oktober 15 2009

Die eigene Handschrift am PC

Heute bin ich auf eine sehr gute und interessante Webseite aufmerksam geworden: www.fontcapture.com ! Hier hat man die Möglichkeit anhand von Buchstaben-Schriftproben seine eigene individuelle Handschrift in den PC zu bringen. Dies funktioniert ganz einfach, zuerst druckt man sich einen Bogen aus, auf dem man dann sämtliche Buchstaben, Zahlen und Zeichen einträgt. Hat man dies ordentlich erledigt, muss man die Seite einscannen und die gescannte Datei zu fontcapture.com hochladen. Auf dem Server wird dann aus den Schriftproben eine Truetype Schrift erstellt, die man sich in einer Vorschau mittels beliebigem Text anzeigen lassen und natürlich auch direkt downloaden kann. Die .ttf Datei muss bei Windows in den Ordner C:\Windows\Fonts und unter Linux zum Beispiel nach \usr\share\fonts\truetype. Die von mir produzierte Schrift, sieht wie folgt aus: writing

Samstag, September 5 2009

Alternative Linux mirware für den violet mir:ror

Wer den mir:ror von Violet unter Linux betreiben möchte, wird schnell feststellen, dass einige Dinge nicht so schön funktionieren wie auf eine Mac oder unter Windows. Nehmen wir mal eins der wichtigesten Beispiele: das Ausführen von Scripten. Die aktuelle mirware Version kann leider nur mit Windows .bat - Scripten und Mac OS Scripten umgehen. Tiefergreifende Shell Skripte unter Linux sind leider nicht möglich. Doch findige Leute haben sich dieses Problems angenommen und eine eigene "mirware" namens erawrim speziell für Linux gebastelt. Es arbeitet auf der Konsole und legt für jedes RFID Tag einen eigenen Ordner im ~/.erawrim Verzeichnis an, dessen Namen man zu Beginn einmal festlegen muss. In dem jeweiligen Ordner befinden sich standartmäßig 4 Dateien: pose.sh (zeigen) und retire.sh (entfernen), zwei leere Skripte, die mit Leben gefüllt werden dürfen. Zudem noch die Dateien lasttime und times welche einmal das Datum der letzten Sichtung des Tags und die Anzahl der bisherigen Sichtungen des Tags enthält. Der große Vorteil ist nun natürlich, dass man komplett selbst bestimmen kann, welche Aktionen ausgeführt werden sollen, wenn die Tags auf den Mirror gelegt werden. Auch komplexe Shellskripe sind damit startbar und auch die Sprachausgabe lässt sich relativ leicht durch espeak oder mbrola nutzen. Für schöne optische Anzeigen kann man das Gnome Notification Framework nutzen. Ein wirklich großer Vorteil gegenüber der original mirware ist allerdings noch gar nicht beachtet worden: die Unabhängigkeit von violet und ihren Servern bzw. dem Internet, was die Erkennungs- und Ausführungsgeschwindigkeit enorm steigert. Da die Software bisher nur in Französisch mit französischer Dokumentation vorliegt, werde ich kurz erklären wie man erawrim installiert und lauffähig bekommt. 1) Zuerst die aktuelle Version aus dem SVN besorgen mittels: svn checkout http://erawrim.googlecode.com/svn/trunk/ erawrim-read-only 2) Nun in das Verzeichnis erawrim-read-only wechseln und mittels make && sudo make install kompilieren und installieren. 3) Nun den Mirror vom USB Anschluss trennen und den erawrim deamon mit erawrim_do start starten. 4) Jetzt wird man auf französisch aufgefordert den Mirror einzustöpseln und danach mit ENTER zu bestätigen. Hat alles geklappt wird dies durch z.B. Ouverture réussie: /dev/hidraw2 angezeigt. Möglich sind auch andere hidraw Geräte. 5) Das wars auch schon fast! Nun kann ein RFID Tag registriert werden. Legt man ein Tag auf den Reader, wird man aufgefordert einen Namen für das Tag/Objekt einzugeben. Diesen gibt man ein und bestätigt mit ENTER. Damit ist das Objekt registriert und die jeweiligen Skripte können nur im Ordner ~/.erawrim/<Objekt/RFID-Name>/ nach den eigenen Wünschen angepasst werden. Das Skript benötigt beim Start einmal Root Rechte für den Zugriff auf den Mirror. Tipps und Ideen gibts hier (auf Französisch): http://noog.fr/blog/2009/03/22/mirror-de-la-societe-violet-sous-linux/ Die erawrim Seiten bei google code: http://code.google.com/p/erawrim/

Donnerstag, August 6 2009

Multipath Routing und 2 DSL Leitungen

routingDie Anschaffung einer 2. DSL Leitung stellte mich vor folgendes Problem: Wie schaffe ich es, beide Leitungen zu benutzen und ihre Routen gemäß der Bandbreiten zu gewichten? Der Server, der diese Aufgabe erledigen sollte, war sowieso schon lange in Betrieb und benötigte nur eine kleine Umkonfiguration sowie ein wenig zusätzliche Hardware, sprich 2 Netzwerkkarten. Mein erster Versuch, das Multipath Routing mit 2 Netzkarten zu bewerkstelligen stellte sich als schwieriges Unterfangen ein und so baute ich kurzerhand eine 3. NIC ein. Was soll nun passieren und was passiert nicht? Multipath Routing bedeutet, dass die Daten die Möglichkeit bekommen, mehrere Wege (Paths) in ein Netz zu bekommen. Das suchen sie sich jedoch nicht selbst aus, sondern der Router (in diesem Fall der Server) entscheidet, welche Pakete über welche Route also welchen Internetanschluss laufen. Hierfür gibt es verschiedene Gewichtungsmöglichkeiten der einzelnen Routen die man nach Lust und Laune oder Bandbreite einstellen kann. Man nutzt also nur beide Leitungen abwechselnd nach festen Kriterien, bündelt aber nicht die Anschlüsse (bonding)! Ein Download nutzt weiterhin immer nur eine Leitung (load balancing)! Aber zum Technischen: Konfiguration: Vorneweg: Für sämtliche Befehle werden root Rechte benötigt! Es bietet sich also an, direkt in einer root-shell zu arbeiten! Vorraussetzung ist ein Linux PC / Server mit installiertem Paket iproute2. Zuerst legt man 2 neue Routing Tables in der Datei /etc/iproute2/rt_tables an, indem man am Ende folgendes einfügt 200     se555     #Routingtable für Verbindungen zu Router 1 201     v721      #Routingtable für Verbindungen zu Router 2 Die Namen für die einzelnen Tables können natürlich auch anders vergeben werden. Nun kommt die eigentliche Arbeit, das Einstellen der Routen. Hier gibt es mehrere Ansätze wo die Informationen hinterlegt werden sollen. Die einen plädieren für ein Script, ich konnte mich mehr mit dem Ansatz anfreunden, die Informationen direkt in die /etc/network/interfaces Datei einzutragen. Bei mir sieht die Datei wie folgt aus: iface eth0 inet static address 192.168.1.200 netmask 255.255.255.0 # Connection zu SE555 iface eth1 inet static address 192.168.1.199 netmask 255.255.255.0 post-up ip route add 192.168.1.1 dev eth1 src 192.168.1.199 table se555 post-up ip route add default via 192.168.1.1 table se555 post-up ip rule add from 192.168.1.199 table se555 post-down ip rule del from 192.168.1.199 table se555 # Connection V721 auto eth2 iface eth2 inet static address 192.168.1.198 netmask 255.255.255.0 post-up ip route add 192.168.1.2 dev eth2 src 192.168.1.198 table v721 post-up ip route add default via 192.168.1.2 table v721 post-up ip rule add from 192.168.1.198 table v721 post-down up rule del from 192.168.1.198 v721 Dabei gehören folgende IPs zu folgenden Geräten: eth0 192.168.1.200        LAN Interface eth1 192.168.1.199        Uplink zu Router 1 eth2 192.168.1.198        Uplink zu Router 2 192.168.1.1                       Router 1 192.168.1.2                       Router 2 Ist alles eingestellt, können die Interfaces hochgefahren werden mittels ifconfig eth1 up bzw. ifconfig eth2 up. eth0 sollte ja bereits up sein, sofern man per ssh verbunden ist. Sind nun alle Schnittstellen aktiv, kann die Konfiguration schnell mit ifconfig überprüft werden. Der Befehl ip route gibt Übersicht über das Routing der einzelnen Interfaces. Nun muss dem System nur noch mitgeteilt werden über welche Route, was geroutet werden soll und in welchem Verhältnis. In meinem Fall ist Anschluss 1 eine DSL6000 Leitung und Anschluss 2 eine DSL25000 Leitung. Die Bandbreite von A1 ist also knapp 1/4 von A2, darum sollen Pakete in diesem Verhältnis auf die Leitungen aufgeteil werden. Das Routing, bzw. die Verteilung der Pakete erfolgt nach Eingabe von: ip route add default scope global nexthop via 192.168.1.1 dev eth1 weight 25 nexthop via 192.168.1.2 dev eth2 weight 75 Damit sollte nun alles Funktionieren. Die default route wird nun auch angezeigt, wenn man ip route erneut zu rate zieht. Bei mir siehts wie folgt aus: 192.168.1.0/24 dev eth2 proto kernel scope link src 192.168.1.198 192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.200 192.168.1.0/24 dev eth1 proto kernel scope link src 192.168.1.199 192.168.122.0/24 dev virbr0 proto kernel scope link src 192.168.122.1 default nexthop via 192.168.1.1 dev eth1 weight 25 nexthop via 192.168.1.2 dev eth2 weight 75 Nun muss nur noch der DHCP Server so eingestellt werden, das als Router bzw. Gateway die 192.168.1.200, also das LAN Interface benutzt wird. Und voila, das Multipath Routing konfiguriert! Folgeartikel: http://maltekueppers.de/wp/?p=1356 ENDGÜLTIGE LÖSUNG: http://maltekueppers.de/wp/?p=1363 Quellen: http://lartc.org/howto/lartc.rpdb.multiple-links.html http://www.debian-administration.org/articles/377 http://wiki.ubuntuusers.de/Multiple_Uplink_Routing

Freitag, Juli 17 2009

Home Power Control

PollinK8IOEs ist vollbracht! Nach vielem Testen und Basteln habe ich es nun geschafft. Die K8 I/O von Pollin ist zusammengebaut und ist wider erwarten doch funktionstüchtig :). Nach anfänglichen Problemen mit dem USB to RS232 Kabel, welches jegliche Kommunikation mit der Karte verweigerte (Hinweis für mich: Solche Adapter sind Müll!), versuchte ich den COM Port zu nutzen welcher glücklicherweise mein Mainboard noch ziert. Doch auch der verweigerte in Zusammenarbeit mit der Karte seinen Dienst. Glücklicherweise fand ich an meinem Homeserver noch einen echten LPT Ausgang und damit sollte auch die Karte endlich funktionieren und ihren Dienst aufnehmen (Kleiner Hinweis: Die Karte scheint wirklich nur an echten LPT Ausgängen zu arbeiten!). Nach langem Suchen im Internet stieß ich auf den Quellcode für das Programm lpic, eine Software, welche das einfache Steuern der Karte unter Linux ermöglicht. Nachdem ich Programm und Karte nun auf Herz und Nieren getestet hatte, begann ich mit dem Auseinanderbauen der Funkfernbedienung und lötete Kabel an die Tasterkontakte um die mit der Relaiskarte schalten bzw. drücken zu können. Auch das funktionierte einwandfrei und die Fernbedienung schaltete per Relaiskarte die Steckdose. Dummerweise benötigt man pro Steckdose zwei Kanäle an der Relaiskarte, einen zum Schalten des Ein- und einen zum Schalten des Austasters, was aber nicht weiter stört, denn 4 Steckdosen reichen mir (vorerst) allemal. Ein weiteres Problem war die Entfernung des Servers bzw. der Fernbedienung zu den zu schaltenden Steckdosen, denn diese ist enorm hoch (20m durch Wände). Ein Wunder das die Dosen noch ein Signal erhaschen. pollink8io1 Nach einigem herumprobieren wurde es mir allerdings zu nervig, ständig für das Schalten einer einfachen Steckdose eine SSH Verbindung zum Server aufzubauen und dort mühevoll Befehle einzutippen. Dann kam mir eine Idee: Apache mit PHP! Da der Server sowieso mit einem Webserver ausgestattet war, musste ich ihn nur noch dazu bringen per PHP Shell Skripe auszuführen. Auch das klappte mit einigen Hürden irgendwann, sodass ich nun in der Lage bin sämtliche Steckdosen per Webinterface bzw. per Lan zu steuern. Das Script ist im Moment nur elementar, aber funktionsfähig. Mit Sicherheit werde ich noch einige Funktionen einbauen, die mir das Leben erleichtern bzw. das Steuern komfortabler Gestalten, aber fürs erste soll es so reichen. Hier meine Vorgehensweise: Bei Linuxforen.de fand ich folgenden C-Quellcode der unter GNU-GPL veröffentlicht wurde. Ich habe lediglich die "Fehler" behoben (siehe Thread):  lpic.c Kompiliert man nun das ganze mit gcc lpic.c -O -o lpic -Wall erhält man die compilierte lpic File, welche dann nach /usr/bin/ kopiert werden sollte. Ist dies geschehen, sollte man nun per lpic 8 toggle alle Relais auf der K8 IO schalten können. Dazu muss man übrigens root Rechte besitzen, da ansonsten eine Fehlermeldung erscheint. Funktioniert dies können wir uns um den Apache sowie die PHP Realisierung kümmern. Ich gehe davon aus, dass Apache mit PHP installiert ist und läuft. Da wir für die Ausführung des Scripts root Rechte benötigen, müssen wir zuerst www-data in der /etc/sudoers file hinzufügen. Dazu fügen wir die Zeile www-data ALL=NOPASSWD: /usr/bin/lpic hinzu und speichern die Datei. Dann legen wir uns im Webroot ein Verzeichnis an, welches unsere PHP Files beherbergen soll, ich habe es "steckdosen" genannt (also /var/www/steckdosen). Hier hinein kommen 2 Files, einmal eine index.php und eine steckdosen.php. Die index.php enthält ein simpeles Formular, welches die Eingaben an die eigentliche Funktionsdatei steckdosen.php weitergibt. Diese ruft dann unser Shellscript lpic mit entsprechenden Parametern auf, je nach Funktion. Da ich die "Taster" der Fernbedienung nur kurz drücken muss um die Steckdose schalten zu lassen, kann ich das Relais nach kurzer Zeit auch wieder öffnen (sonst würde ich die ganze Zeit das An-Signal weitersenden), dies geschieht durch erneuten Aufruf von lpic im php Code nach einer kurzen Pause von 2 Sekunden. Zusätzlich habe ich eine meta-refresh eingebaut, welches mich wieder zurück zur index.php bringt. So kann ich nun meine Steckdosen von der ganzen Welt :) aus übers Internet mit einfachsten Mitteln steuern. Verwendete Files: lpic.c Download index.php Download steckdosen.php Download Quellen: http://www.ip-phone-forum.de/showthread.php?p=749716 http://www.linuxforen.de/forums/showthread.php?t=198642&highlight=relais+software

Donnerstag, Juli 9 2009

Ubuntu One Betatest

Vor einiger Zeit hatte ich schon über das Ubuntu One Projekt berichtet. Nun habe ich endlich eine Invitation als offizieller Betatester bekommen und kann Ubuntu One ausgiebig testen. Nach hinzufügen eines PPA Keys und dem Herunterladen des Pakets ubuntu-one kanns losgehen. Startet man im Menü dann Ubuntu One, macht es sich durch ein Icon bemerkbar, bestehend aus einer Wolke und dem Ubuntu Logo, welches sich bei Synchronsationsaktivität dreht. Ausserdem wird im Homeverzeichnis ein eigener Ordner Names  "Ubuntu One" angelegt, der wiederum 2 Unterordner "My Files" und "Shared with me" enthält. Diese beiden Ordner werden dann synchronisiert, sobald man Daten hineinkopiert, wobei "Shared with me" Dateien enthält, die ein anderer User explizit mit einem anderen Teilt. Der Service an sich ist relativ schnell und arbeitet recht zuverlässig. Auch der Zugriff von Windows Rechnern via Web funktioniert gut, sofern man sich mit seinem Launchpad Account eingeloggt hat. Insgesamt macht Ubuntu One einen ganz ordentlichen Eindruck, integriert sich wirklich nahtlos in den Gnome Desktop und arbeitet angenehm im Hintergrund. Nichts desto trotz wäre die kostenpflichtige Variante für mich keine Überlegung wert, da es ja viele andere dieser Services, wie z.B. Dropbox gibt, die Multiplattform fähig sind.

Donnerstag, Mai 28 2009

Lets do it the Mac way...

Das Schöne an Linux? Man findet immer wieder neue tolle Sachen. Heute habe ich zum ersten Mal den Avant-Window-Navigator (AWN) getestet. Dieser stelle eine Leiste mit Shortcuts, Launchern und kleinen Applets zur Verfügung, wie man es vom Mac her kennt. Nach einigem herumprobieren ist die Leiste nur für mich ein vollwertiger Ersatz für die etwas langweilige standart Fensterleiste von Ubuntu geworden. Ausserdem steht so auch mehr Platz für zum Beispiel Browserfenster zur Verfügung, denn die Leiste entfernt sich auf Wunsch von selbst oder sitzt einfach über dem entsprechenden Window. Laufende Programme sind dezent mit einem kleinen Pfeil versehen und lassen sich einfach durch einen Klick wieder maximieren oder eben minimieren. Die Bar ist wirklich komfortabel und bietet auch bei vielen geöffneten Fenstern noch einen guten Überblick. Wer die Bar testen möchte, findet sie bei Ubuntu in den Repositories. Weitere Infos gibts hier https://launchpad.net/awn .

Montag, Mai 18 2009

Ubuntu One

Ubuntu One, das MobileMe Pendant der Linux- genauer gesagt der Ubuntuwelt geht an den Start. Ziel ist es, möglichst einfach Daten, Einstellungen, Termine und Co auf mehreren Computern zu nutzen und einfach zu synchronisieren. Dabei ist Ubuntu One ist mehr als nur eine einfache Datenablage,  es geht einen großen Schritt in Richtung Cloud Computing, was Client/Server Technologien in das Betriebssystem nahtlos integrieren soll. Ausserdem soll Ubuntu One zur Finanzierung und zur Förderung der Ubuntu-Entwicklung beitragen, hierfür werden 10GB Accounts für 10$ pro Monat angeboten. Noch befindet sich Ubuntu One in der Beta Phase, jedoch kann man sich zum Testen einladen lassen, man benötigt lediglich einen Launchpad Account. Wer Interesse hat, sollte [HIER] vorbeischauen.

Donnerstag, Mai 14 2009

Tanze Samba mit mir...

Wie man vielleicht vermutet möchte ich mich heute nicht über das berühmte Lied auslassen, sondern über die Software Samba. Die ist für Netzwerkfreigaben verantwortlich, sodass auch Windows PCs auf Dateien auf Linux Rechnern zugreifen können. Die Einrichtung von Samba ist wirklich ganz simpel, zunächst muss das Paket samba aus den Repositiories installiert werden. Das geschieht durch zb. sudo apt-get install samba in der Konsole. Natürlich kann das je nach System auch mit einem beliebigen anderen Paketmanager geschehen. Ist Samba installiert, kann es mit der Konfiguration weitergehen. Dazu öffnen wir die Datei /etc/samba/smb.conf in unserem favourite Editor. Zum Beispiel so sudo gedit /etc/samba/smb.conf. Wer möchte kann sich vorher eine Sicherheitskopie der Datei anlegen. In den [global settings] legen wir zuerst die Arbeitsgruppe fest in der das Share zu finden sein soll, also zum Beispiel workgroup = Arbeitsgruppe. Zusätzlich gibts hier noch viele andere Einstellungen, die uns aber für unsere Freigaben erstmal nicht interessieren. Um also ein Share anzulegen legen wir ganz unten in der Datei folgenden Beispieleintrag an: [Meine-Freigabe] comment = Dies ist meine Sambafreigabe path = /home/user/freigabe read only = no guest ok = yes Damit sind wir schon fast fertig. Wichtig ist, dass read only auf no steht, denn ansonsten haben wir kein Schreibrecht auf der Freigabe, auch guest ok muss zwingend auf yes stehen, denn sonst können wir die Freigabe zwar sehen aber nicht auf sie zugreifen. Jetzt können wir die Datei speichern und schließen. Damit die neue Freigabe nun auch erscheint, muss der samba Dienst neugestartet werden. Das tun wir mit sudo /etc/init.d/samba restart. Jetzt sollte unsere Freigabe in der definierten Workgroup erscheinen und ein Zugriff darauf möglich sein. Natürlich ist es nicht immer von Vorteil einen Ordner freizugeben, auf den "Hinz und Kunz" zugreifen darf. Aus diesem Grund sollten wir die Freigabe schützen und zwar mit Benutzernamen und Kennwort. Ich gehe hier mal davon aus, dass der Benutzer auf dem Linux System schon existiert. Falls nicht, muss der vorher noch angelegt werden. Im Prinzip sieht unsere Freigabendefinition in der /etc/samba/smb.conf ähnlich aus wie vorher, allerdings gibts ein paar kleine Änderungen: [Home Malte] comment = Maltes Remote Directory path = /home/malte valid users = malte create mask = 0770 directory mask = 0770 writeable = yes guest ok = no browsable = yes valid user steht hier für den lokalen User auf dem Linuxsystem, der Zugriff auf das Share bekommen soll. In obigem Falle bin das ich. Mit create mask und directory mask weisen wir dem Share Berechtigungen a la chmod zu, also volle Berechtigung für root und für mich (770). Die 0 am Anfang gibt an ob es sich um ein Verzeichnis handelt, oder nicht. Natürlich ist in diesem Falle guest ok = no, denn das ist ja genau das was ich nicht möchte. Mit der Option force group = <gruppe> , die ich jetzt hier nicht verwendet habe, ist es möglich einer bestimmten Gruppe Zugriff auf das Share zu gewähren. Natürlich gibt es noch etliche weitere Optionen um Zugriffe zu gewähren oder einzuschränken, jedoch sollten die in normalen privaten Umgebungen nicht von nöten sein. Das richtet sich mehr an Firmen mit einer Vielzahl von Benutzern und Active Directory usw.

Montag, Mai 4 2009

Windows Server - R.I.P.

winubuDie letzte Bastion der komerziellen Betriebssysteme verlässt mein Haus. Heute habe ich begonnen den schon lange im Dienst befindlichen Windows 2003 Server durch einen Linux Server zu ersetzen und damit nur noch Mircosoft-freie Rechner zu besitzen. Hier kommt die Ubuntu Server Edition zum Einsatz, die auf einem Pentium 4 mit 2,8Ghz läuft, sprich meinem alten Desktop Rechner. Neben Musiksharing via DAAP soll der Server als Dateiablage und Backupsystem fungieren, ausserdem noch als DHCP Server und Videostreaming Server. Dies klappt eigentlich alles prima und die Konfiguration ging tatsächlich schneller und leichter von der Hand als ich gedacht hatte, ausserdem findet man wirklich tonnenweise Hilfe im Netz falls es doch mal irgendwo klemmt. Auch die Windows Clients, die ich testweise in einer VM gestartet habe kommen gut zurecht. Ein kleines Problem scheint es allerdings mit Clients zu geben, die auf Samba Shares zugreifen wollen, aber eine statische IP Adresse besitzen, denn die haben komischerweise keinen Zugriff über network:/// bzw. die "Netzwerkumgebung", sonder nur per Direktzugriff auf die IP. Schauen wir mal was noch wird, aber bisher bin ich wirklich sehr zufrieden.

Mittwoch, April 29 2009

ia32-lib, apt und debian

Dieser Titel mag beim ersten Lesen etwas verwirren, doch Aufklärung folgt sofort. Um i386 Pakete auf einem AMD64 System nutzen zu können, werden die ia32 Bilbliotheken benötigt. Ohne viel zu überlegen tat ich dies und installierte dabei ia32-apt-get was sich später als fataler Fehler herausstellen sollte. Natürlich war ich mir meines Fehlers nicht bewusst und arbeitete derweil fröhlich mit dem Rechner weiter. Als ich jedoch auf updates prüfen wollte und im Terminal sudo apt-get update eingab, fühlte sich mein "altes" Apt nicht mehr verantwortlich und ia32-apt-get sprang sattdessen ein. Zuerste aktualisierte es seine Quellen, allerdings nicht wie gewohnt die Ubuntu Sources, sondern Debian Sid Sources! Danach fing apt an sämtliche Bibliotheken unzukonvertieren (nach 32-bit??), was ich schleunigst abbrach. Sofort prüfte ich die sources.list, doch hier war alles normal, kein Anzeichen für irgendwelche Debian Quellen irgendwo. Nach einiger Suche stellte ich fest, dass der Übeltäter ia32-apt-get sein musste und deinstallierte (purge) es. Endlich klappte auch wieder apt-get update und nach dem Entfernen der plötzlich vorhandenen i386 Quellen war alles wieder wie gewohnt. Schock abgwendet

Sonntag, April 26 2009

Maus- und Tastaturmacros mit xmacro

Man muss häufiger bestimmte Tastatur und Mauseingaben wiederholen. In manchen Fällen lohnt sich da der Einsatz eines Programms, welches die Eingaben aufzeichnet und dann bei Bedarf wieder abspielt. Ein solches Programm ist zum Beispiel xmacro, es besteht im wesentlichen aus 2 Teilprogrammen xmacroplay und xmacrorec bzw. xmacrorec2. Um nun ein Macro aufzuzeichnen nutzen wir den Befehl xmacrorec2 > meinmacro . Wir nutzen an dieser Stelle xmacrorec2, denn xmacrorec ist für entfernte Desktops gedacht und für unseren Zweck uninteressant. Nun muss nur noch eine Taste ausgewählt werden um das Aufzeichnen des Scripts zu stoppen,"ESC is a good choice" also nehmen wir diese auch. Nachdem wir mit der Aufzeichnung fertig sind, drücken wir ESC und unsere Tastatur und Mausbewegungen sind in der Datei meinmacro abgespeichert. Um das aufgezeichnete Macro abzuspielen nutzen wir den Befehl xmacroplay :0.0 < meinmacro ,welches die in meinmacro gespeicherten Aktionen auf Desktop 0 ausführt. Da die Aktionen ohne Verzögerung abgespielt werden, kann es von Nutzen sein Verzögerungen zu benutzen. Dazu wird xmacroplay einfach noch das -d Flag mitgegeben gefolgt von der Verzögerung in Milisekunden. Um unser Macro mit 50ms Verzögerung nach jedem Befehl abzuspielen schreiben wir also folgendes: xmacroplay -d 50 :0.0 < meinmacro Damit können wir uns nun lästige Klickerei oder Tastatureingaben sparen. Das Programm findet sich in den Standart Ubuntu Repositories, oder bei Sourceforge.net. xmacro sourceforge

Donnerstag, April 23 2009

Ubuntu Jaunty 9.04

Heute wurde die Final Version von Ubuntu 9.04 (Jaunty Jackalope) veröffentlicht. Im Gegensatz zur RC1 hat sich nur wenig verändert, wobei ich sagen muss dass auch die RC1 bei mir schon super lief! Es gibt viele schöne neue Designs und auch die komplett überarbeitete Notification Area macht wirklich etwas her. Auch mehrere Programmupdates wie z.b. OpenOffice 3 sind mit dabei. Probierts am besten selbst, die aktuelle Version gibts hier: http://releases.ubuntu.com/releases/9.04/ Infos und Co gibts wie immer unter www.ubuntu.com

Mittwoch, April 22 2009

Adobe Flashplayer 64-bit Alpha

Ich kann nur jedem der die AMD64 Architektur unter Linux nutzt, die aktuelle Alpha der libflashplayer.so (Flashplayer 10) von Adobe zu probieren! Ich für meinen Teil hatte immer ein paar nervige Aussetzer bei der 32bit Variante und die Performance war einfach nicht das, was ich mir unter flüssigem Arbeiten vorstelle. Die 64bit Variante läuft dagegen flüssig und ohne Aussetzer einwandfrei! Die aktuelle Version gibts direkt bei Adobe (KLICK) als Tarball, aber keine Angst darin ist nur die Library libflashplayer.so welche man einfach im Verzeichnis /usr/lib/adobe-flashplugin/ unterbringt, nachdem man vorher die alte Dateiversion gesichert hat. Das sollte es auch schon gewesen sein und dem Flashgenuss dürfte nichts mehr im Wege stehen!

Dienstag, April 21 2009

Vertex Reloaded

Nachdem ich nun endlich Ersatz für meine defekte Vertex (direkt aus den USA per UPS) erhalten habe, war ich doch sehr gespannt, wie sich die Neue gegenüber der Alten schlägt. Als erstes prüfte ich die Firmware und stellte fest, dass nicht die ganz neue 1370 (Version 1.10) installiert war, sondern die Vorgängerversion. Da die neuste Firmware das ATA Trim Command implementiert, welches ab Kernel 2.6.28 in selbigem integriert ist, führte ich vor der großen OS Installation noch schnell das Firmware Update aus, das innerhalb von knapp einer Minute beendet war. Hier und da noch ein paar Sicherungen gemacht, Ubuntu Jaunty RC1 gebootet und dann konnte es losgehen, zuerst die Platte getrimmt und dann ein ext4 Dateisystem aufgespielt. So ausgerüstet wurde es Zeit für den ersten kleinen Speedtest: 228MB/s Readspeed mit O_Direct!!! WOOOW! An dieser Stelle war mir bewusst, dass diese Platte augenscheinlich völlig in Ordnung sein musste und ihren defekten Bruder gerade mit doppeltem Speed überholt hatte! Also schnell die Installation gestartet und nach wenigen Minuten bekam ich dieses zu sehen, den ersten kompletten Systemstart mit der neuen SSD: Nachdem ich alles konfiguriert und eingerichtet hatte, schickte ich die Platte noch mal durch den Speedtest, diesmal allerdings schaffte sie nur noch 195MB/s. Dieses Phänomen hatte ich vorher auch schon bei meiner alten defekten SSD beobachtet: Läuft das OS auf der SSD geht der Speed etwas in die Knie, was sich bei der Systemgeschwindigkeit allerdings kaum auswirkt. Insgesamt bin ich nun wirklich zufrieden, zum einen mit der SSD und zum anderen mit einem wirklich gelungenem neuen Ubuntu (wenn auch nur RC). Vorhergegangene Artikel Vertex First Review SSD Ade!

Samstag, April 18 2009

easystroke - Mausgesten mit Linux

gestenEigentlich war ich nie besonderer Freund von Mausgesten, doch wie ich gemerkt habe gewöhnt man sich doch sehr schnell an den Komfort. Bei Ubuntu findet sich das Programm easystroke Gesture Recognition in den Standart-Repositories. Das Programm ist wirklich lightweight und absolut einfach zu konfigurieren und zu bedienen. Einfach den Befehl eingeben, benennen und eine Geste aufzeichnen, die den Befehl anstoßen soll. Ich habe mir mittlerweile einige Funktionen zusammengebastelt die das Arbeiten wirklich erleichtern. Zum Beispiel eine Geste zum Schließen eines aktiven Fensters ist sehr von Nutzen, da man nicht erst auf das kleine X in der Ecke klicken muss, sondern einfach in der Mitte des Bildschirms eine Bewegung ausführt. Dies sind zwar alles keine lebenswichtigen Dinge, aber trotzdem eine gewisse Erleichterung, da man ja doch recht viel mit der Maus arbeitet. Easystroke bietet die Möglichkeit Tastenanschläge zu simulieren, Befehle auszuführen oder zu scrollen, eigentlich recht selbsterklärend, wenn man sich einmal eingearbeitet hat. Erkannte Gesten werden bei Aktionsausführung als kleine Grafik angezeigt und bleiben als "Icon" im Infobereich angezeigt. Der Screenshot oben zeigt übrigens meine momentane Gestenauswahl zu der jedoch mit Sicherheit noch einige dazu kommen werden.

Sonntag, April 5 2009

Bastel dir dein Linux

SUSEstudio.com bietet die Möglichkeit eine Linux CD nach eigenen Wünschen zu basteln. Per Weboberfläche klickt man sich die gewünschten Pakete und Software zusammen, erledigt Einstellungen und erhält am Ende ein ISO Image zum Download. Leider befindet sich SUSEStudio noch in der Alpha Phase, weswegen zur Zeit nur eingeladene Nutzer CDs basteln dürfen. Sehr empfehlenswert ist auf jeden Fall der Screencast auf der Website. Screenshots und eine genaure Betrachtung gibts HIER. http://susestudio.com

Freitag, März 13 2009

OCZ Vertex SSD - Review

dsc00116Ich sage nur Wahnsinn! Nachdem die Vertex gestern endlich (nach fast 3 Monaten Wartezeit)angekommen ist, bin ich wirklich zufrieden und muss sagen: das Warten hat sich gelohnt, doch dazu später mehr. Die OCZ Vertex hat die Größe einer normalen 2,5" Notebookfestplatte und wiegt etwas weniger als ihre Scheibenkollegen. Vorformatiert war die Platte mit einem NTFS System und erstaunlicherweise besitzt sie eine Kapazität von 32GB statt nur 30GB, anscheinend wurde noch etwas nachgelegt. Wie schon im vorherigen Artikel erwähnt schafft die Vertex nun über 200MB/s Lesespeed und bis zu 160MB/s Schreibspeed. Die Platte wurde sofort von meinem BIOS erkannt und es gab nichts zu meckern, Ubuntu-Installation gestartet und los gings. ReiserFS war meine Wahl fürs Dateisystem, was sich aber als nich besonders schnell herausstellte. Auf der Platte selbst habe ich bei dieser Installation auch keinen Swap Speicher angelegt, vielleicht ein Fehler? Irgendwie habe ich es auf jeden Fall geschafft, weiss der Geier wie, den Bootloader zu zerschiessen und die Partitionstaballe zu zerstören (Grub Error 16, dann 17 und dann 5). Dumm gelaufen! Vermutlich hing das mit meinen Parallelinstallationen zusammen, man will ja schliesslich fertig werden ;) ! Naja, was blieb mir anderes übrig als das System erneut aufzuspielen. Diesmal legte ich allerdings die Swap Partition an und formatierte die Root Partition mit ext3. Einige werden bestimmt an dieser Stelle aufschreien, ein Journalling FS auf eine SSD zu schreiben, ich habe es trotzdem getan! Die Installation ging recht zügig von statten, jedoch nicht viel schneller als bei einer normalen Festplatte auch, Flaschenhals ist hier das CD-Laufwerk. Der erste Systemstart verlief schon um ein vielfaches schneller als von meiner langsamen normalen HDD. Nach einigen Tweaks die ich später noch vorstelle wurde es noch ein wenig schneller. dsc00117Insgesamt lässt sich mit der SSD sehr gut arbeiten, Programme starten sofort bzw nach sehr kurzer Zeit, abgesehen von Programmen die Unmengen an Configs im /home Verzeichnis lagern, denn das liegt auf der normalen Platte. Es stellt sich ein komplett anderes Arbeitsgefühl ein, weil Zugriffe wirklich schnell von statten gehen. Ein kurzer Speedtest mit hdparm -t /dev/sda brachte beachtliche 151MB/s Buffered Read zu Tage, zwar noch nicht 200MB/s aber das sind wohl sowieso eher Theoriewerte.(EDIT: Die Platte war defekt! Die neue schafft 230MB/S lesen!) Bevor ich zu den Tweaks und Optimierungen für die Platte weitermache, muss ich noch sagen, sehr empfehlenswerte und vor allem schnelle Platte! Und das Schönste daran ist, sie ist absolut leise, auch bei starken Zugriffen! Zuerst will ich die Lebensdauer der Platte verlängern, was eigentlich nicht unbedingt nötig ist, denn das heutige Wear-Leveling der Platten ist mittlerweile so gut geworden, dass man sie nur sehr schwierig "klein kriegt" (bei 50GB Schreiben pro Tag hält die Platte 25Jahre!). Da der Ubuntukernel standartmäßig Zeitstempel  an die Dateien heftet, sprich zuletzt gelesen / geändert, verursacht das natürlich unnötige Schreibzugriffe. Um das zu unterbinden habe ich in die fstab bei meiner SSD die Option relatime in noatime geändert. Meine Zeile sieht nun so aus: UUID=6d526b86-48a1-4817-98df-7b4f6d20e9f5 /               ext3    noatime,errors=remount-ro 0       1 Natürlich ist kaum ein System auf den Einsatz von SSD Festplatten optimiert, auch nicht Ubuntu. Darum sollte noch der I/O Scheduler für die SSD geändert werden. Der ist standartmäßig auf cfq (completly fair queing) eingestellt, was allerdings beim Einsatz von SSDs keinen Sinn macht, da hier im Prinzip die Schreib- und Lesvorgänge nicht extra koordiniert werden müssen, sonder sofort geschreiben werden können. Den aktuellen Scheduler für seine Platte, kann man sich mit cat /sys/block/sda/queue/scheduler ausgeben lassen. Der Wert in den eckigen Klammern stellt den aktuellen Scheduler dar. Um ihn zu ändern geben wir als Root folgendes ein: echo noop > /sys/block/sda/queue/scheduler Um diese Änderung permanent zu machen, sollten sie in die rc.local eingetragen werden. Das kann mit folgendem Befehl geschehen: sudo gedit /etc/rc.local Hier vor dem exit0 den Schedulerbefehl von oben eintragen. Natürlich gibts noch andere Tweaks und Optimierungen, aber diese halte ich für die wichtigsten. Wer noch etwas mehr wissen möchte kann hier oder hier mal vorbeischauen. Abschliessend will ich noch kurz sagen, dass diese SSD wirklich sehr empfehlenswert ist und wirklich ihr Geld wert!

Mittwoch, Februar 18 2009

Open Source und die Menschen

opensource-communismFast jeder nutzt Firefox oder Thunderbird, doch immernoch kursiert anscheinend die Meinung "Was nix kostet kann nix taugen", obwohl schon diese beiden Programme das Gegenteil zeigen. Nimmt man als Beispiel die kostenlose Office Suite OpenOffice, die 1 zu 1 de selben Möglichkeiten bietet wie überteuerte Software von Mircosoft, stellt sich die Frage warum bleiben die Leute ihrer Software treu? Ich kenne Leute die lieber mit einer Word97 Version arbeiten, als eine Nagelneue OO-Writer Version aufzuspielen. Doch was verursacht eine solch starke Bindung? In erster Linie wohl die Angst vor Inkompatibilität und Designveränderung. Doch genau hier sollte man lieber die freie Alternative wählen, denn OO (OpenOffice) zum Beispiel unterstützt die gleichen Dokumentenformate wie sein komerzieller Bruder und liest sogar mehr als Word. Ich möchte nicht sagen, das Open Source Software immer das Nonplusultra ist, aber man kommt auch auf diesem Weg gut ans Ziel. Nehmen wir zum Beispiel die freie Grafiksoftware Gimp, dessen Pendant in der komerziellen Welt Adobe Photoshop darstellt. Ist man ehrlich mit sich selbst werden die wenigsten privaten Nutzer eine Lizenz für Photoshop besitzen, denn die kostet mehrere 100$. Klar ist der Funktionsumfang von Gimp nicht ganz so enorm wie der von Photoshop, aber für die meisten, selbst (semi)professionelle User, sollten die Funktionen reichen. Doch warum kaufen die Leute lieber teure Produkte statt freie Software zu nutzen? Unbekannte Alternativen? Unbehagen? Angst vor Fehlern? Ich weiss es nicht...

- Seite 1 von 3