Donnerstag, Mai 12 2011

Der verflixte lila-blank-screen-post-Grub Fehler

Da es anscheinend kaum jemanden zu geben scheint der das folgende Problem mit dem Grub2 Bootloader hat/gelöst hat, will ich es mal auf diesem Weg versuchen; Vielleicht hat ja jemand eine passende Lösung parat? Nach der (Neu)Installation von Ubuntu Natty Narwhal und dem damit verbundenen Reinstall des Grub2 Bootloaders  fingen die Probleme an. Eigentlich kein wirkliches Problem, aber nervig allemal: Nach der Auswahl des Bootmenüeintrags verschwindet das Menü und Grub hängt nun gut 10 bis 15 Sekunden fest, dabei bleibt der Bildschirm komplett lila (Im Prinzip verschwindet nur der Text vom Menü). Der Rechner tut jedoch die ganze Zeit lang nichts! Dann lässt sich der restliche Bootprozess in der Konsole ablesen, jedoch keine Fehlermeldung oder ähnliches. Plymouth habe ich deaktiviert um das Problem sicher eingrenzen zu können. Auch an den Grafiktreibern kann es nicht liegen, da ich statt der proprietären ATI Treiber, die freien radeon Treiber verwende. Ich habe nun schon mit einigen Kernelparametern und Grub Optionen herumgespielt, viel gegoogelt und gelesen, jedoch lies sich das Problem bisher nicht lösen. Auch mit bootchart konnte ich nichts ungewöhnliches feststellen (...klar eigentlich, das Problem tritt ja vorher auf...). Für Tipps und Ideen bin ich dankbar!

Dienstag, Juli 6 2010

Lucid, der ATI Treiber, KMS und Performance

Bisher gab es nie Probleme mit der Installation eines proprietären Grafiktreibers für meine Onboard ATI Radeon HD3300, was sich aber in Ubuntu Lucid Lynx geändert hat. Nach dem Update von Karmic auf Lucid und dem Herunterladen des Treibers über das Applet Hardware Treiber erhielt ich einen bunten Brei an Farben und Linien, welcher sich auch noch bei jeder Mausbewegung änderte und bewegte. Verschob man ein Fenster, konnte man Glück haben, dass man eventuell Menüs oder Schriften wieder korrekt angezeigt bekam. Da dies aber in keinster Weise akzeptabel war, verschwand der verbuggte Treiber schnell wieder von meinem System und ich versuchte mein Glück diesmal mit dem Exemplar von der ATI Seite: Doch auch hier das gleiche Bild (im wahrsten Sinne des Wortes). Also, alle proprietären Treiber wieder entfernt und wieder den standard Open Source "radeon" aktiviert. Bisher lief damit eigentlich alles einwandfrei, bis, ja bis auf eine Kleinigkeit die eigentlich nich so besonders auffällig war aber doch ein wenig störte. Das System war träge, nicht wirklich langsam, aber träge. Mal ein ruckeliges Scrollen auf Websites während die CPU Last nach oben schoss, mal kurze Programmaussetzer, nichts gravierendes aber trotzdem nervig. Also entschloss ich mich dem Problem auf den Grund zu gehen, was allerdings gar nicht so einfach war, denn was löste diesen Bug aus? Nach einiger Suche fand ich dann den Übeltäter: KMS (kernel-mode-settings), die neue Kernel-Videoarchitektur die eigentlich Probleme be- und die Performans anheben sollte. Laut Known Issues for Lucid Lynx eine bekanntes Problem was allerdings nur sehr selten auftreten soll - anscheinend gehöre ich auch zu diesen sehr seltenen Fällen. Die Lösung ist einfach und schnell gemacht: Um KMS zu deaktiviern muss die Datei /etc/default/grub editiert werden. An der Stelle GRUB_CMDLINE_LINUX muss die Option nomodeset hinzugefügt werden. Anschliessend muss noch ein sudo update-grub ausgeführt werden um die Änderung zu übernehmen. Nach einem Reboot ist das Problem behoben.

Samstag, Mai 22 2010

Ubuntu Server und die neuen Netzwerkkarten

Nachdem in meinem Server eine Netzwerkkarte ausgefallen war und ausgetauscht werden musste, bestellte ich direkt zwei neue. Schnell waren die Alten ausgetauscht und die Neuen eingebaut, doch nach dem Start des Servers Ernüchterung: Neben der auf dem Mainboard verbauten Netzkarte wurde nichts weiter gefunden! ifconfig gab keine Auskunft über die Netzkarten und auch der Versuch die Karten per ifup zu aktivieren schlug fehl. Komisch eigentlich, denn lspci bewies eindeutig, dass die Karten eingesteckt waren und laut Logs trat auch kein Fehler auf. Nach einiger Suche stiess ich auf die Lösung: Ubuntu legt in der Datei /etc/udev/rules.d/70-persistent-net.rules Informationen über Netzkarten, deren Namen, Hardwareadresse usw. ab. Da dort noch die alten Netzkarten als eth1 respektive eth2 eingetragen waren und die Neuen unter eth3 und eth4 geführt wurden, schien Ubuntu sie nicht weiter zu beachten. Nach dem Entfernen der Einträge der alten Karten und Anpassen der Namen sind die Karten nun wieder da und alles läuft wieder ohne Probleme.

Montag, Januar 11 2010

Schluss mit ext4 und 64 BITte nicht mehr...

Einge Zeit musste ich mich nun schon mit plötzlichen Systemfreezes herumärgern, die wohl scheinbar durch das Dateisystem ext4 hervorgerufen werden. Weder Logs noch etwas anderes konnte ich als andern Übeltäter identifizieren und so musste ext4 auf meiner Root SSD dem betagten, aber stabilen ext3 weichen. Wo ich schonmal dabei war, nutzte ich gleich die Gelegenheit um mich gleich auch von der 64bit Architektur zu trennen und die 32bit Version von Ubuntu Karmic mit PAE (Physical Adress Extension) Kernel zu installieren. Nun kann ich auch endlich Adobe AIR Anwendungen benutzen und auch performanceseitig scheint die 32bit Variante schneller zu sein, als ihr 64bit Pendant. Einziges Manko, welches ich nachträglich noch beheben musste, waren Probleme bei der Lüfterregelung. Aus irgendeinem Grund schien der Lüfter durchweg mit ca 80% Geschwindigkeit zu drehen, was den Rechner natürlich enorm laut machte. Mithilfe von lm_sensors bzw. pwmcontrol habe ich den Lüfter jetzt manuell eingestellt und nun herrscht glücklicherweise wieder Ruhe.

Samstag, September 5 2009

Alternative Linux mirware für den violet mir:ror

Wer den mir:ror von Violet unter Linux betreiben möchte, wird schnell feststellen, dass einige Dinge nicht so schön funktionieren wie auf eine Mac oder unter Windows. Nehmen wir mal eins der wichtigesten Beispiele: das Ausführen von Scripten. Die aktuelle mirware Version kann leider nur mit Windows .bat - Scripten und Mac OS Scripten umgehen. Tiefergreifende Shell Skripte unter Linux sind leider nicht möglich. Doch findige Leute haben sich dieses Problems angenommen und eine eigene "mirware" namens erawrim speziell für Linux gebastelt. Es arbeitet auf der Konsole und legt für jedes RFID Tag einen eigenen Ordner im ~/.erawrim Verzeichnis an, dessen Namen man zu Beginn einmal festlegen muss. In dem jeweiligen Ordner befinden sich standartmäßig 4 Dateien: pose.sh (zeigen) und retire.sh (entfernen), zwei leere Skripte, die mit Leben gefüllt werden dürfen. Zudem noch die Dateien lasttime und times welche einmal das Datum der letzten Sichtung des Tags und die Anzahl der bisherigen Sichtungen des Tags enthält. Der große Vorteil ist nun natürlich, dass man komplett selbst bestimmen kann, welche Aktionen ausgeführt werden sollen, wenn die Tags auf den Mirror gelegt werden. Auch komplexe Shellskripe sind damit startbar und auch die Sprachausgabe lässt sich relativ leicht durch espeak oder mbrola nutzen. Für schöne optische Anzeigen kann man das Gnome Notification Framework nutzen. Ein wirklich großer Vorteil gegenüber der original mirware ist allerdings noch gar nicht beachtet worden: die Unabhängigkeit von violet und ihren Servern bzw. dem Internet, was die Erkennungs- und Ausführungsgeschwindigkeit enorm steigert. Da die Software bisher nur in Französisch mit französischer Dokumentation vorliegt, werde ich kurz erklären wie man erawrim installiert und lauffähig bekommt. 1) Zuerst die aktuelle Version aus dem SVN besorgen mittels: svn checkout http://erawrim.googlecode.com/svn/trunk/ erawrim-read-only 2) Nun in das Verzeichnis erawrim-read-only wechseln und mittels make && sudo make install kompilieren und installieren. 3) Nun den Mirror vom USB Anschluss trennen und den erawrim deamon mit erawrim_do start starten. 4) Jetzt wird man auf französisch aufgefordert den Mirror einzustöpseln und danach mit ENTER zu bestätigen. Hat alles geklappt wird dies durch z.B. Ouverture réussie: /dev/hidraw2 angezeigt. Möglich sind auch andere hidraw Geräte. 5) Das wars auch schon fast! Nun kann ein RFID Tag registriert werden. Legt man ein Tag auf den Reader, wird man aufgefordert einen Namen für das Tag/Objekt einzugeben. Diesen gibt man ein und bestätigt mit ENTER. Damit ist das Objekt registriert und die jeweiligen Skripte können nur im Ordner ~/.erawrim/<Objekt/RFID-Name>/ nach den eigenen Wünschen angepasst werden. Das Skript benötigt beim Start einmal Root Rechte für den Zugriff auf den Mirror. Tipps und Ideen gibts hier (auf Französisch): http://noog.fr/blog/2009/03/22/mirror-de-la-societe-violet-sous-linux/ Die erawrim Seiten bei google code: http://code.google.com/p/erawrim/

Donnerstag, August 6 2009

Multipath Routing und 2 DSL Leitungen

routingDie Anschaffung einer 2. DSL Leitung stellte mich vor folgendes Problem: Wie schaffe ich es, beide Leitungen zu benutzen und ihre Routen gemäß der Bandbreiten zu gewichten? Der Server, der diese Aufgabe erledigen sollte, war sowieso schon lange in Betrieb und benötigte nur eine kleine Umkonfiguration sowie ein wenig zusätzliche Hardware, sprich 2 Netzwerkkarten. Mein erster Versuch, das Multipath Routing mit 2 Netzkarten zu bewerkstelligen stellte sich als schwieriges Unterfangen ein und so baute ich kurzerhand eine 3. NIC ein. Was soll nun passieren und was passiert nicht? Multipath Routing bedeutet, dass die Daten die Möglichkeit bekommen, mehrere Wege (Paths) in ein Netz zu bekommen. Das suchen sie sich jedoch nicht selbst aus, sondern der Router (in diesem Fall der Server) entscheidet, welche Pakete über welche Route also welchen Internetanschluss laufen. Hierfür gibt es verschiedene Gewichtungsmöglichkeiten der einzelnen Routen die man nach Lust und Laune oder Bandbreite einstellen kann. Man nutzt also nur beide Leitungen abwechselnd nach festen Kriterien, bündelt aber nicht die Anschlüsse (bonding)! Ein Download nutzt weiterhin immer nur eine Leitung (load balancing)! Aber zum Technischen: Konfiguration: Vorneweg: Für sämtliche Befehle werden root Rechte benötigt! Es bietet sich also an, direkt in einer root-shell zu arbeiten! Vorraussetzung ist ein Linux PC / Server mit installiertem Paket iproute2. Zuerst legt man 2 neue Routing Tables in der Datei /etc/iproute2/rt_tables an, indem man am Ende folgendes einfügt 200     se555     #Routingtable für Verbindungen zu Router 1 201     v721      #Routingtable für Verbindungen zu Router 2 Die Namen für die einzelnen Tables können natürlich auch anders vergeben werden. Nun kommt die eigentliche Arbeit, das Einstellen der Routen. Hier gibt es mehrere Ansätze wo die Informationen hinterlegt werden sollen. Die einen plädieren für ein Script, ich konnte mich mehr mit dem Ansatz anfreunden, die Informationen direkt in die /etc/network/interfaces Datei einzutragen. Bei mir sieht die Datei wie folgt aus: iface eth0 inet static address 192.168.1.200 netmask 255.255.255.0 # Connection zu SE555 iface eth1 inet static address 192.168.1.199 netmask 255.255.255.0 post-up ip route add 192.168.1.1 dev eth1 src 192.168.1.199 table se555 post-up ip route add default via 192.168.1.1 table se555 post-up ip rule add from 192.168.1.199 table se555 post-down ip rule del from 192.168.1.199 table se555 # Connection V721 auto eth2 iface eth2 inet static address 192.168.1.198 netmask 255.255.255.0 post-up ip route add 192.168.1.2 dev eth2 src 192.168.1.198 table v721 post-up ip route add default via 192.168.1.2 table v721 post-up ip rule add from 192.168.1.198 table v721 post-down up rule del from 192.168.1.198 v721 Dabei gehören folgende IPs zu folgenden Geräten: eth0 192.168.1.200        LAN Interface eth1 192.168.1.199        Uplink zu Router 1 eth2 192.168.1.198        Uplink zu Router 2 192.168.1.1                       Router 1 192.168.1.2                       Router 2 Ist alles eingestellt, können die Interfaces hochgefahren werden mittels ifconfig eth1 up bzw. ifconfig eth2 up. eth0 sollte ja bereits up sein, sofern man per ssh verbunden ist. Sind nun alle Schnittstellen aktiv, kann die Konfiguration schnell mit ifconfig überprüft werden. Der Befehl ip route gibt Übersicht über das Routing der einzelnen Interfaces. Nun muss dem System nur noch mitgeteilt werden über welche Route, was geroutet werden soll und in welchem Verhältnis. In meinem Fall ist Anschluss 1 eine DSL6000 Leitung und Anschluss 2 eine DSL25000 Leitung. Die Bandbreite von A1 ist also knapp 1/4 von A2, darum sollen Pakete in diesem Verhältnis auf die Leitungen aufgeteil werden. Das Routing, bzw. die Verteilung der Pakete erfolgt nach Eingabe von: ip route add default scope global nexthop via 192.168.1.1 dev eth1 weight 25 nexthop via 192.168.1.2 dev eth2 weight 75 Damit sollte nun alles Funktionieren. Die default route wird nun auch angezeigt, wenn man ip route erneut zu rate zieht. Bei mir siehts wie folgt aus: 192.168.1.0/24 dev eth2 proto kernel scope link src 192.168.1.198 192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.200 192.168.1.0/24 dev eth1 proto kernel scope link src 192.168.1.199 192.168.122.0/24 dev virbr0 proto kernel scope link src 192.168.122.1 default nexthop via 192.168.1.1 dev eth1 weight 25 nexthop via 192.168.1.2 dev eth2 weight 75 Nun muss nur noch der DHCP Server so eingestellt werden, das als Router bzw. Gateway die 192.168.1.200, also das LAN Interface benutzt wird. Und voila, das Multipath Routing konfiguriert! Folgeartikel: http://maltekueppers.de/wp/?p=1356 ENDGÜLTIGE LÖSUNG: http://maltekueppers.de/wp/?p=1363 Quellen: http://lartc.org/howto/lartc.rpdb.multiple-links.html http://www.debian-administration.org/articles/377 http://wiki.ubuntuusers.de/Multiple_Uplink_Routing

Freitag, Juli 17 2009

Home Power Control

PollinK8IOEs ist vollbracht! Nach vielem Testen und Basteln habe ich es nun geschafft. Die K8 I/O von Pollin ist zusammengebaut und ist wider erwarten doch funktionstüchtig :). Nach anfänglichen Problemen mit dem USB to RS232 Kabel, welches jegliche Kommunikation mit der Karte verweigerte (Hinweis für mich: Solche Adapter sind Müll!), versuchte ich den COM Port zu nutzen welcher glücklicherweise mein Mainboard noch ziert. Doch auch der verweigerte in Zusammenarbeit mit der Karte seinen Dienst. Glücklicherweise fand ich an meinem Homeserver noch einen echten LPT Ausgang und damit sollte auch die Karte endlich funktionieren und ihren Dienst aufnehmen (Kleiner Hinweis: Die Karte scheint wirklich nur an echten LPT Ausgängen zu arbeiten!). Nach langem Suchen im Internet stieß ich auf den Quellcode für das Programm lpic, eine Software, welche das einfache Steuern der Karte unter Linux ermöglicht. Nachdem ich Programm und Karte nun auf Herz und Nieren getestet hatte, begann ich mit dem Auseinanderbauen der Funkfernbedienung und lötete Kabel an die Tasterkontakte um die mit der Relaiskarte schalten bzw. drücken zu können. Auch das funktionierte einwandfrei und die Fernbedienung schaltete per Relaiskarte die Steckdose. Dummerweise benötigt man pro Steckdose zwei Kanäle an der Relaiskarte, einen zum Schalten des Ein- und einen zum Schalten des Austasters, was aber nicht weiter stört, denn 4 Steckdosen reichen mir (vorerst) allemal. Ein weiteres Problem war die Entfernung des Servers bzw. der Fernbedienung zu den zu schaltenden Steckdosen, denn diese ist enorm hoch (20m durch Wände). Ein Wunder das die Dosen noch ein Signal erhaschen. pollink8io1 Nach einigem herumprobieren wurde es mir allerdings zu nervig, ständig für das Schalten einer einfachen Steckdose eine SSH Verbindung zum Server aufzubauen und dort mühevoll Befehle einzutippen. Dann kam mir eine Idee: Apache mit PHP! Da der Server sowieso mit einem Webserver ausgestattet war, musste ich ihn nur noch dazu bringen per PHP Shell Skripe auszuführen. Auch das klappte mit einigen Hürden irgendwann, sodass ich nun in der Lage bin sämtliche Steckdosen per Webinterface bzw. per Lan zu steuern. Das Script ist im Moment nur elementar, aber funktionsfähig. Mit Sicherheit werde ich noch einige Funktionen einbauen, die mir das Leben erleichtern bzw. das Steuern komfortabler Gestalten, aber fürs erste soll es so reichen. Hier meine Vorgehensweise: Bei Linuxforen.de fand ich folgenden C-Quellcode der unter GNU-GPL veröffentlicht wurde. Ich habe lediglich die "Fehler" behoben (siehe Thread):  lpic.c Kompiliert man nun das ganze mit gcc lpic.c -O -o lpic -Wall erhält man die compilierte lpic File, welche dann nach /usr/bin/ kopiert werden sollte. Ist dies geschehen, sollte man nun per lpic 8 toggle alle Relais auf der K8 IO schalten können. Dazu muss man übrigens root Rechte besitzen, da ansonsten eine Fehlermeldung erscheint. Funktioniert dies können wir uns um den Apache sowie die PHP Realisierung kümmern. Ich gehe davon aus, dass Apache mit PHP installiert ist und läuft. Da wir für die Ausführung des Scripts root Rechte benötigen, müssen wir zuerst www-data in der /etc/sudoers file hinzufügen. Dazu fügen wir die Zeile www-data ALL=NOPASSWD: /usr/bin/lpic hinzu und speichern die Datei. Dann legen wir uns im Webroot ein Verzeichnis an, welches unsere PHP Files beherbergen soll, ich habe es "steckdosen" genannt (also /var/www/steckdosen). Hier hinein kommen 2 Files, einmal eine index.php und eine steckdosen.php. Die index.php enthält ein simpeles Formular, welches die Eingaben an die eigentliche Funktionsdatei steckdosen.php weitergibt. Diese ruft dann unser Shellscript lpic mit entsprechenden Parametern auf, je nach Funktion. Da ich die "Taster" der Fernbedienung nur kurz drücken muss um die Steckdose schalten zu lassen, kann ich das Relais nach kurzer Zeit auch wieder öffnen (sonst würde ich die ganze Zeit das An-Signal weitersenden), dies geschieht durch erneuten Aufruf von lpic im php Code nach einer kurzen Pause von 2 Sekunden. Zusätzlich habe ich eine meta-refresh eingebaut, welches mich wieder zurück zur index.php bringt. So kann ich nun meine Steckdosen von der ganzen Welt :) aus übers Internet mit einfachsten Mitteln steuern. Verwendete Files: lpic.c Download index.php Download steckdosen.php Download Quellen: http://www.ip-phone-forum.de/showthread.php?p=749716 http://www.linuxforen.de/forums/showthread.php?t=198642&highlight=relais+software

Donnerstag, Juli 9 2009

Ubuntu One Betatest

Vor einiger Zeit hatte ich schon über das Ubuntu One Projekt berichtet. Nun habe ich endlich eine Invitation als offizieller Betatester bekommen und kann Ubuntu One ausgiebig testen. Nach hinzufügen eines PPA Keys und dem Herunterladen des Pakets ubuntu-one kanns losgehen. Startet man im Menü dann Ubuntu One, macht es sich durch ein Icon bemerkbar, bestehend aus einer Wolke und dem Ubuntu Logo, welches sich bei Synchronsationsaktivität dreht. Ausserdem wird im Homeverzeichnis ein eigener Ordner Names  "Ubuntu One" angelegt, der wiederum 2 Unterordner "My Files" und "Shared with me" enthält. Diese beiden Ordner werden dann synchronisiert, sobald man Daten hineinkopiert, wobei "Shared with me" Dateien enthält, die ein anderer User explizit mit einem anderen Teilt. Der Service an sich ist relativ schnell und arbeitet recht zuverlässig. Auch der Zugriff von Windows Rechnern via Web funktioniert gut, sofern man sich mit seinem Launchpad Account eingeloggt hat. Insgesamt macht Ubuntu One einen ganz ordentlichen Eindruck, integriert sich wirklich nahtlos in den Gnome Desktop und arbeitet angenehm im Hintergrund. Nichts desto trotz wäre die kostenpflichtige Variante für mich keine Überlegung wert, da es ja viele andere dieser Services, wie z.B. Dropbox gibt, die Multiplattform fähig sind.

Donnerstag, Mai 28 2009

Lets do it the Mac way...

Das Schöne an Linux? Man findet immer wieder neue tolle Sachen. Heute habe ich zum ersten Mal den Avant-Window-Navigator (AWN) getestet. Dieser stelle eine Leiste mit Shortcuts, Launchern und kleinen Applets zur Verfügung, wie man es vom Mac her kennt. Nach einigem herumprobieren ist die Leiste nur für mich ein vollwertiger Ersatz für die etwas langweilige standart Fensterleiste von Ubuntu geworden. Ausserdem steht so auch mehr Platz für zum Beispiel Browserfenster zur Verfügung, denn die Leiste entfernt sich auf Wunsch von selbst oder sitzt einfach über dem entsprechenden Window. Laufende Programme sind dezent mit einem kleinen Pfeil versehen und lassen sich einfach durch einen Klick wieder maximieren oder eben minimieren. Die Bar ist wirklich komfortabel und bietet auch bei vielen geöffneten Fenstern noch einen guten Überblick. Wer die Bar testen möchte, findet sie bei Ubuntu in den Repositories. Weitere Infos gibts hier https://launchpad.net/awn .

Montag, Mai 18 2009

Ubuntu One

Ubuntu One, das MobileMe Pendant der Linux- genauer gesagt der Ubuntuwelt geht an den Start. Ziel ist es, möglichst einfach Daten, Einstellungen, Termine und Co auf mehreren Computern zu nutzen und einfach zu synchronisieren. Dabei ist Ubuntu One ist mehr als nur eine einfache Datenablage,  es geht einen großen Schritt in Richtung Cloud Computing, was Client/Server Technologien in das Betriebssystem nahtlos integrieren soll. Ausserdem soll Ubuntu One zur Finanzierung und zur Förderung der Ubuntu-Entwicklung beitragen, hierfür werden 10GB Accounts für 10$ pro Monat angeboten. Noch befindet sich Ubuntu One in der Beta Phase, jedoch kann man sich zum Testen einladen lassen, man benötigt lediglich einen Launchpad Account. Wer Interesse hat, sollte [HIER] vorbeischauen.

Donnerstag, Mai 14 2009

Tanze Samba mit mir...

Wie man vielleicht vermutet möchte ich mich heute nicht über das berühmte Lied auslassen, sondern über die Software Samba. Die ist für Netzwerkfreigaben verantwortlich, sodass auch Windows PCs auf Dateien auf Linux Rechnern zugreifen können. Die Einrichtung von Samba ist wirklich ganz simpel, zunächst muss das Paket samba aus den Repositiories installiert werden. Das geschieht durch zb. sudo apt-get install samba in der Konsole. Natürlich kann das je nach System auch mit einem beliebigen anderen Paketmanager geschehen. Ist Samba installiert, kann es mit der Konfiguration weitergehen. Dazu öffnen wir die Datei /etc/samba/smb.conf in unserem favourite Editor. Zum Beispiel so sudo gedit /etc/samba/smb.conf. Wer möchte kann sich vorher eine Sicherheitskopie der Datei anlegen. In den [global settings] legen wir zuerst die Arbeitsgruppe fest in der das Share zu finden sein soll, also zum Beispiel workgroup = Arbeitsgruppe. Zusätzlich gibts hier noch viele andere Einstellungen, die uns aber für unsere Freigaben erstmal nicht interessieren. Um also ein Share anzulegen legen wir ganz unten in der Datei folgenden Beispieleintrag an: [Meine-Freigabe] comment = Dies ist meine Sambafreigabe path = /home/user/freigabe read only = no guest ok = yes Damit sind wir schon fast fertig. Wichtig ist, dass read only auf no steht, denn ansonsten haben wir kein Schreibrecht auf der Freigabe, auch guest ok muss zwingend auf yes stehen, denn sonst können wir die Freigabe zwar sehen aber nicht auf sie zugreifen. Jetzt können wir die Datei speichern und schließen. Damit die neue Freigabe nun auch erscheint, muss der samba Dienst neugestartet werden. Das tun wir mit sudo /etc/init.d/samba restart. Jetzt sollte unsere Freigabe in der definierten Workgroup erscheinen und ein Zugriff darauf möglich sein. Natürlich ist es nicht immer von Vorteil einen Ordner freizugeben, auf den "Hinz und Kunz" zugreifen darf. Aus diesem Grund sollten wir die Freigabe schützen und zwar mit Benutzernamen und Kennwort. Ich gehe hier mal davon aus, dass der Benutzer auf dem Linux System schon existiert. Falls nicht, muss der vorher noch angelegt werden. Im Prinzip sieht unsere Freigabendefinition in der /etc/samba/smb.conf ähnlich aus wie vorher, allerdings gibts ein paar kleine Änderungen: [Home Malte] comment = Maltes Remote Directory path = /home/malte valid users = malte create mask = 0770 directory mask = 0770 writeable = yes guest ok = no browsable = yes valid user steht hier für den lokalen User auf dem Linuxsystem, der Zugriff auf das Share bekommen soll. In obigem Falle bin das ich. Mit create mask und directory mask weisen wir dem Share Berechtigungen a la chmod zu, also volle Berechtigung für root und für mich (770). Die 0 am Anfang gibt an ob es sich um ein Verzeichnis handelt, oder nicht. Natürlich ist in diesem Falle guest ok = no, denn das ist ja genau das was ich nicht möchte. Mit der Option force group = <gruppe> , die ich jetzt hier nicht verwendet habe, ist es möglich einer bestimmten Gruppe Zugriff auf das Share zu gewähren. Natürlich gibt es noch etliche weitere Optionen um Zugriffe zu gewähren oder einzuschränken, jedoch sollten die in normalen privaten Umgebungen nicht von nöten sein. Das richtet sich mehr an Firmen mit einer Vielzahl von Benutzern und Active Directory usw.

Montag, Mai 4 2009

Windows Server - R.I.P.

winubuDie letzte Bastion der komerziellen Betriebssysteme verlässt mein Haus. Heute habe ich begonnen den schon lange im Dienst befindlichen Windows 2003 Server durch einen Linux Server zu ersetzen und damit nur noch Mircosoft-freie Rechner zu besitzen. Hier kommt die Ubuntu Server Edition zum Einsatz, die auf einem Pentium 4 mit 2,8Ghz läuft, sprich meinem alten Desktop Rechner. Neben Musiksharing via DAAP soll der Server als Dateiablage und Backupsystem fungieren, ausserdem noch als DHCP Server und Videostreaming Server. Dies klappt eigentlich alles prima und die Konfiguration ging tatsächlich schneller und leichter von der Hand als ich gedacht hatte, ausserdem findet man wirklich tonnenweise Hilfe im Netz falls es doch mal irgendwo klemmt. Auch die Windows Clients, die ich testweise in einer VM gestartet habe kommen gut zurecht. Ein kleines Problem scheint es allerdings mit Clients zu geben, die auf Samba Shares zugreifen wollen, aber eine statische IP Adresse besitzen, denn die haben komischerweise keinen Zugriff über network:/// bzw. die "Netzwerkumgebung", sonder nur per Direktzugriff auf die IP. Schauen wir mal was noch wird, aber bisher bin ich wirklich sehr zufrieden.

Mittwoch, April 29 2009

ia32-lib, apt und debian

Dieser Titel mag beim ersten Lesen etwas verwirren, doch Aufklärung folgt sofort. Um i386 Pakete auf einem AMD64 System nutzen zu können, werden die ia32 Bilbliotheken benötigt. Ohne viel zu überlegen tat ich dies und installierte dabei ia32-apt-get was sich später als fataler Fehler herausstellen sollte. Natürlich war ich mir meines Fehlers nicht bewusst und arbeitete derweil fröhlich mit dem Rechner weiter. Als ich jedoch auf updates prüfen wollte und im Terminal sudo apt-get update eingab, fühlte sich mein "altes" Apt nicht mehr verantwortlich und ia32-apt-get sprang sattdessen ein. Zuerste aktualisierte es seine Quellen, allerdings nicht wie gewohnt die Ubuntu Sources, sondern Debian Sid Sources! Danach fing apt an sämtliche Bibliotheken unzukonvertieren (nach 32-bit??), was ich schleunigst abbrach. Sofort prüfte ich die sources.list, doch hier war alles normal, kein Anzeichen für irgendwelche Debian Quellen irgendwo. Nach einiger Suche stellte ich fest, dass der Übeltäter ia32-apt-get sein musste und deinstallierte (purge) es. Endlich klappte auch wieder apt-get update und nach dem Entfernen der plötzlich vorhandenen i386 Quellen war alles wieder wie gewohnt. Schock abgwendet

Sonntag, April 26 2009

Maus- und Tastaturmacros mit xmacro

Man muss häufiger bestimmte Tastatur und Mauseingaben wiederholen. In manchen Fällen lohnt sich da der Einsatz eines Programms, welches die Eingaben aufzeichnet und dann bei Bedarf wieder abspielt. Ein solches Programm ist zum Beispiel xmacro, es besteht im wesentlichen aus 2 Teilprogrammen xmacroplay und xmacrorec bzw. xmacrorec2. Um nun ein Macro aufzuzeichnen nutzen wir den Befehl xmacrorec2 > meinmacro . Wir nutzen an dieser Stelle xmacrorec2, denn xmacrorec ist für entfernte Desktops gedacht und für unseren Zweck uninteressant. Nun muss nur noch eine Taste ausgewählt werden um das Aufzeichnen des Scripts zu stoppen,"ESC is a good choice" also nehmen wir diese auch. Nachdem wir mit der Aufzeichnung fertig sind, drücken wir ESC und unsere Tastatur und Mausbewegungen sind in der Datei meinmacro abgespeichert. Um das aufgezeichnete Macro abzuspielen nutzen wir den Befehl xmacroplay :0.0 < meinmacro ,welches die in meinmacro gespeicherten Aktionen auf Desktop 0 ausführt. Da die Aktionen ohne Verzögerung abgespielt werden, kann es von Nutzen sein Verzögerungen zu benutzen. Dazu wird xmacroplay einfach noch das -d Flag mitgegeben gefolgt von der Verzögerung in Milisekunden. Um unser Macro mit 50ms Verzögerung nach jedem Befehl abzuspielen schreiben wir also folgendes: xmacroplay -d 50 :0.0 < meinmacro Damit können wir uns nun lästige Klickerei oder Tastatureingaben sparen. Das Programm findet sich in den Standart Ubuntu Repositories, oder bei Sourceforge.net. xmacro sourceforge

Donnerstag, April 23 2009

Ubuntu Jaunty 9.04

Heute wurde die Final Version von Ubuntu 9.04 (Jaunty Jackalope) veröffentlicht. Im Gegensatz zur RC1 hat sich nur wenig verändert, wobei ich sagen muss dass auch die RC1 bei mir schon super lief! Es gibt viele schöne neue Designs und auch die komplett überarbeitete Notification Area macht wirklich etwas her. Auch mehrere Programmupdates wie z.b. OpenOffice 3 sind mit dabei. Probierts am besten selbst, die aktuelle Version gibts hier: http://releases.ubuntu.com/releases/9.04/ Infos und Co gibts wie immer unter www.ubuntu.com

Mittwoch, April 22 2009

Adobe Flashplayer 64-bit Alpha

Ich kann nur jedem der die AMD64 Architektur unter Linux nutzt, die aktuelle Alpha der libflashplayer.so (Flashplayer 10) von Adobe zu probieren! Ich für meinen Teil hatte immer ein paar nervige Aussetzer bei der 32bit Variante und die Performance war einfach nicht das, was ich mir unter flüssigem Arbeiten vorstelle. Die 64bit Variante läuft dagegen flüssig und ohne Aussetzer einwandfrei! Die aktuelle Version gibts direkt bei Adobe (KLICK) als Tarball, aber keine Angst darin ist nur die Library libflashplayer.so welche man einfach im Verzeichnis /usr/lib/adobe-flashplugin/ unterbringt, nachdem man vorher die alte Dateiversion gesichert hat. Das sollte es auch schon gewesen sein und dem Flashgenuss dürfte nichts mehr im Wege stehen!

Dienstag, April 21 2009

Vertex Reloaded

Nachdem ich nun endlich Ersatz für meine defekte Vertex (direkt aus den USA per UPS) erhalten habe, war ich doch sehr gespannt, wie sich die Neue gegenüber der Alten schlägt. Als erstes prüfte ich die Firmware und stellte fest, dass nicht die ganz neue 1370 (Version 1.10) installiert war, sondern die Vorgängerversion. Da die neuste Firmware das ATA Trim Command implementiert, welches ab Kernel 2.6.28 in selbigem integriert ist, führte ich vor der großen OS Installation noch schnell das Firmware Update aus, das innerhalb von knapp einer Minute beendet war. Hier und da noch ein paar Sicherungen gemacht, Ubuntu Jaunty RC1 gebootet und dann konnte es losgehen, zuerst die Platte getrimmt und dann ein ext4 Dateisystem aufgespielt. So ausgerüstet wurde es Zeit für den ersten kleinen Speedtest: 228MB/s Readspeed mit O_Direct!!! WOOOW! An dieser Stelle war mir bewusst, dass diese Platte augenscheinlich völlig in Ordnung sein musste und ihren defekten Bruder gerade mit doppeltem Speed überholt hatte! Also schnell die Installation gestartet und nach wenigen Minuten bekam ich dieses zu sehen, den ersten kompletten Systemstart mit der neuen SSD: Nachdem ich alles konfiguriert und eingerichtet hatte, schickte ich die Platte noch mal durch den Speedtest, diesmal allerdings schaffte sie nur noch 195MB/s. Dieses Phänomen hatte ich vorher auch schon bei meiner alten defekten SSD beobachtet: Läuft das OS auf der SSD geht der Speed etwas in die Knie, was sich bei der Systemgeschwindigkeit allerdings kaum auswirkt. Insgesamt bin ich nun wirklich zufrieden, zum einen mit der SSD und zum anderen mit einem wirklich gelungenem neuen Ubuntu (wenn auch nur RC). Vorhergegangene Artikel Vertex First Review SSD Ade!

Montag, Februar 16 2009

CIFS VFAT Shutdown Error

Wer feste Netzwerkfreigaben in seinem System eingebunden hat, die auf Samba basieren, kennt vielleicht diese oder eine ähnliche Fehlermeldung:
CIFS VFS: server not responding. 
No response for cmd 50 ...
So oder so ähnlich. Eigentlich nicht weiter schlimm, würde dies das Herunterfahren des Rechners nicht enorm herauszögern. Das Problem liegt darin, dass das Netzwerk beim Shutdown bereits deaktiviert wurde bzw. die Module entladen, die Cifs Freigabe aber immernoch gemountet ist. Da die Freigabe auf Grund der nicht mehr vorhandenen Netzverbindung nicht mehr getrennt werden kann, kommt es zu diesem Fehler. Um ihn zu beheben muss dafür gesorgt werden, dass die umountnfs.sh früher ausgeführt wird (in S14 statt erst in S31). Dazu geben wir folgendes ein: sudo mv /etc/rc0.d/S31umountnfs.sh /etc/rc0.d/S14umountnfs.sh sudo mv /etc/rc6.d/S31umountnfs.sh /etc/rc6.d/S14umountnfs.sh Danach sollte das System ohne Murren herunterfahren und das Networkshare ordentlich trennen.

Montag, Februar 9 2009

Firefox Speed Up

Diesen Tipp habe ich im Zusammenhang mit SSD Festplatten gefunden um den Schreibzugriff darauf zu minimieren. Allerdings ist das Prinzip eine wirklich gut Idee, die auch bei normalen Festplatten einen Geschwindigkeitsschub beim Surfen hergibt,  die Verlagerung des Firefox Cache auf die RamDisk! Hierzu müssen allerdings erst einige Dinge getan werden. Zuerst öffnen wir die fstab als root: sudo gedit /etc/fstab Am Ende der Datei fügen wir die folgende Zeile ein, um die RamDisk nutzbar zu machen: tmpfs /tmp tmpfs defaults,noatime,mode=1777 0 0 Nach einem Neustart, sollte uns der Befehl df Auskunft über das frisch gemountete tmpfs geben: tmpfs 513472 30320 483152 6% /tmp Firefox legt den Cache standartmäßig im /home Verzeichnis ab. Um den Cache nun nach /tmp zu legen, starten wir eine Firefox Instanz und geben in der Adresszeile about:config ein und bestätigen kurz die Sicherheitswarnung. Als nächstes müssen wir eine neue Variable anlegen, dazu klicken wir irgendwo mit der rechten Taste auf eine frei Stelle und klicken auf Neu --> String. Als Name der neuen Variable wählen wir browser.cache.disk.parent_directory und geben als Wert den String /tmp an. Starten wir jetzt neu, nutzt Firefox die RamDisk zur als Cacheablage, was sich bei mir wirklich sehr auszahlt, sowohl bei Geschwindigkeit, als auch beim Festplattengeräusch ;)

Montag, Januar 26 2009

24p Wiedergabe mit dem PC

Da dies anscheinend mehrere Leute interessiert, möchte ich kurz ein paar Worte über die 24p-Wiedergabe von bzw.  mit einem PC verlieren. Erste Vorraussetzung um 24p am TV wiederzugeben muss der Fernseher und die Grafikkarte diese Bildwiederholfrequenz natürlich unterstützen (24p bedeutet Bildwiederholfrequenz von 24Hz bei einer Auflösung von 1920x1080 Pixeln). Bei Mainboards bzw. Garfikkarten mit einem HDMI Ausgang, sollte dies eigentlich möglich sein. Um die Wiedergabe vernünftig hinzubekommen, sollte ersteinmal ausschließlich der Fernseher per HDMI mit dem PC verbunden werden und nicht noch zusätzlich ein Monitor um dieses Fehlerquelle von Anfang an auszuschließen. Starten wir jetzt den Rechner, sollte dort schonmal ein Bild erscheinen, sprich der Bootschirm von Linux oder Windows. Da der Fernseher nun die einzige Anzeige im System ist, sollte das Bild auch nach dem Booten noch sichtbar bleiben. Wichtig ist auf jeden Fall, dass ein Grafiktreiber der neueren Generation installiert ist, denn im Treibermenü aufloesung (Catalyst Control Center oder Nvidia Treibermenü)  müssen wir die Bildschirmauflösung erstmal auf das Maximum hochdrehen und zwar 1920x1080. Ist diese Auflösung nicht verfügbar, ist entweder der Fernseher oder die Grafikkarte nicht in der Lage diese darzustellen. Da 24p ja einer Bildwiederholfrequenz von 24Hz entspricht, muss diese natürlich auch noch eingestellt werden. Standartmäßig wird der angeschlossene Bildschirm/Fernseher automatisch mit der maximalen Bildwiederholfrequenz betrieben, meist 60Hz um flüssigere Bewegungen ordentlich darstellen zu können und eventuelles Flackern zu unterbinden. Da wir in unserem Fall allerdings genau diese 24Hz haben möchten, stellen wir dies manuell ein. Mein Fernseher zeigte nach Übernahme der Einstellung sofort 1080/24p im Display, also genau das Richtige. Zusätzlich musste ich unter Ubuntu noch die Audioausgabe über HDMI aktivieren um auch Sound über das HDMI Kabel zum Fernseher zu senden. Diese Einstellung findet man bei Ubuntu im Soundmixer. Man wählt als Gerät den HDMI Ausgang und aktiviert den Schalter IEC958 (mein Gerät heisst "HDA ATI HDMI"). Eventuell muss man im jeweilgen Player noch das Ausgabegerät ändern, bei mir im VLC unter Optionen --> Audio --> Ausgabegerät auf ALSA ATI HDMI. So funktioniert die Wiedergabe von 24p Material inklusive Ton auf dem Fernseher. Nach dem Schauen sollte man nicht vergessen, den HDMI Ausgang wieder zu deaktivieren, denn sonst hat man über den normalen analogen Ausgang keinen Ton mehr ;).

- Seite 1 von 3