Kategorien
Raspberry Pi Technik

[Rezension] Raspberry Pi für Einsteiger

Der Raspberry Pi kann seine Herkunft als kleiner Computer zum Lernen nicht verbergen. Warum sollte er auch? Es würde zwar für sich genommen schon an Fähigkeiten für einen kleinen Computer reichen, aber er hat auch noch so viel mehr drauf. Von einem Einsteiger Buch erwarte ich also eine Menge über die Hard- & Software lernen zu können.
Aber Raspberry Pi für Einsteiger ist kein Lehrbuch, sondern ein Buch für Interessierte, die einen Raspberry Pi kaufen wollen oder bereits einen besitzen und sich ein größeres Bild von dem kleinen Gerät machen möchten.

Raspberry Pi für Einsteiger Cover

Bei Raspberry Pi für Einsteiger von Matt Richardson & Shawn Wallace aus dem O’Reilly Verlag geht es vor Allem darum Grundlagen zu lernen. Es wird ein vollständiger Rundumschlag in allen relevanten Bereichen gemacht: Zum Raspberry Pi selber, zu Linux, zu Python (in Kombination mit dem Web), zur graphischen Programmiersprache Scratch (link), zur Konnektivität mit Arduino, zur GPIO Schnittstelle und zur Peripherie wie Webcams für den Pi.

Zuerst geht es allgemein um die Hardware. Genau der richtige Einstieg. Es werden die Unterschiede der Versionen des Pi beschrieben sowie alle LEDs etc. erklärt. Anschließend geht es direkt an das Eingemachte, das Betriebssystem. Auf dem Pi läuft Linux, und da das nicht jedem User bekannt ist gibt es gleich eine Kurzeinführung in das OS. Besonders gefällt mir, dass die Ordnerstruktur von Linux anschaulich gemacht wird. Auch das Rechtesystem kommt nicht zu kurz. Einige der genannten Linuxbefehle und der Umgang mit einer Konsole sind grundlegend für den Umgang mit einem Computer ohne Monitor und für ein tieferes Verständnis von Computern. Ich stimme den Autoren zu wenn Sie behaupten, dass es nicht schadet diese Befehle zu lernen.

Anschließend werden die verschiedenen Programmiersprachen thematisiert. Shell Skripte, Python sowie Scratch. Ich persönlich gehöre nicht gerade zur Fraktion der Programmierer. Dennoch, Shell Skripte schreiben zu lernen steht aber schon seit einiger Zeit auf meiner To-Do-Liste. Hier ist das Buch mal ein guter Anreiz um etwas zu beginnen, denn genau dazu gibt es den Pi. Auch die Einführung in Python macht Lust auf mehr. Es könnte, je nachdem wie groß das geplante Projekt ist, auch nötig sein via Python diverse Funktionen zu realisieren oder anpassen zu müssen.
Auch das Framework pygame wird erwähnt. Pygame ist für mich vorerst nicht interessant. Aber aus der Bildungssicht betrachtet ist es natürlich super auch auf die Tatsache einzugehen, dass man es nicht immer nur mit drögem Output auf der Kommandozeile zu tun hat, sondern auch etwas grafisches ausgeben lassen kann. Wer plant ein externes Display (keinen Monitor) an den Pi anzuschließen soltle sich diesen Abschnitt mal anschauen.

Mit der grafischen Programmiersprache Scratch ist ein schönes Beispiel gewählt worden. Denn, wie eingangs erwähnt, ist der Pi ja eigentlich ein Computer zum lernen. Erdacht und gebaut, um in Schulen eingesetzt zu werden. Die Programmiersprache Scratch ähnelt nun wenig der Syntax herkömmlicher Programmiersprachen, sondern kommt grafisch daher und richtet sich somit vor allem an Lernende, die gerne einen Bogen um Syntax machen bzw. vor allem die Logik lernen wollen. Somit wird das Buch hier auch dem Bildungsidee des Pi gerecht.

Nach dem kurzen Abschnitt zu Pi mit dem Arduino Board geht es schließlich auch um die GPIO Schnittstelle, welche für viele Hardware Hacks wichtig ist. Anhand einfacher elektrischer Schaltkreise wird die Programmierung der Schnittstelle veranschaulicht. Hierzu ist einiges an zusätzlichem Material notwendig. Nichts davon ist wirklich Raketenwissenschaft, sondern einfach beim Elektronikhändler des Vertrauens zu erhalten.
Um die GPIO Schnittstelle auch noch weiter benutzen zu können wird auch die Verknüpfung zu Python hergestellt. Somit sind fast alle Grundlagen gelegt, um mit dem Pi einiges anstellen zu können.
Abschließend wird noch auf den Einsatz von Webcams sowie Python in Kombination mit dem Internet eingegangen. Beides auch spannende, aber für mich bereits recht spezialisierte Bereiche, die ich vorerst außen vor lasse. Mit Python und GPIO bin ich vorerst genug beschäftigt, von den ganzen Serverprojekten ganz zu schweigen.

Ich finde Raspberry Pi für Einsteiger ein tolles kleines Buch um in die Welt und die Möglichkeiten des Raspberry Pi einzusteigen. Es lässt fast nichts aus und kommt optisch auch ganz hübsch sowie aufgeräumt daher.

Ich hätte mir noch ein paar mehr Beispiele für kreative Projekte und Einsatzmöglichkeiten, die schon mit einem Pi umgesetzt wurden, gewünscht. Allerdings, wer das Buch und ggf. auch schon einen Pi in der Hand hält, wird sich auch schon im Netz einige Ideen angeschaut haben. Außerdem sind am Ende von jedem Kapitel immer nützliche Links um sich tiefer gehend zu informieren.

Mit einem Raspberry Pi zu arbeiten ist in Teilen auch hacken. Irgendwer findet immer eine neue Möglichkeit den kleinen Computer auf neue Weise einzusetzen und um dafür einen Einstieg zu finden ist dieses Buch hervorragend geeignet.

Wer also von der kleinen Wunderkiste gehört hat und sie Einsetzten will, findet hier alles was er braucht um sich tiefer in die Materie einzuarbeiten.

Kategorien
Fotografie

Fundstück der Woche: Danke, dass Sie viel rauchen.

image

Garros kicken sagt man also mittlerweile.

Kategorien
Fotografie Kalk

Fundstück der Woche

image

Der Dom aus Lego in den Arkaden in Kalk.

Kategorien
Fotografie

Fotos

Irgendwie ist das hier sehr nerd lastig geworden. Darum gibt’s jetzt auch mal Fotos. Dieses mal aus Hamburg.
image

image

Kategorien
Linux

Raspberry Pi

Ich bin dann mal beschäftigt…

image

Kategorien
Bildung Educamp

[#ECB13] Educamp in Berlin

Vorab: Nur Android!

Nametag Educamp Berlin 2013
Nametag Educamp Berlin 2013

Mein persönliches kleines Projekt für das Wochenende war es, lediglich mit zwei Android Geräten durch das Educamp zu kommen und damit meine eigene Doku zu machen.
Dazu hatte ich mein Handy, ein Nexus 4, und ein Nexus 7 (2013) dabei. Auf ein 10″ Tablet wie in Hamburg habe ich verzichtet, weil das Gerät, Acer A510 mit CyanogenMod 10.2, nicht einwandfrei funktioniert. Zwei Geräte also, die mich durch Berlin und durch das Educamp bringen sollten.
Auf der Softwareseite sollten mir dazu vor allem Evernote dienen. Ich hatte aber auch Etherpads auf meinem eigenen Server zur Verfügung stehen. Pro Session sollte also ein Etherpad oder eine Evernote Notiz angelegt werden. Speziell für Guidos Session kamen auch noch plumble, Android IRC (bzw Ein Umweg über eine SSH Verbindung via JuiceSSH) und Xenim zum Einsatz. Leider, und das hat es in vielen Momenten des Educamps erschwert, war das Wlan einfach nicht gut genug um eine konstante Verbindung zu ermöglichen. So war es teilweise unmöglich im Etherpad zu schreiben, Guido bei Xenim zu folgen, ihm bei den Shownotes zu helfen oder simpel den Sessionplan einzusehen. Das ist aber kein Vorwrf. Das Wlan ist von der Schule und hängt mit dieser zusammen, hat also nichts mit der Orga zu tun. Ich hatte auch einen Plan B, und zwar Sketchnotes zu zeichen. Ich habe leider keine einzige gemacht. Der Kampf mit der Technik war zu zeitraubend, sodass ich lieber für mich zugehört und mitdiskutiert habe. Schade, wie ich finde, denn auf dem Mobile Learning Day, mit perfektem Netz, in der Woche darauf, hat sich der Einsatz der Geräte & Softwarekombination sehr bewährt. Für das nächste Educamp bereite ich mich auch auf eine offline Alternative vor. Evernote bietet dies ja bereits, allerdings war ich zu sehr mit der Technik selber beschäftigt, die ja eigentlich nicht zum Thema werden sollte.

Die Sessions

Mir hat das Educamp definitiv Spaß gemacht, es war nicht mehr die große Überraschung, wie mein erstes Educamp in Hamburg, aber definitiv gut. Natürlich haben Berlin und seine Möglichkeiten auch noch ein wenig dazu beigetragen, dass ich morgens etwas mehr Kaffee brauchte.

Ich bin in die maximale Anzahl von Sessions gegangen, die ich aufnehmen konnte, und habe mich eingebracht wie ich es für sinnvoll erachtete. Leider habe ich wieder keine eigene Session angeboten. Meine Themen und ein wenig Unbehagen darüber, ob es überhaupt jemanden interessieren würde, hielten mich ab. Komisch eigentlich, war doch die für mich wertvollste Session die letzte zum Thema digital Natives. Nicht nur, weil es kontrovers zuging, was ich gut fand, sondern auch, weil mir das Themengebiet liegt. Kompetenzen halt. Jetzt muss ich das mit der Session zu Kompetenzen auf Frankfurt verschieben. Mensch weise mich doch bitte vorher nochmal auf mein Vorhaben hin.
Entgegen anderer Kritiken, habe ich eigentlich keine der Sessions als Werbeveranstaltung empfunden. Vielleicht habe ich diese Sessions gut umschifft.

Guidos Session zu mumble fand ich sehr spannend, wollten mir doch, nach seiner Ankündigung, nicht so recht Anwendungsszenarien für mumble einfallen, außer eines digitalen Lesekreises. Wozu aber unbedingt mumble?! Klar, ich kann es selber hosten. Aber wo sind die weiteren Mehrwerte? Es braucht nicht noch mehr Mehrwerte, es ist bereits der essentielle Mehrwert von Mumble. Ich kann es selber hosten und es ist verschlüsselt. Es hat mich sehr gefreut, dass Guido dies aufgenommen hat, da meine Wahrnehmung der Menschen, die sich in Zeiten von NSA & Co im Internet bewegen, eher eine unkritische Sichweise wiederspiegelt. Es tat also gut, auch mal diese Entwicklungen aufzugreifen und auf Alternativen hinzuweisen.

Die Mini-Fortbildung, war die eine andere herausragende Session. Es war spannend aber auch irgendwie ein wenig Ostereierpädagogik im Stile der Schule. Das Wissen wird versteckt und ich soll es suchen. Das nervte mich zum Ende der Session zunehmend. Da die Session – als Wissensvermittler – insgesamt etwas aus dem Rahmen fiel war das aber nicht weiter schlimm. @PeterMonnerjahn">@PeterMonnerjahn weiß auf jeden Fall wovon er da spricht. Inhaltlich hängt mir die Session sehr nach, nicht nur, weil ich viele native Speaker an diesem Wochenende getroffen habe, sondern auch mit dem Hintergedanken, die Dinge mal mehr mit System zu betrachten oder mehr nach Systemen zu suchen.

Die digital natives. Wie definiert sich dieser Begriff eigentlich? Für mich sind es diejenigen Menschen, die komplett im digitalen Zeitalter aufgewachsen sind. Mit allen Möglichkeiten und „Gefahren“. Ihnen ist nicht mehr klar, wozu man einen Bleistift in Verbindung mit einem Bleistift benötigt, um mal ein Meme aufzugreifen. Aber müssen Sie deswegen wissen wie man binär rechnet? Müssen sie wissen wie Halbleiter funktionieren? Differenziert sich diese Generation nicht eher so sehr im digitalen Feld aus, dass dies überhaupt nicht mehr möglich ist? Ein großer Streitpunkt in dieser Session. Letztlich kann all das helfen diese Welt zu verstehen. Doch wenn ich einen Text ins WWW hinausjagen möchte brauche ich nicht zu wissen, dass es schwarze Löcher innerhalb der Weltweiten Internetstruktur gibt. In Analogie dazu muss ich auch nicht wissen wie genau Benzin gewonnen und produziert wird, um ein Auto zu bewegen. Auch Demokratie weist Analogien auf. Doch muss ich alles wissen um mich demokratisch einzubringen? Die Lösung liegt vermutlich in der Mitte oder im Einzelfall. Ich plädiere für eine radikal konstruktivistische Sichtweise. Es schadet nicht Hintergründe zu kennen, doch jeder strickt sich sein eigenes Netz. Alles andere sind politische und pädagogische Fragen. Die Session ist also vom ursprünglichen Thema abgekommen und hat sich zu einer Diskussion über die Definitionen ausgeweitet. Das war meiner Meinung nach auch gut so, da wir alle aus unseren Filterblasen heraus argumentieren und dieser Abgleich mal wieder geholfen hat dies ein wenig anzupassen. Mir zumindest.

Ähnlich wie bei Guidos Sessions zu Mumble ging es mir bei der Session zu Minecraft. Ich kenne das Spiel und mag es sehr. Dennoch hatte ich ein dickes „cannot compute“ im Kopf als es darum ging mir zu überlegen wie sich Minecraft für die Bildung einsetzen ließe. Kelvin überraschte mich dann mit dem Einsatz in Bibliotheken. Aber ich fand es super, dass er mithilfe von Minecraft Szenen der klassischen Literatur nachbauen lies. Naheliegender war da schon die Verwendung für den Architekturbereich. Sehr spannend, nicht zuletzt auch weil das Spiel zur hälfte von einem kleinen Jungen erklärt wurde und eine interessante Sichtweise auf das Spiel brachte! TNT ftw!

Soweit von meinen Eindrücken, die jetzt eigentlich schon viel zu lange gereift sind und nicht mal alle Sessions umfassen.

tbc.

Alle besuchten Sessions

Ich habe mir diese Sessions auf dem Educamp angesehen:

  • Was kann man mit Mumble machen? Anbieter: @gibro">@gibro
  • Mini-Fortbildung: Systematik der Zeiten des Englischen – Mit System einfacher lernen Anbieter: @PeterMonnerjahn">@PeterMonnerjahn
  • CC-BY-SA …und dann Anbieter: @anjalorenz
  • Geschichten erzählen Anbieter: Herbert
  • eduRadio Anbieter: @gibro">@gibro @gestatten @ralfa
  • Neue Lernwelten in Minecraft-Ansätzen von Interesse geleitetem Lernen Anbieter: Kelvin
  • Virtuelle Teams – Wie kann Teambuilding auf Distanz funktionieren? Anbieter: @lina21
  • Kernkomptenzen Digital Natives – mehr als Facebook? Anbieter: @est_online
Kategorien
Linux

Schnauze voll vom alten Fedora? Ein Update mit Fedup machen.

Seit ich mit Arch Linux herum experimentiere geht mir die Limitierung von vollständigen Releases immer mehr auf die Nerven. Bei Fedora sogar besonders, weil die mir bisher bekannten Updateroutinen nicht gerade komfortabel waren. Ubuntu mal wieder bietet ja aus dem laufenden System heraus an, auf die nächste Version updaten zu können.
Unter Fedora gibt es die Möglichkeit dies auf Wegen mit yum zu bewerkstelligen, allerdings weit von der Simplizität bei Ubuntu entfernt.

Die Lösung kam mir dann mal wieder per Zufall vor die Nase. Irgendwo in den Tiefen der Fedora Wikis bin ich auf das kleine Progrämmchen fedup, welches tatsächlich Ab Fedora 18 z.B. preupgrade ersetzt.
Wie gut, dass ich Fedora 18 installiert habe. Damit das ganze auch ein Weilchen vorhält, soll es dann auch direkt das Update zu Fedora 20 sein, eine noch frühe Version des nächsten Releases also.

Fedup bietet die Möglichkeit das Upgrade von einem vorher heruntergeladenen Installationsmedium zu machen, oder die Quellen direkt aus dem Netz zu ziehen.
Dazu muss lediglich der Befehl

sudo fedup --network 20

ausgeführt werden. Anschließend passiert alles von alleine. Die Zahl steht natürlich für die Version. Ihr könnt auch Version 19 wählen.
Wenn fedup durchgelaufen ist, hat es einen Eintrag in Grub hinzugefügt, welcher beim nächsten Systemstart das Update startet.
Bei verschlüsselten Dateisystemen ist ggf. der grafische Bootvorgang zu deaktivieren, indem rhgb quiet in grub mittels der Editierfunktion (e drücken) entfernt wird. Dann muss dieser editierte Updateeintrag gestartet werden und sobald die Ausgabe stoppt muss man die Passphrase der Verschlüsselung eingeben und mit Enter bestätigen. Deaktiviert man dies bevor man fedup das im System startet, übernimmt fedup diese Option für den eigenen Grub Eintrag.
Teilweise las ich auch von Bugs in Verbindung mit selinux. Dies habe ich eh ausgeschaltet. Somit ist das für mich kein Thema. Man soll aber eher die enforcing Option für selinux benutzen, als selinux=0 zu setzen.

Anschließend erfolgt das update und am Ende steht ein reboot. Wenn alles gut gegangen ist, dann sollte euch euer Login Bildschirm begrüßen.

Zum Schluss sollten dann noch ein paar Dinge zum Aufräumen und zum Abschluss des Updates gemacht werden. Schaut dazu einfach in dieses Fedora Wiki.

Bei mir lief alles glatt. Steam funktioniert, der Nvidia Treiber ist vorhanden und funktioniert. Nur erschien mir das System zu Anfang arg langsam. Mittlerweile geht es aber.

Kategorien
Linux

Das Arch User Repository – AUR

ArchlinuxLogo

Das Arch User Repository (AUR)

Momentan teste ich Arch Linux um zu sehen, wie sehr es sich in meinem Alltag bewähren könnte. Das maßgebliche Kriterium ist die Komplexität. Ein Linux darf für mich nicht zu komplex werden, wenn es um die Pflege des Systems geht. Updates müssen zeitnah und mit einem Paketmanager installierbar sein. Aus meiner mittlerweile doch fast eine Dekade zurückliegenden Erfahrung mit Gentoo weiß ich, dass mir die Konfiguration der flags in unregelmäßigen Abständen zu nervig wird. Ich muss einfach jedes mal nachsehen was ich tun muss und das ist dann für den Alltag eher unpraktisch. Arch erklärt sich hier selber. Ich muss keine besonderen Einstellungen vornehmen, pacman macht einfach. Fehlt ein Paket, dann sagt Arch mir das. Ich kann dann einfach per Paketmanager die angegebenen Paketnamen exakt übernehmen und pacman installiert dies dann. Angenehm. Dem geneigten Nerd vielleicht aber schon fast zu wenig Kontrolle. Für ein Desktop System reicht es mir aber.

Handelt es sich aber um Software, die noch nicht im Arch Repository aufgenommen ist, steht man nicht plötzlich dort und darf die Nummer komplett von „Hand“ kompilieren, sondern dann gibt es das AUR.
Auch im AUR sind nicht alle Pakete aber immerhin bin ich bisher auf kein Paket getroffen, welches ich nicht dort gefunden habe und das, obwohl das AUR von nur wenigen Menschen im Kern gepflegt wird.

Zuletzt wollte ich mir mal die Twitter Clients Birdie und Corebird ansehen. Das Dilemma auf meinem Desktop Rechner: Fedora 18 sieht in den Repositories weder die entsprechenden Pakete vor, noch die Abhängigkeiten. Vielleicht kommt das noch, vielleicht könnte ich es auch beschleunigen wenn ich mich dabei engagiere. Will ich aber gerade nicht, vermutlich fehlt mir auch das Know How. Gut, also selber bauen. Mit cmake sollte das ja auch nicht so schwer sein. Aber birdie benötigt gewisse Pakete. z.B. vala min. in der Version 0.2.10. Und, natürlich, nicht in den Repositories. Erst ab Fedora Core 20. Hier beginnt es anstrengend zu werden. Mir ist nämlich nicht ganz klar, wie ich Fedora dazu bewegen kann Pakete aus teilweise neueren Repositories zu benutzen.

Hier kommt also wieder das Rolling Release System von Arch ins Spiel. Denn die Pakete sind sehr neu und nicht von bestimmten Releases abhängig.
Dennoch, beide Twitter Clients sind noch nicht in den Repositories. Macht aber bei Arch nicht, man findet sie beide im AUR.
Dort lädt man einfach eine Archivdatei runter, entpackt diese baut sie, installiert ggf. noch fehlende Abhängigkeiten via pacman nach und installiert dann das Paket.

Genauer also:

  • Paket suchen
  • tar herunterladen
  • entpacken und in das neu erstellte Verzeichnis wechseln
  • Die Makefile überprüben und ggf. die Optionen anpassen
  • den Befehl makepkg ausführen
    • ggf. fehlende Abhängigkeiten nachinstallieren.
  • Sobald der Vorgang erfolgreich abgeschlossen ist, wird das Paket dann mit dem Befehl (sudo) pacman -U /foo/bar/pkg.tar installiert und ist damit sofort systemweit verfügbar.

Für mich ist das ein extrem komfortabler Weg Software zu installieren, die es noch nicht in die offiziellen Repositories geschafft haben und in Ubuntu dominierten Zeiten nur als .deb vorhanden sind, nicht mal mehr als .rpm.
Die Pakete im AUR sind, so scheint mir, teilweise auch an die git Quellen der Entwickler gekoppelt. Aktueller gehts ja wirklich kaum noch.

Kategorien
Tools

Ghost

Seit ghost vor kurzem veröffentlicht wurde habe ich mir eine kleine Testinstallation aufgesetzt.
Die Installation ist an nodes.js gebunden und somit nicht auf allen kommerziellen vServern o.ä. installierbar.
Dabei ist der eigentliche Vorgang denkbar einfach. Es gilt nur das Paket herunterzuladen, zu entpacken und eine config Datei anzupassen bevor man mit

 nmp install --production

die Installation abschließt.
Danach noch mit

nmp start

die Software laden und das Blog läuft.

Ghost ist momentan noch mit einem sehr kleinen Funktionsumfang ausgestattet. Vor allem fehlt eine Kommentarfunktion. Außer Fefe finden das vermutlich nicht so viele Blogger gut. Sie wird aber sicherlich früher oder später kommen.

Das Verfassen der Beiträge ist dank der konsequenten Integration von markdown und der direkten Anzeige des formatierten Inhalts auf der rechten Bildschirmhälfte sehr angenehm.

Für ein grundlegendes bloggingsystem reicht ghost derzeit aus und es hat sich ja auch zum Ziel gesetzt den Fokus auf den Inhalt zu legen.
Ich werde es in den nächsten Wochen weiter testen und bin gespannt,  wie es sich entwickeln wird.

Kategorien
Linux

Update auf Gnome 3.10 unter Arch Linux

ArchlinuxLogo

Gnome updaten

Was auf den gängigen Plattformen ewig dauert, ein einziger Kampf gegen yum oder apt-get ist, passiert bei Arch so nebenbei.
Eigentlich wollte ich Gnome als erstes auf meinem neuen Arch System updaten. Das Lernszenario war es, die entsprechenden Pakete nicht aus dem normalen Repository zu ziehen, sondern es aus dem Testing Repository zu nehmen und somit beide zu mischen. Distributionen wie Fedora oder auch Ubuntu koppeln neue Gnome Versionen an ihre eigenen Releases. Das hat sicherlich Vorteile wenn es um die Stabilität einer Distribution geht aber auch damit sie wie aus einem Guss wirkt und funktioniert.

Aber dann

Ich starte die Aktion damit, dass ich das System auf den aktuellsten Stand bringe, während ich im Netz danach suche, wie ich das Testing Repository gezielt nutzen kann. Also schnell pacman -Syu ausgeführt und den Browser angeworfen.
Doch was sehe ich dort. Die stinknormale Updateroutine lädt Gnome 3.10 herunter. Installiert es. Ich melde mich ab und wieder an und es funktioniert tadellos. Hmpf.

Also muss ich weiter nach Experimenten suchen mit denen ich mich beschäftigen kann. Mir scheint aber so, als würde ich nicht gerade Gefahr laufen keine zu finden.
Im Grunde gibts hier also nichts zu sehen. Aber ich kämpfe gerade mit den Wlan Treibern und allem was dazu gehört. Dazu aber später mehr. Das ist nämlich für mich etwas komplexer und muss aufbereitet werden.

Schönen Start in die Woche!

Kategorien
Linux

Experiment Arch Linux

ArchlinuxLogo

Warum ARCH?

Ich überlege mein Notebook auf Linux und umzustellen. Zur Zeit ist Windows 7 installiert und es leidet an den typischen Windows Symptomen. Es wird langsamer und langsamer und zuletzt sind sogar ein paar Bsod aufgetaucht. Soweit so bekannt. Mich nervt das und außerdem ist es halt Microsoft. Die Lizenzierung und die Quelloffenheit von Linux sagen mir sehr viel mehr zu. Was ich eigentlich vermeiden will ist mein System ständig neu installieren zu müssen. Das ist bei den Releasezyklen von Linuxdistributionen wie Fedora oder Ubuntu,  die gerne mal sechs Monate sind,  halbwegs schwierig wenn das System aktuell bleiben soll. ARCH Linux kennt keine richtigen Releasezyklen,  da es das Rolling Release Prinzip einsetzt.
Bevor ich diesen Schritt auf meinem Lenovo Edge 520 gehe will ich Arch erstmal kennen lernen. Dazu habe ich mir ein altes HP Notebook her genommen.

Vorbereitung der Installation

Zur Installation habe ich mir diverse Wiki Artikel bzw. Anleitungen durchgelesen. Schließlich habe ich dann aber diese Anleitung auf YouTube  verwendet um mich durch die Installation zu hangeln.
Abgesehen von der Partitionierung habe ich mich exakt an diese Anleitung gehalten.
Für die Partitionen benutze ich GPT. Mir erschien es sinnvoll separate Partitionen für /boot, /home und / anzulegen (Code 8300). Zudem noch swap (8200) und eine 3mb große Partition welche eine BIOS Boot Partition ist. Der hex code für dieses Dateisystem ist ef02. Mir ist nicht zu 100% klar wozu diese Partition benutzt wird, aber sie ist ein notwendiger Bestandteil für die Installation bei der Verwendung von GPT. Anschließend werden alle Partitionen außer swap mit mkfs.ext4 /dev/sdX/ mit einem Dateisystem versehen (Es muss natürlich nicht ext4 sein). Der Swap wird noch mit mkswap /dev/sdX eingerichtet. Anschließend muss dieser noch mit swapon /dev/sdX aktiviert werden.

Ein Unterschied zum Lenovo Notebook ist, dass das HP kein UEFI BIOS hat. Mit den Besonderheiten muss ich mich also später auseinander setzen. Dies ist aber auch mit der Verwendung von GPT verbunden.
Bei der Installation von Grub2 wurden dann einige Fehler ausgegeben, die ich persönlich nicht wirklich zuordnen konnte. Neben den Fehlermeldungen wurde aber auch ausgegeben, dass vm-linuz Installiert wurden. Daher entschloss ich mich es bei meinem Testsystem drauf ankommen zu lassen und einfach mal neu zu booten. Und es funktionierte ohne Probleme.

Eine GUI installieren

Nach der Installation gelangt man in ein Konsolensystem und kann von hier aus das System gestalten wie es einem beliebt. Ich wollte noch eine grafische Umgebung installieren. Da ich Gnome mag entschied ich mich dafür dies auch unter Arch zu installieren.
Der Paketmanager pacman macht dies denkbar einfach. Obwohl Arch das Buildsystem von gentoo benutzt muss hier nichts kompiliert werden. Arch bietet bereits kompilierte Pakete, somit geht die Installation auch schnell. Mit dem Befehl pacman -S gnome xorg wird die Installation angestoßen. Xorg muss dabei angegeben werden um ein grundlegenden Server für die grafische Darstellung von Oberflächen wie gnome zu ermöglichen.
Jetzt wird getestet und herum probiert und gelernt wie diese Distribution funktioniert. Ich hoffe, dass sich Arch als alltagstauglich herausstellt.

Kategorien
Persönliches

Velopolo Bruxelles

Ein Wochenende in Brüssel.