Archiv der Kategorie: Internet

Das Sony Xperia Z1 Compact hat bereits eine Schutzfolie

tldr; Das Sony Xperia Z1 Compact wird von Haus aus mit einer Schutzfolie verkauft. Kratzer drin? Einfach eine neue drauf. Wie? mobilegeeks.de erklärt es mit Videos von btekt.com.

Kann ich jetzt bestätigen. Hubsche Folie gibt es bei Amazon. Leute mit zwei linken Händen sollten auch zwei Folien kaufen. Ansonsten beim Auflegen der Folie nicht zusehen wie sich die Folie mit der Oberfläche verbindet sonst entstehen Blasen sondern ein klein wenig nachhelfen mit dem Tuchlein.

Sonst scheint es bisher ganz gut zu funktionieren (Erfahrung basiert auf 2min Nutzung bisher :F)

Netflix(DE) mit Hilfe von Chrome-Beta auf Linux (Ubuntu)

Gerade ausprobiert und für gut empfunden. Die Lösung für Amazon war ja irgendwas mit Wine, Silverlight und viel proprietärer anderer Scheiße.

Netflix verlangte nur *hüstl* eine aktuelle Chrome-Beta, das Plugin User-Agent Switcher for Chrome und die aktuellste libnss3. Letzteres war sogar bereits aktuell. Alles installiert, kurz mal den User-Agent verändert und tada … Netflix läuft

Netflix Linux Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2114.2 Safari/537.36 Replace IE

Ich denke mit der Lösung kann man leben.

Quelle: omgubuntu.co.uk

Design des Twitter-Menüs: Kann mir das eigentlich jemand erklären?

Die Menü-Leiste bei #Twitter ist definitiv nützlich aber warum zum Teufel verstecken man unter „Mehr“ eigentlich nur einen einzigen Punkt, nämlich die „Listen“?

Das ist doch einfach nur dämliches Design, oder? Wieso taucht statt „Mehr“ nicht einfach der Punkt „Listen“ auf und ich spare mir den einen zusätzlichen Klick.

„Mehr“ geschlossen:

twitter_1a

„Mehr“ aufgeklappt:

twitter2a

FreeBSD Homeserver

Lange habe ich mich dagegen gesträubt einen Homeserver zu betreiben. In der frühen Zeit meiner Ausbildung, als der Strom noch günstig und die Vielfältigkeit der Dienste noch nicht so ausgeprägt war, da war es von jünglichem Interesse einen eigenen Server zu betreiben. Natürlich hat dieser keine wirklichen Aufgaben übernommen. Ein bisschen Fileserven und Webserver für die ultimativen Geheimprojekte. Eine Spielwiese nicht zu vergessen. So zumindest habe ich es in Erinnerung.

Damals einen eigenen Server zu betreiben hatte etwas elitäres. Man wollte unabhängig sein. Man wollte ausprobieren. Man wollte vielleicht auch ein Stück weit besonders sein und seine eigenen Erfahrungen sammeln. Der Server im eigenen Haushalt bot zudem die Möglichkeit das Internet auf eigene Art und Weise kennenzulernen. Mit dem Aufkommen von DynDNS Diensten war zudem eine einfache Erreichbarkeit gegeben, welche durch den Ausbau von DSL-Anschlüssen und Flatrates noch zusätzlich befeuert wurde.

In der heutigen Zeit ist es schlichter Luxus ohne großen Mehrwert. Ggf möchte man sich nicht in die Hände dritter begeben. Viel mehr wird da aber wohl nicht übrig sein, wenn man kein besonderen Hobbys und Interessen verfolgt. Das Netz ist voll mit Lösungen und Diensten die nahezu jeden halbwegs nachvollziehbaren Bedarf decken. Aus diesem Grund habe ich auch keinen Nutzen mehr für einen Heimserver gesehen und daher trotz vielem rebelleischen kleffen meines inneren Spieltriebs nichts angeschafft. Man wird schließlich vernünftiger.

Als ich dann unverhofft an einen Raspberry Pi gekommen bin nam das Schicksal einen neuen Anlauf. Die Tatsache, dass dieses kleine Gerät so unfassbar viel Leistung in Verbindung mit lautlosem Betrieb und Stromsparender Hardware verbindet ließ mich schwach werden und das erste MediaCenter im dauerbetrieb basteln. Natürlich blieb es nicht lange dabei und ein VPN Server kam dazu. Irgendwann wuchsen die Wünsche nach einem Fileserver und ggf. sogar ein paar Monitoring Diensten. Selbstverständlich will das Gerät auch aktuell gehalten werden und so überstieg es irgendwann meine Vorstellung sodas eine neue Lösung her musste. Schließlich wollte ich auch noch andere Dinge im Auge behalten und ggf. miteinander vernetzen.

So kam es, dass ich mich hochtauschte (schließlich bin ich auch manchmal geizig) und nun ein mini ITX System mit Intel Atom CPU und einem Gesamtverbrauch von unter 19 Watt bei 3 Festplatten und 4 GB Ram in meinem Wohnzimmer stehen habe, dass die Berechnung meiner TV Aufnahmen, Sicherung meiner Webseiten, Vernetzung durch VPN, Aufrechterhaltung von IRC Chats, Bereitstellung einer Virtualbox Umgebung samt Webserver übernimmt. Sicherlich habe ich dabei noch etwas vergessen.

Das großartige an allem, was auch den letzten Entscheidungspunkt gegeben hat, das ganze läuft auf FreeBSD. Warum das cool ist? FreeBSD – oder allgemein BSD – ist aus meiner Sicht wesentlich richtungsweisender als ein Linux System und bietet wesentlich mehr Komfort bei der Realisierung von KISS Lösungen. Letztere begeistern mich grundsätzlich und bilden den Antrieb mich mit Dingen zu beschäftigen. 

Durch die Tatsache, dass ich in meinem beruflichen alltag mit Linux arbeite und dabei die unterschiedlichsten Aufgabenstellungen realisiere und antaste, hat sich vermutlich auch noch ein gewisse Müdigkeit eingeschlichen. Linux hat sich ziemlich verändert. Zwar bot es einmal den Charakter eines Systems, mit dem man seine Vorstellungen realisieren kann (und bietet es grundsätzlich immernoch). Jedoch empfinde ich es zunehmend als komplexer ein Linuxsystem zurück zu bauen und sehe die gegebenen Möglichkeiten als recht unruhig an. BSD Systeme bieten hier eine gelungene Abwechslung und wirken auf mich wie die Benutzung eines Handys. Wenn man es einmal eingerichtet hat, gibt es nur noch die Benutzung.

So freue ich mich jedes Mal aufs neue, wenn ich mich per SSH einlogge, Datensicherung über Samba oder FTP betreibe, mir meine Musik und Filme per DLNA anschaue oder einfach nur fremde Systeme über VPN warte. Und das alles von einer SD Karte.

In sofern glaube ich, das es zukünftig das ein oder andere über die Einrichtung meines FreeBSD Systems hier zu lesen geben wird. Immerhin ist meine Bastelmotivation zurück gekehrt 🙂

Source: Der Bode

Warum RSS noch nicht tot ist

Dem ein oder anderen wird der Begriff RSS sicherlich noch ein solcher sein. Es handelt sich dabei um eine Möglichkeit auf einfache Art und Weise Inhalte zu veröffentlichen und so zugängich zu machen.

Bei einer Webseite beispielsweise (wie diesem Blog) werden die Beiträge in einem RSS Feed zusammengefasst und können dann von einem Reader abgefragt werden um sie zu lesen. Das Gaze geschieht dann unabhängig vom Layout oder sonstigem und kann sogar offline gut genutzt werden 

Nun befinden wir uns in einer technisch sehr wohlständigen Zeit und niemand macht sich mehr gedanken um Bandbreite, Geschwindigkeit Verfügbarkeit und so weiter. Niemand bis auf die Admins die ein wenig Ahnung haben und sich noch auf die wichtigen Dinge konzentrieren. Zumindest wenn es um den Austausch von Daten geht.

Mehr jedoch geht, wenn man sich Dienste anschaut, die sich auf die Verarbeitung von RSS spezialisiert haben. Hier ist es nämlich für alle Seiten auf einfache Wege möglich Inhalte auf unterschiedlichensten Plattformen bereit zu stellen.

So ist diese Seite unter anderem mit meinem Facebook-Profil, als auch der Schreibtischwerkstatt verknüpft – wo ich meine Inhalte auch gern sehen würde.

Das alles funktioniert einfach, weil ich meinen RSS Feed an den jeweiligen Stellen zur Verfügung stelle und die strukturtierten Inhalte dort dann automatisiert zur Verfügung gestellt werden. Das ermöglicht mir mehr als eine Plattform zu pflegen, aber nur eine befüttern zu müssen.

So macht es dann Spaß die jeweiligen Zielgruppen auf ihren Kanälen anzusprechen.

Source: Der Bode

Mailserver Checkskript

#!/bin/sh
HELOSERVER=web,de
MAILFROM=info@worlddomination.de
RCPTTO=keine@aol.com
SERVER=Mail.deinserver.de
( echo „HELO $HELOSERVER“
sleep 2
echo „MAIL FROM:$MAILFROM“
sleep 2
echo „RCPT TO:$RCPTTO“
sleep 2
echo DATA
sleep 2
echo „Subject:Test-Mail!“
sleep 2
echo „Inhalt der Test-Mail!“
sleep 2
echo .
sleep 2
echo QUIT
) | telnet $SERVER 25

Podcast – Jörg bei Miro

Wir haben es doch tatsächlich geschafft trotz unserer unbeschreiblich großen Entfernung (10km Luftlinie?) uns mal wieder zu treffen. Jörg hat sein Spielzeug mitgebracht und wir haben direkt mal losgelegt. Leider hatte das zur Folge, dass wir quasi mitten im Thema Einsteigen.  Allerdings ist das auch nach ein paar Minuten überstanden :).

Die Themen sind wie auch das letzte Mal spontan entstanden. Kritik und andere Vorschläge nehmen wir gerne entgegen. 🙂

Diesmal hat Jörg sogar fast alle Register gezogen und die Audiofile gefiltert bis der MacBook-Lüfter angesprungen ist (und das will was heißen, liebe Apple-Jünger).

Download

Jobsuche per Script – laut aufgewachter

Ich habe es über Twitter zufällig gefunden und war irgendwie beeindruckt. Das Blog aufgewachter.wordpress.com schrieb, dass ein Arbeitsloser sich ein Script gebaut hat und einmal im Monat die Server der Agentur für Arbeit nach geeigneten Stellen durchsucht.

Allein der Titel:
… 750.000 Bewerbungen in 20 Stunden per E-Mail … / Bewerbungsnachweis für das Jobcenter aus 15.000 DIN-A4 Seiten
Großartig! Ich würde den Mann vermutlich nur alleine deswegen einstellen. [-:

Quelle

Debian mit cron-apt sicher halten

Der geneigte Administrator hat bei der Wahl seiner Sicherheitsstrategie immer wieder aufs neue elementare Dinge zu beachten. Zum einen muss er Augen und Ohren offen halten um Sicherheitlöcher mitzubekommen, zum anderen muss er sich immer wieder aufs neue Zeitfenster schaffen in denen er die entsprechenden Sicherheitsupdates auch einspielt.

Letzteres findet in aller Regel nach Feierabend und/oder Nachts statt.

Da ich von meiner Tendenz her eher zu den fauleren Administratoren gehöre und mich lieber mit der Arbeit an und mit Systemen anstatt mit dem Stopfen von Löchern beschäftige, kommt mir ein Programm wie cron-apt grade recht.

Mein freundlicher Arbeitskollege, der sich aktuell mit einer möglichst angenehmen Art und Weise des aktuell haltens unserer Serverlandschaft beschäftigt, wies mich darauf hin. Es handelt sich letztendlich nur um ein kleines Tool und einen zusätzlichen Cronjob, welcher die eingestellte Auswahl an Software aktuell hält und ggf. Downloads oder auch gleich (wie bei mir) die installation ausführt.

Da es mir primär um Sicherheitsupdates geht, gibt es einige Anpassungen die von der Standardinstallation abweicht. Diese lassen sich aber schön einfach zusammenfassen – ganz wie ich es mag 🙂

Installation

apt-get update && apt-get install cron-apt

Konfiguration

In diesem Beispiel werden nur Security Updates gesucht und installiert.

cat /etc/apt/sources.list | grep security > /etc/apt/sec-sources.list

cat > /etc/cron-apt/config << EOF
OPTIONS=“-q -o Dir::Etc::SourceList=/etc/apt/sec-sources.list“
MAILON=“upgrade“
MAILTO=“deine@adresse.de“
EOF

und zu guter letzt noch

cat > /etc/cron-apt/action.d/3-download << EOF
autoclean -y
dist-upgrade -y -o APT::Get::Show-Upgraded=true
EOF

Damit erreichen wir folgendes:

  • Es gibt einen Cronjob um 4 Uhr morgens (standard)
  • Es gibt eine zusätzliche apt-sources list nur für Sicherheitsupdates die von Cron-apt genutzt wird.
  • Updates werden heruntergeladen und auch gleich installiert
  • Es findet eine Bereinigung statt, sodass APT die Festplatte nicht sonderlich voll müllt.
  • Ihr bekommt (bei eingerichtetem MTA) eine Mail über die Updates, welche durchgeführt wurden.

Vielen Dank an MM für diese Steigerung der Lebensqualität.

Suchmaschinenoptimierung zusammengefasst

Im Moment befasse ich mich wieder recht viel mit dem Internet, der Gestaltung von Internetseite und vor allem aber Inhalten.

Zum einen versuche ich selbst möglichst viel von der Metaebene meines Gehirns als Inhalt im Internet bereitzustellen, zum anderen interessiert es mich für meine Kunden wie ich Ihnen die „richtige“ Nutzung des Internets nahe bringen kann.

Wie sich sicherlich jeder denken kann ist Suchmaschinenoptimierung sofort ein Thema, wenn man auf Aufmerksamkeit aus ist. Vor einiger Zeit hatte ich schon mal ein 10 Schritte Einführungstext dazu geschrieben, der aber nie so recht zur Anwendung gekommen ist.

Nun ist das Thema wieder aktuell und ich schaue was sich in der zwischenzeit verändert hat. Erwartungsgemäß ist nicht sonderlich viel Los (auch wenn man das gern anders haben möchte) denn die ehrlichen, nachhaltigen und lebensfähigekn Konstruktue folgen simplen Regeln.

Diese wurde in einem kleinen 32-Seitigen Dokument anschaulich zusammengefasst, welches ich bei Googleusercontent gefunden habe. Damit ich meinen Teil zum Erhalt solcher Informationen beitrage, habe ich es gleich mal lokal gespielgelt. einfuehrung-in-suchmaschinenoptimierung.

Webweisend: Kein Feedback bei Bewerbung – Brainstorming

Ich nehme mal spontan und ohne Absprache mit Jörg seinen Artikel aus unserem Blog als Grundlage für eine kleine Diskussion (wir können das dann in den Geschichtsbüchern als Blogpost-Fights oder ähnliches verkaufen, Jörg 😉 ).

Klar hat jeder Bewerber ein Recht darauf, dass man zumindest eine Antwort erhält. Ob es nun ein persönlicher Brief ist oder nur ein unpersönlicher Text mit der entsprechenden negativen Antwort. Ist halt so.

Ich glaube nur einfach, dass man die Lage einiger Unternehmen nicht falsch einschätzen sollte. Gerade KMUs sind aufgrund ihrer Mitarbeiterzahl nicht unbedingt mit einer Vollzeitstelle für die Personalbeschaffung besetzt. Umgekehrt verlangt der Trend, dass man sich Online präsentiert. Die Folge sind dann vermutlich spam-ähnliche Zustände von Bewerbern in den Postfächern jobs@. karriere@ und personal@.

So, was mache ich also als Unternehmen, dass täglich gefühlte 1000 Bewerbungen bekommt aber nur eine Teilzeitstelle da sitzen hat die physikalisch überhaupt nur in der Lage ist 10-30 solcher Mails intensiv(!) zu lesen. Vermutlich nichts und genau das ist dann das Ergebnis von dem Jörg berichtet.

Ich drehe den Spieß jetzt um und behaupte (mit voller Frechheit!), dass alle Bewerber trotzdem ihre Teilschuld haben. In meinem arbeitssuchenden Freundeskreis (Jörg ausgenommen, der ist ein Freund aber gehört jetzt nicht zum besagten Kreis 😉 hat sich die Methode implementiert, dass man so viele Mails wie möglich rausschickt und „hofft“ per Brute-Force-Attacke eine entsprechende Einladung oder Zussage zu bekommen. Ich finde persönlich, das ist Bullshit. Indirekt will man doch nur seinen inneren Gedanken befriedigen, man habe ja doch heute was getan, man habe sich doch jetzt mal wieder ne ordentliche Ladung GTA5 verdient oder könnte sich abends um 14 Uhr die alkoholische Kante geben.

Das mit dem GTA5 und der Kante möchte ich gar nicht schlecht reden. Mein Ziel ist es, den Leuten die Augen zu öffnen und dass sie dieses Schema nicht beibehalten sollen. Es hilft niemanden und produziert auf beiden Seiten Stress.

Der Personaler wird zugemüllt und aufgrund von diesen „schnellen Mails“ schleichen sich peinliche Fehler ein oder man überlegt nicht mal ob die Stelle überhaupt zu jemandem passt.

Klar, der Job in Basel ist cool aber ich hätte einen Arbeitsweg von 5h. Eventuell nicht die beste Voraussetzung für einen Berufsanfänger.

Was ich schlussendlich damit sagen/schreiben will, ist, dass man sich einfach mal die Stellen genauer anschauen sollte. Ich würde mich z.B. niemals über irgendwelche Jobbörsen an eine Stelle richten. Ich bin 1. nicht der einzige von mindestens 1000 anderen Leuten die leider immer irgendwie besser auf die Stelle passen und 2. schätze ich den persönlichen Kontakt mehr als eine E-Mail. Wie wäre es mal zur Abwechslung mit dem Personaler vorher zu sprechen bevor man ihn zumüllt? Passt die Stelle überhaupt? Nehmen sie meine Qualifikationen überhaupt an?

Klar treffen diese Hinweise nicht auf jeden zu und es soll Leute geben, die auch per Brute-Force-Attacke ihre Stelle bekommen haben. Klar, akzeptiere ich. Aber fasst euch selbst mal an die Nase und überlegt mal was besser ist … 20 Bewerbungen von denen 15 Schreibfehler haben, 3 den falschen Adressat und zwei effektiv am Ende doch uninteressant waren oder z.B. eine einzige durchdachte Bewerbung die aber vorher telefonisch vorbereitet wurde, man hat sozial mit er Person agiert und sich mal für das Unternehmen interessiert.

Meint ihr nicht auch, dass man sogar noch die Gelegenheit hat, dass der eigene Name beim Personaler hängen bleibt und man beim Aussortieren plötzlich allein deswegen doch genommen wird?

Ich finde den Gedanken geil.

Entschuldigt den wilden Schreibstil 😉

PHP Code in der Datenbank

Soeben arbeite ich an der Migration einer Datenbank samt CMS von einem Server auf den nächsten.

Insgesamt kein großes Unterfangen. Allerdings kommt es trotz diverser Schritte immer wieder zu Codierungsfehlern, die dazu führen, dass Inhalte im Backenend des CMS nicht zu bearbeiten sind. Des Weiteren werden auch der Einfachheit halber ganze Artikel und Beträge ausgeblendet.

Meine Suche nach dem Fehler bringt mich immer näher an die Datenbank. Dort erstarre ich, als ich einen Dumo überfliege und feststelle, dass tatsächlcihe reihenweise PHP Code samt Variablen etc. in der Datenbank gespeichert ist.

Für mich ein Paradebeispiel von Kannste machen…

20140306-094641.jpg

Apache Webserver mit FastCGI in einfach unter Debian Wheezy

Da es immer wieder vor kommt, dass man einen Webserver installieren muss, habe ich hier mal alle bei mir so üblichen Schritte zusammengefasst. Dabei behandle ich nur die grobe allgemeine Instalaltion wie ich sie gern habe. Nicht mehr! Folgende Punkte sollen erreicht werden:

  • Debian Stable System mit der Option auf Testing Pakete
  • Apache2 Webserver (MPM-Worker) mit ein paar wichtigen Modulen
  • PHP als FastCGI
  • MySQL Datenbank
  • FTP Server
  • Ein paar Sicherheitsallgemeinheiten

1. Grundinstallation

Bei der Grundinstallation achte ich darauf, dass wirklich nichts ausser dem SSH-Server installiert wird. Alles andere wird per default nicht so gemacht wie ich es mir wünsche. Daher nehme ich nur die Konfiguration der Festplatte, des Netzwerkes und der Paketquellen mit.

2. Paketquellen anpassen

Ich nehme direkt zu Beginn den Testing-Zweig in die Paketquellen mit auf:

nano /etc/apt/sources.list

# Testing-Pakete

deb http://security.debian.org/ testing/updates main

deb http://ftp.de.debian.org/debian/ testing main

Anschließend werden werden die Prioritäten angepasst:

nano /etc/apt/preferences.d/priority

Package: *

Pin: release n=wheezy

Pin-Priority: 990

3. Software installieren

aptitude install apache2 apache2-mpm-worker libapache2-mod-fcgid php5-cgi php5-mysql php5-xcache php5-sqlite php5-mcrypt php5-json php5-gd php5-fpm php5-curl mysql-server

aptitude install -t testing vsftpd

4. Software Konfigurieren

Apache2: Module aktivieren

a2enmod rewrite mem_cache fcgid deflate alias

a2dismod php5_cgi

service apache2 restart

usermog www-data -G ftp

FastCGI:

nano /etc/apache2/mods-enabled/fcgid.conf

<IfModule mod_fcgid.c>

AddHandler    fcgid-script .fcgi

FcgidConnectTimeout 20

FcgidIOTimeout              60

FcgidMaxRequestsPerProcess  400

FcgidIdleTimeout            60

FcgidMinProcessesPerClass   0

</IfModule>

VsFTPD: Konfiguration erstellen

listen=YES

anonymous_enable=NO

local_enable=YES

write_enable=YES

local_umask=0022

dirmessage_enable=YES

use_localtime=YES

xferlog_enable=YES

connect_from_port_20=YES

chown_uploads=YES

idle_session_timeout=600

data_connection_timeout=120

nopriv_user=ftp

ftpd_banner=Willkommen zum FTP-Server

chroot_local_user=YES

chroot_list_enable=YES

chroot_list_file=/etc/vsftpd.chroot_list

allow_writeable_chroot=YES                               #Dieser Punkt ist der Grund weshalb wir testing installiert haben

secure_chroot_dir=/var/run/vsftpd/empty

pam_service_name=vsftpd

rsa_cert_file=/etc/ssl/private/vsftpd.pem

Wichtig ist, das wir die zukünftig verwendeten Shells auch aktivieren, da ansonsten der vsftpd streikt. In der Datei /etc/vsftpd.chroot_list werden alle Benutzer eingetragen die NICHT gechrooted werden sollen.

echo „/bin/false“ >> /etc/shells

Fail2ban

nano /etc/fail2ban/jail.conf

[ssh]

enabled  = true

port     = ssh

filter   = sshd

logpath  = /var/log/auth.log

maxretry = 2

[vsftpd]

enabled  = false

port     = ftp,ftp-data,ftps,ftps-data

filter   = vsftpd

logpath  = /var/log/vsftpd.log

maxretry = 3

Mailserver

Da Debian ja ohnehin schon mit einem Mailserver daher kommt können wir diesen für einfache Aufgaben auch nutzen. In diesem Fall möchte ich einfach einen Mailversand über einen Smarthos realisieren.

dpkg-reconfigure exim4-config

5. Benutzer anlegen

useradd webuser -c „Benutzer fuer dasWebsystem via FTP“ -d /var/www/webseite.de -m -s /bin/false -U

usermod -G ftp && passwd webuser

6. Webseite einrichten

Zunächst einmal legen wir eine virtuelle Konfigurationsdatei an:

nano /etc/apache2/sites-enabled/webseite.de

<VirtualHost webseite:80>

ServerName webseite.de

ServerAdmin webmaster@webseite.de

DocumentRoot /var/www/webseite.de/httpdocs/

<Directory /var/www/webseite.de/httpdocs>

Options +ExecCGI

AddHandler fcgid-script .php

FCGIWrapper /usr/bin/php-cgi .php

AllowOverride All

Order allow,deny

allow from all

</Directory>

ErrorLog ${APACHE_LOG_DIR}/webseite.de_error.log

LogLevel warn

CustomLog ${APACHE_LOG_DIR}/webseite.de_access.log combined

</VirtualHost>

Nun müssen wir noch die Verzeichnisse anlegen. Dies geschieht unterhalb des Homeverzeichnisses des Benutzers:

mkdir /var/www/webseite.de/httpdocs && chown :ftp /var/www/webseite.de/httpdocs

Fazit

Was haben wir bisher erreicht?

  • Wir haben einen zügigen Webserver
  • PHP mit Hilfe von FastCGI ausführt.
  • Der FTP-Server bietet die Möglichkeit Chrootfreie Benutzer zuzulassen
  • Systembenutzer können sich via FTP auf dem Server einloggen und landen in Ihrem Homeverzeichnis
  • Unterhalb des Homeverzeichnisses gibt es ein httpdocs Order der die Webseiten vorhalten wird
  • MySQL speichert seine Tabellen freundlicherweise in einzelnen InnoDB Dateien

Mehrere PHP Versionen innerhalb von Plesk 11.5

Bei der Arbeit mit Plesk kann es sinnvoll sein mehrere unterschiedliche Versionen von PHP innerhalb von Plesk zur Verfügung zu haben. Zum einen erleichtert es doch immens die Arbeit bei der Migration von Webseiten, zum anderen kann man so individueller auf die Bedürfnisse der Umgebung eingehen. Ziel ist es die jeweils zu verwendende PHP Version innerhalb des Plesk Panels auswählen zu können.

Grundsätzlich werden alle PHP Versionen als FastCGI zur Verfügung gestellt.

Das diese Pakete nicht vorkompiliert zur Verfügung stehen muss selbst hand angelegt werden. Hier gibt es diverse Anleitungen im Netz wie man unter Debian das alle Voraussetzungen schafft um ein sauberes Kompilat zu erhalten. Als hilfreich hat sich folgende Umgebung herausgestellt:

apt-get install apache2-suexec libpcre3-dev libpcre++-dev libpng12-dev libbz2-dev libcurl4-openssl-dev libc-client2007e-dev libjpeg-dev libgif-dev libgif4 libpthread-stubs0 libpthread-stubs0-dev libx11-dev libxau-dev libxcb1-dev libxdmcp-dev libxpm-dev x11proto-core-dev x11proto-input-dev x11proto-kb-dev xtrans-dev libxml2-dev libmysqlclient-dev libfreetype6-dev build-essential make wget build-essential

An dieser stelle muss nach Bedarf ergänzt werden, was man braucht oder aber eben nicht.

Nun fangen wir an mit der Einrichtung von PHP 5.3:
cd /usr/src
wget http://de1.php.net/get/php-5.3.28.tar.gz/from/this/mirror -O php.tar.gz
tar xzvf php.tar.gz
cd php-5.3.28

ln -s /usr/lib/libc-client.a /usr/lib/x86_64-linux-gnu/libc-client.a

./configure –prefix=/usr/share/php53 –datadir=/usr/share/php53 –mandir=/usr/share/man –bindir=/usr/bin/php53 –with-libdir=lib/x86_64-linux-gnu –includedir=/usr/include/php53 –sysconfdir=/etc/php53/apache2 –with-config-file-path=/etc/php53/apache2 –with-config-file-scan-dir=/etc/php53/conf.d –enable-libxml –enable-session –with-pcre-regex=/usr –enable-xml –enable-simplexml –enable-filter –disable-debug –enable-inline-optimization –disable-rpath –disable-static –enable-shared –with-pic –with-gnu-ld –with-mysql –with-gd –with-jpeg-dir –with-png-dir –with-xpm-dir –enable-exif –with-zlib –with-bz2 –with-curl –with-ldap –with-mysqli –with-freetype-dir –enable-soap –enable-sockets –enable-calendar –enable-ftp –enable-mbstring –enable-gd-native-ttf –enable-bcmath –enable-zip –with-pear –with-openssl=/usr/ –with-imap –with-imap-ssl –with-kerberos –enable-phar –enable-pdo –with-pdo-mysql –with-mysqli

make
make test
make install

Wenn alles durchgelaufen ist, erhalten wir eine interessante Übersicht:
Installing PHP SAPI module:       cgi
Installing PHP CGI binary: /usr/bin/php53/
Installing PHP CLI binary:        /usr/bin/php53/
Installing PHP CLI man page:      /usr/share/man/man1/
Installing build environment:     /usr/share/php53/lib/php/build/
Installing header files:          /usr/include/php53/php/
Installing helper programs:       /usr/bin/php53/
program: phpize
program: php-config
Installing man pages:             /usr/share/man/man1/
page: phpize.1
page: php-config.1
Installing PEAR environment:      /usr/share/php53/lib/php/
[PEAR] Archive_Tar    – already installed: 1.3.11
[PEAR] Console_Getopt – already installed: 1.3.1
[PEAR] PEAR           – already installed: 1.9.4
Wrote PEAR system config file at: /etc/php53/apache2/pear.conf
You may want to add: /usr/share/php53/lib/php to your php.ini include_path
[PEAR] Structures_Graph- already installed: 1.0.4
[PEAR] XML_Util       – already installed: 1.2.1
/usr/src/php-5.3.28/build/shtool install -c ext/phar/phar.phar /usr/bin/php53
ln -s -f /usr/bin/php53/phar.phar /usr/bin/php53/phar
Installing PDO headers:          /usr/include/php53/php/ext/pdo/

Das ist aus dem Grund interessant, weil es und etwas anschaulicher zeigt wo unsere
Datein liegen.

Nun kopieren wir noch die Beispielkonfigurationsdatei:
cp php.ini-production /etc/php53/apache2/php.ini

Wenn das erledigt ist, können wir Plesk mitteilen, wo es unser neues PHP findet, wie es heißen soll und was es damit anfangen soll:

/usr/local/psa/bin/php_handler –add -id PHP-5.3.28 -displayname NEWPHP-5.3 -path /usr/bin/php53/php-cgi -type fastcgi -phpini /etc/php53/apache2/php.ini

Haben wir das erledigt brauchen wir einfach nur noch unseren Apache neu starten und haben in den Hostingeinstellung der Pleskdomain unsere neue Version PHP mit dem Namen NEWPHP-5.3 zur Verfügung.

 

Quellen:

  • http://massivelydigital.com/run-two-versions-of-php-on-one-plesk-11-server/
  • http://blogs.reliablepenguin.com/2013/10/01/plesk-11-5-with-multiple-php-versions
  • http://zgadzaj.com/how-to-install-php-53-and-52-together-on-ubuntu-1204
  • http://wiki.apache.org/httpd/php-fcgid
  • http://www.soeren-hentzschel.at/technik/linux-server/2013/05/17/php-5-3-und-5-4-unter-debian-7-wheezy-parallel-installieren/