CanoScan Lide 110: Out of the box Hardware für Ubuntu
Erfreulich problemlos funktioniert dieser Flachbettscanner unter Ubuntu 13.04. Per USB anstecken. Fertig. Danach kann direkt mit Tools wie "Simple Scan" gescannt werden. So soll es ein.
Möglich, dass es Probleme mit der "E-Mail-Taste" und der "Photokopier-Taste" gibt. Da ich diese Funktionen nicht benötige kann ich dazu nichts sagen, zum reinen Scannen ist das Gerät allerdings super.
# /var/log/syslog nach dem Einstecken Sep 10 15:15:45 think kernel: [ 117.489711] usb 3-2: new high-speed USB device number 3 using xhci_hcd Sep 10 15:15:45 think kernel: [ 117.507211] usb 3-2: New USB device found, idVendor=04a9, idProduct=1909 Sep 10 15:15:45 think kernel: [ 117.507218] usb 3-2: New USB device strings: Mfr=1, Product=2, SerialNumber=0 Sep 10 15:15:45 think kernel: [ 117.507222] usb 3-2: Product: CanoScan Sep 10 15:15:45 think kernel: [ 117.507225] usb 3-2: Manufacturer: Canon Sep 10 15:15:45 think colord: Device added: sysfs-Canon-CanoScan
#Kernel Linux think 3.8.0-30-generic #44-Ubuntu SMP Thu Aug 22 20:52:24 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux
Logfile Monitoring und E-Mail Benachrichtigung mit swatch unter Debian und Ubuntu
Logfiles enthalten viele wertvolle Informationen. Eine Platte ist defekt, das RAID gibt den Geist auf, ein Backup ist fehlgeschlagen oder die Batterie von der USV ist kaputt. Leider bekommt man von diesen wichtigen Infos wenig mit, wenn man sich über auftauchende Probleme nicht automatisiert benachrichtigen lässt. Niemand kann (oder will :)) täglich alle anfallenden Logs checken.
Ein einfaches und effektives Monitoring kann man sich mit dem kleinen Daemon "swatch" einrichten. Swatch liest live Logfiles mit und führt Aktionen aus, wenn bestimmte Schlüsselworte in den Logfiles auftauchen.
Hier ein Quick and Dirty Setup um das Logfile von rsnapshot, einem Backuptool zu monitoren und bei Problemen eine Mail zu versenden:
# swatch installieren apt-get -y install swatch
Nun muss man sich das Logfiles das überwacht werden soll ansehen und identifizieren, was dort gelogged wird, wenn Fehler auftauchen. Hier als Beispiel das Logfile von rsnapshot nach einem Backup, das Probleme verursacht hat:
[15/May/2013:01:00:21] require Lchown [15/May/2013:01:00:21] Lchown module loaded successfully [15/May/2013:01:00:21] /usr/bin/rsnapshot daily: started [15/May/2013:01:00:21] Setting locale to POSIX "C" [15/May/2013:01:00:21] echo 13895 > /var/run/rsnapshot.pid [15/May/2013:01:00:21] /root/scripts/nas-backup [15/May/2013:01:00:26] /bin/rm -rf /media/net/nas1/data/daily.6/ [15/May/2013:01:13:30] mv /media/net/nas1/data/daily.5/ /media/net/nas1/data/daily.6/ [15/May/2013:01:13:30] mv /media/net/nas1/data/daily.4/ /media/net/nas1/data/daily.5/ [15/May/2013:01:13:30] mv /media/net/nas1/data/daily.3/ /media/net/nas1/data/daily.4/ [15/May/2013:01:13:30] mv /media/net/nas1/data/daily.2/ /media/net/nas1/data/daily.3/ [15/May/2013:01:13:30] mv /media/net/nas1/data/daily.1/ /media/net/nas1/data/daily.2/ [15/May/2013:01:13:30] /bin/cp -al /media/net/nas1/data/daily.0 /media/net/nas1/data/daily.1 [15/May/2013:01:30:07] /usr/bin/rsync -av --delete --numeric-ids --relative --delete-excluded /media/local/share /media/net/nas1/data/daily.0/localhost/ [15/May/2013:01:32:19] rsync succeeded [15/May/2013:01:32:19] /usr/bin/rsync -av --delete --numeric-ids --relative --delete-excluded /etc /media/net/nas1/data/daily.0/localhost/ [15/May/2013:01:32:21] rsync succeeded [15/May/2013:01:32:21] /usr/bin/rsync -av --delete --numeric-ids --relative --delete-excluded /home /media/net/nas1/data/daily.0/localhost/ [15/May/2013:03:28:06] rsync succeeded [15/May/2013:03:28:06] /usr/bin/rsync -av --delete --numeric-ids --relative --delete-excluded /var /media/net/nas1/data/daily.0/localhost/ [15/May/2013:03:55:06] /usr/bin/rsnapshot daily: ERROR: /usr/bin/rsync returned 12 while processing /var/ [15/May/2013:03:55:06] /usr/bin/logger -i -p user.err -t rsnapshot /usr/bin/rsnapshot daily: ERROR: /usr/bin/rsync returned 12 while processing /var/ [15/May/2013:03:55:06] touch /media/net/nas1/data/daily.0/ [15/May/2013:03:55:08] No directory to delete: /media/net/nas1/data/_delete.13895 [15/May/2013:03:55:08] rm -f /var/run/rsnapshot.pid [15/May/2013:03:55:08] /usr/bin/logger -i -p user.err -t rsnapshot /usr/bin/rsnapshot daily: ERROR: /usr/bin/rsnapshot daily: completed, but with some errors [15/May/2013:03:55:08] /usr/bin/rsnapshot daily: ERROR: /usr/bin/rsnapshot daily: completed, but with some errors
Im rsnapshot-Log tauchen also die Wörter "ERROR:" und "errors" auf, falls es Probleme gibt. Dies teilt man Swatch in einer neu angelegten Konfigurationsdatei mit:
#/etc/swatch/watch_rsnapshot watchfor /ERROR|errors/ mail addresses=daniel\@daniel-ritter.de,subject=RSNAPSHOT_BACKUP_HAT_WARNUNG_GENERIERT
In der "watchfor"-Zeile werden die zu überwachenden Schlüsselwörter konfiguriert, in der "mail"-Zeile gibt man eine Mail-Adresse und ein Subject für die Warn-Email an.
Nun muss swatch nur noch gestartet werden:
/usr/bin/swatch --config-file=/etc/swatch/watch_rsnapshot --tail-file=/var/log/rsnapshot.log --daemon
Fallstricke:
- Das Starten von swatch muss in die Startskripte des Servers eingefügt werden, damit swatch nach einem Reboot sofort wieder mit der Überwachung beginnt.
- Das E-Mail System des Servers muss funktionieren. Am Besten generiert man eine Testmail und überprüft, ob sie tatsächlich bei der konfigurierten E-Mail Adresse ankommt. Dafür kann man einfach eines der zu überwachenden Schlüsselworte an die überwachte Logdatei anhängen.
echo "errors" >> /var/log/rsnapshot.log
Bei Problemen schaut man am Besten in den Logdateien des MTA nach um dem Fehler auf die Schliche zu kommen /var/log/exim4/mainlog (Exim) oder /var/log/mail.log (Postfix)
SFTP mit chroot unter Debian Squeeze einrichten
Per SFTP können sicher Daten auf einen Server geschoben werden. Jedoch möchte man in der Regel nicht, dass der SFTP-Benutzer sich an der Konsole einloggen kann, oder auf andere Verzeichnisse als sein eigenes zugreifen darf. Seit OpenSSH 5 ist in den SSH-Daemon direkt SFTP-Funktionalität eingebaut, man benötigt also keine externe Serversoftware mehr. Ein beschränkter Benutzer für SFTP kann so eingerichtet werden:
User für SFTP anlegen:
# User anlegen adduser sftp # Kein Shell-Zugriff usermod -s /bin/false sftp # Für chroot muss das Userverzeichnis root gehören und darf nicht world/group writeable sein chown root:root /home/sftp chmod 755 /home/sftp # Der User darf nicht direkt ins chroot /home/sftp schreiben. Uploadverzeichnis anlegen mkdir /home/sftp/upload chown sftp:sftp /home/sftp/upload
sshd Config anpassen:
#/etc/ssh/sshd_config Subsystem sftp internal-sftp # Auskommentieren: #Subsystem sftp /usr/lib/openssh/sftp-server Match User sftp ChrootDirectory /home/%u ForceCommand internal-sftp X11Forwarding no AllowTcpForwarding no
SSHD neu starten:
/etc/init.d/sshd restart
Debuggen:
tail -f /var/log/auth.log
Fallstricke:
Auch übergeordnete Verzeichnisse, also / und /home müssen root gehören und die Rechte müssen auf 755 gesetzt sein.
Dynamischen DNS-Hostname von FreeDNS updaten mit inadyn
Länger als ein Jahrzehnt war Dyndns.org der beliebteste kostenlose Anbieter für dynamische DNS Dienste. Leider hat der Dienst vor einiger Zeit seine Geschäftspolitik geändert und ist jetzt nicht mehr kostenlos.
Eine gute kostenlose Alternative ist FreeDNS.
Hier können kostenlos beliebig viele dynamische Hosts unter einem Account angelegt werden und es gibt eine große Auswahl an Domains, aus der man sich den favourisierten eigenen Namen aussuchen kann.
1. Account bei FreeDNS erstellen (http://freedns.afraid.org)
2. Dynamischen Hostnamen anlegen
3. FreeDNS Hashwert für den Account ermitteln. Dafür im Hauptmenü auf "Dynamic DNS" klicken. Danach unten auf der Seite auf "Direct URL" klicken. Aus der URL den Hashwert extrahieren.
URL: http://freedns.afraid.org/dynamic/update.php?9g86g9876g978g976g976g908g7==
Hashwert: 9g86g9876g978g976g976g908g7
4. Updateclient unter Linux installieren und starten:
#!/bin/bash apt-get -y install inadyn inadyn --background --dyndns_system default@freedns.afraid.org -a mein.host.name,hashwert
Update:
Es geht auch ganz ohne Client mit Bordmitteln. Einfach einen Cronjob anlegen, der mit wget die Update-URL aufruft.
#/etc/crontab #Alles in EINE Zeile.... */5 * * * * root wget --no-check-certificate -O - https://freedns.afraid.org/dynamic/update.php?9g86g9876g978g976g976g908g7==
Out of The Box USB Soundkarte für Linux – Logilink (UA0078) Soundkarte 7.1
Für ganze 6 Euro ist mir diese kleine, praktische USB-Soundkarte in die Hände gefallen. Sie besitzt eine Micbuchse, eine Speakerbuchse und einen Lautstärkeregler. Mit ihrer Hilfe kann man jedem Rechner sofort eine Soundkarte spendieren. Praktisch zum Beispiel temporär auf Servern um VoiP zu nutzen, oder um Sound auf einem Rechner zu haben, dessen Soundkarte Probleme macht.
Der Klang ist natürlich nicht berauschend, aber das echte Plug and Play ist problemlos.
Sie läuft direkt Out Of The Box nach dem Einstecken unter Ubuntu 12.04. Im Pulseaudiomixer taucht sie als "Audio Adapter Analog Stereo" auf und kann dort geregelt werden.
#/var/log/syslog Aug 4 18:55:22 ww kernel: [ 4629.448058] usb 5-2: new full-speed USB device number 7 using ohci_hcd Aug 4 18:55:22 ww mtp-probe: checking bus 5, device 7: "/sys/devices/pci0000:00/0000:00:13.0/usb5/5-2" Aug 4 18:55:22 ww mtp-probe: bus: 5, device: 7 was not an MTP device Aug 4 18:55:22 ww kernel: [ 4629.638832] input: C-Media USB Headphone Set as /devices/pci0000:00/0000:00:13.0/usb5/5-2/5-2:1.3/input/input16 Aug 4 18:55:22 ww kernel: [ 4629.639006] generic-usb 0003:0D8C:000C.0009: input,hidraw2: USB HID v1.00 Device [C-Media USB Headphone Set ] on usb-0000:00:13.0-2/input3
Android Kontakte und Kalender ohne Google syncen mit Horde 4
Ich wollte meine persönlichen Daten nie Google geben und habe deswegen unter Android bisher auf das Syncen von Kalender und Adressbuch verzichtet. Als Notlösung habe ich regelmässige Backups mit My Backup Pro angefertigt. Schön war das allerdings nicht. Da ich inzwischen auch ein Android-Tablet besitze wurde syncen noch wichtiger. Zum Glück lässt sich das inzwischen komplett mit Open Source Software bewerkstelligen, falls die Android-Geräte "Microsoft Active Sync" unterstützen. Mit dieser Sync-Methode kann man seinen Androiden normalerweise an ein Exchange-Konto anbinden. Die kostenlose Groupware Horde bietet seit Version 4 allerdings auch einen kompatiblen ActiveSync-Server an. Damit steht der Android Synchronisation über mehrere Devices mit dem eigenen Server nichts mehr im Wege.
Grundvoraussetung ist ein eigener Linux-Server mit Apache und MySQL.
Zunächst muss Horde 4 installiert werden:
# Die Paketierung von Horde 4 läuft über PEAR apt-get install pear # PEAR auf den neuesten Stand bringen pear upgrade pear # Den Horde-Channel dem lokalen Pear bekannt machen pear channel-discover pear.horde.org # Horde Installationsverzeichnis konfigurieren pear install horde/horde_role pear run-scripts horde/horde_role # Hier wird nach einem Installationsverzeichnis für Horde 4 gefragt. # In meinem Beispiel ist es /var/www/horde4 # Horde installieren pear install -a -B horde/webmail # Horde Konfiguration umbenennen, um Horde zu aktivieren cd /var/www/horde4/config cp ./conf.php.dist ./conf.php # Dem Webserver Rechte auf alle Horde-Files geben chown -R www-data /var/www/horde4
Datenbank für Horde in MySQL anlegen:
Horde benötigt eine Datenbank in MySQL. In meinem Beispiel habe ich für Horde mit PHPMyAdmin den Benutzer "horde4" und die Datenbank "horde4" angelegt.
Horde über den Webbrowser konfigurieren:
Horde kann nun über den Webbrowser konfiguriert werden. Dazu öffnet man im Browser http://www.meinserver.de/horde4 . Da noch nicht konfiguriert wurde, welche Authentifizierung Horde nutzt, wird man direkt als Administrator der Installation eingeloggt.
Datenbank konfigurieren:
(Administration -> Konfiguration -> Horde -> Database)
Hier die Daten zur angelegten MySQL Datenbank eintragen:
Horde Authentifizierung konfigurieren:
Horde benötigt ein Backend um den Benutzernamen und das Passwort zu überprüfen. Horde bietet dafür viele verschiedene Möglichkeiten an. Der Einfachheit halber kann man hier das Password-File benutzen (/etc/passwd). Der User muss dann nur im lokalen System angelegt werden:
adduser horde_user
(Administration -> Konfiguration -> Horde -> Authentication)
Datenbanktabellen für Horde anlegen:
Horde konnte bisher die eigenen Datenbanktabellen in MySQL noch nicht anlegen, da wir ihm eben erst die MySQL-Benutzerdaten mitgeteilt haben. Um die Tabellen anzulegen besucht man die Hauptseite der Konfiguration und wählt "Alle DB-Schemata aktualisieren", bis das Ganze so aussieht:
(Administration -> Konfiguration)
Ab sofort sollte man sich in Horde mit dem Benutzer "horde_user" und dem beim adduser-Kommando gewählten Passwort einloggen können.
Apache konfigurieren
Damit Android an Horde syncen kann, muss noch ein Alias in die Apache-Konfiguration eingetragen werden:
#/etc/apache2/httpd.conf Alias /Microsoft-Server-ActiveSync /var/www/horde4/rpc.php
Das ist notwendig, da Active-Sync Clients automatisiert die URL /Microsoft-Server-ActiveSync aufrufen, wenn sie mit ihrem Server connecten. Horde händelt die Synchronisation allerdings über die Datei rpc.php
Danach muss Apache seine Konfiguration neu laden lassen:
/etc/init.d apache2 reload
Wenn alles geklappt hat, sollte man nun auf seinem Androiden Sync-Konten einrichten können:
Mit diesem Setup Synce ich erfolgreich zwischen Horde, einem Sony Ericsson Xperia Mini Pro und einem Samsung Galaxy Tab.
Fallstricke:
- Ich hatte zunächst mit doppelten Kontakten und Kalendereinträgen zu kämpfen. Am Besten exportiert man zunächst alle Kontakte und den Kalender aus dem Handy und importiert sie in Horde. Danach löscht man alle Daten auf dem Handy und lässt sie von Horde wieder in das angelegte Active-Sync-Konto auf dem handy schieben. Horde bietet viele verschiedene Möglichkeiten an Daten zu importieren. (Organisieren -> Kalender -> Import/Export) und (Organisieren -> Adressbuch -> Import/Export). Den Kalender bekommt man zum Beispiel aus Android gut mit der App "iCal Import/Export" heraus. Mein SONY bot für den Export der Kontakte selbst die Möglichkeit an, diese in ein VCard-File zu exportieren. Aber auch hier gibt es sicher eine geeignete Lösung bei Google Play.
- Die Horde Authentifizierung per /etc/passwd sollte wie oben beschrieben funktionieren. Ich habe sie allerdings nur der Einfachheit halber für dieses Howto gewählt und nicht getestet, da ich selbst Horde an meinem IMAP-Server authentifiziere.
- Als ich angefangen habe die Syncerei zu testen, funktionierte es zuerst nur mit meinem Tablet und nicht mit dem Handy. Nach 1 Stunde frickeln war der Fehler gefunden: Android synct nicht, wenn der interne Speicher zu voll ist. Nachdem ich ein paar Apps auf die SD-Karte verschoben hatte, ging es sofort.
Beliebige Videodateien mit ffmpeg für die PS3 in H264 konvertieren
Nach viel Sucherei und Ausprobiererei habe ich jetzt endlich herausgefunden, wie ich in möglichst guter Qualität und möglichst kleiner Dateigröße Dateien für den Mediaplayer der PS3 mit ffmpeg konvertieren kann. Die Videodateien jedes beliebigen Formates das ffmpeg unterstützt kommen in das konfigurierbare INDIR. Die konvertierten, auf der PS3 abspielbaren, Dateien landen in OUTDIR.
#!/bin/bash
# Eingangs und Ausgangsverzeichnis konfigurieren
INDIR=/home/user/vid_in
OUTDIR=/home/user/vid_out
# Eventuellen Whitespace aus den Dateinamen entfernen
find $INDIR -name "* *" -type f | rename 's/ /_/g'
for f in $(ls $INDIR)
do
# Mit ffmpeg in H264 und AAC konvertieren (Achtung, der ffmpeg-Befehl muss in EINE Zeile)
ffmpeg -y -i $INDIR/$f -vcodec libx264 -level 41 -crf 24 -threads 2 -acodec libfaac -ab 128k -ac 2 -ar 48000 $OUTDIR/$f.mp4
# Ende ffmpeg Befehl
# Die folgende Zeile kann auskommentiert werden, wenn die Originaldateien
# gelöscht werden sollen.
#rm $INDIR/$f
done
Das in den Ubuntu-Repos vorhandene ffmpeg unterstützt leider kein H264, man muss ffmpeg selbst kompilieren um in den Genuß zu kommen. Das geht mit diesem Script hier ganz leicht:
http://pasindudps.blogspot.de/2011/10/install-ffmpeg-in-ubuntu-1110-oneiric.html
Out of the box Gigabit PCI Express Netzwerkkarte für Ubuntu und Debian
no images were found
Nach Problemen mit einer Onboard-Netzwerkkarte habe ich problemlos funktionierenden aktuellen Ersatz gesucht und bin auf folgende Karte gestossen:
Intel EXPI9301CTBLK PRO1000 Netzwerkkarte CT PCIex bulk
Sie funktioniert direkt Out of the Box unter Ubuntu und Debian mit aktuellem Kernel und dem Kernelmodul e1000e.
Ins PXE-Setup gelangt man beim booten des Rechners durch drücken von CTRL-S.
ww-ww-13:05:10 ~ -> uname -a Linux ww 3.0.0-16-generic #28-Ubuntu SMP Fri Jan 27 17:44:39 UTC 2012 x86_64 x86_64 x86_64 GNU/Linux
ww-ww-13:05:41 ~ -> lspci | grep Intel 02:00.0 Ethernet controller: Intel Corporation 82574L Gigabit Network Connection
ww-ww-13:05:48 ~ -> dmesg | grep Intel [ 0.000000] Intel GenuineIntel [ 1.426119] e1000e: Intel(R) PRO/1000 Network Driver - 1.3.10-k2 [ 1.426121] e1000e: Copyright(c) 1999 - 2011 Intel Corporation. [ 1.543197] e1000e 0000:02:00.0: eth1: Intel(R) PRO/1000 Network Connection
ww-root-13:15:13 /home/ww -> ethtool eth1 Settings for eth1: Supported ports: [ TP ] Supported link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Supports auto-negotiation: Yes Advertised link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Advertised pause frame use: No Advertised auto-negotiation: Yes Speed: 100Mb/s Duplex: Full Port: Twisted Pair PHYAD: 1 Transceiver: internal Auto-negotiation: on MDI-X: off Supports Wake-on: pumbg Wake-on: g Current message level: 0x00000001 (1) drv Link detected: yes
ww-root-13:17:30 /home/ww -> ethtool -i eth1 driver: e1000e version: 1.3.10-k2 firmware-version: 1.8-0 bus-info: 0000:02:00.0 supports-statistics: yes supports-test: yes supports-eeprom-access: yes supports-register-dump: yes
Den Firexfox-Cache auf die Ramdisk auslagern unter Ubuntu
Um den Firefox ein wenig zu beschleunigen kann man den Cache auf die RAM-Disk auslagern.
Unter Ubuntu ist diese Standardmässig schon unter /dev/shm vorhanden und kann direkt benutzt werden. Sie wird je nach verfügbaren RAM im Rechner automatisch angelegt.
box-root-16:32:35 / -> df -h /dev/shm Dateisystem Größe Benut Verf Ben%% Eingehängt auf none 7,9G 11M 7,9G 1% /run/shm
Man muss Firefox lediglich so konfigurieren, dass /dev/shm als Cache-Verzeichnis genutzt wird. Leider ist dies nicht mehr über die grafischen Einstellungen möglich, man muss selbst Hand anlegen. Dazu öffnet man Firefox und gibt in der Adressleiste about:config ein.
Mit einem Rechtsklick legt man im Konfigurationsinterface einen neuen String-Wert mit dem Namen browser.cache.disk.parent_directory an und gibt diesem den Wert /dev/shm.
Ab sofort speichert Firefox auf der RAM-Disk zwischen. Vor- und Zurückblättern im Browser wird einen Tick schneller.
Je nach Betrachtungsweise ist der Vorteil oder Nachteil an dieser Einstellung, dass der Cache verloren geht, wenn man den Rechner ausschaltet, da die zwischengespeicherten Webseiten und Bilder nur noch im RAM laden und nicht mehr auf der Platte.
Online mit Alice DSL unter Debian via pppd ohne Alice Router mit eigenem DSL-Modem
Ich habe mich auf das Wagnis Alice eingelassen, trotz sehr schlechter Forenbeiträge im ganzen Web hat mich der zur Zeit extrem günstige Preis gelockt.
Leider vermietet Alice zwangsweise seine kombinierte Anschlußbox mit Router, WLAN und vorkonfiguriertem VoIP mit. Das mag für die meisten User in Ordnung sein, ich habe meinen Server lieber direkt als Firewall und Router an der Leitung.
Falls man Alice auch zum telefonieren benutzen möchte benötigt man leider zwingend die Alice-Box, da hier die Telefonie Zugangsdaten versteckt von Alice hinterlegt sind. Ohne sie kann man nicht telefonieren, die Hotline nennt diese bei Nachfrage angeblich nicht.
Da ich die Alice-Telefonie zum Glück nicht brauche und die Leitung nur für Internet benutzen will, stand meinem gewünschten Setup nichts mehr im Wege, ausser ein wenig pppd-Frickelei.
Nach Alice-Angabe muss man die Leitung zunächst "aktivieren". Dafür liegt dem Modem eine CD bei, die mit einem (verbuggten) Assistenten durch die Inbetriebnahme führt. Ich vermute, dass dieser Schritt nicht wirklich nötig ist, aber ich habe ihn zur Sicherheit ausgeführt.
Dafür habe ich ein Windows-Notebook an die original Alice-Box geklemmt und die "Aktivierung" durchgeführt.
Danach benötigt man die Alice-Box nicht mehr.
Ich habe mein altes Congstar-Box DSL-Modem ohne Splitter an die Leitung gehängt und per Ethernet mit meinem Server verbunden.
Danach müssen nur noch ein paar Configdateien angepasst werden:
#/etc/ppp/peers/alice # Interface zum DSL-Modem auswählen und MTU setzen pty "pppoe -I eth1 -m 1452" connect /bin/true ipcp-accept-remote ipcp-accept-local usepeerdns noipdefault defaultroute #Hier eigenen Usernamen eintragen user "0123456789@alice-dsl.de" hide-password noaccomp nopcomp novj novjccomp nobsdcomp nodeflate noccp nocrtscts local noauth lcp-echo-interval 10 lcp-echo-failure 3 lock # Die beiden Nachfolgenden Optionen sind nützlich zum Debuggen #debug #nodetach
#/etc/ppp/pap-secrets "0123456789@alice-dsl.de" * "passwort" *
Danach ist mit pon alice eine Anwahl möglich
gbn-root-21:40:15 /etc/ppp -> pon alice
Die Konfig funktioniert gut und ist ganz dreist geklaut von http://www.alice-wiki.de/Debian Dort findet man auch Erklärungen zu allen Optionen und eine Menge weitere gute Infos über die DSL-Einwahl im Allgemeinen und bei Alice im Besondern.
Tweet Neglector. A small PHP script to delete old Tweets from Twitter
Tweet Neglector automates the process of deleting old tweets from your Twitter account. Basicly it provides an "expire" functionality for your tweets. It is useful for people who want to use Twitter but don't want a history of their tweets to stay online for decades.
HISTORY: Nov 20 2011 | Version 0.1 Initial release. Deletes Tweets Dez 28 2011 | Version 0.2 Small bug fixes. Now deletes Retweets as well. Nov 05 2012 | Version 0.3 Twitter changed it's API and TweetNeglector was affected by it. With a quick and dirty hack I made it work again. Much of the code is obsolete now and TN should be rewritten, but it's working fine. Jul 26 2013 | Version 0.4 Twitter changed it's API once again. This is a complete rewrite of Tweet Neglector. It can now remove up to 3200 old Tweets and Retweets per run. Aug 1 2013 | Version 0.5 Small cosmetic fix.
Tweet Neglector uses the Twitter API to delete all your tweets that were posted before a given number of days from now. This way you could configure the script to delete all tweets that are older than a week or a month for example. The script should be automatically run from a cronjob or another automation mechanism on a regular base.
This script can't protect you from external Tweet archives like the Library of Congress. Also it is unknown if deleted Tweets are still archived by Twitter (I bet they are). It can clean up your timeline though, so people can't see your old tweets on Twitter anymore. So (as always) think before tweeting.
Tweet Neglector uses PHP as scripting language and bundles the Twitter-API-PHP library by James Mallison for API-Access.
Installation
- Unzip the archive into a directory of your choice. - Register your Twitter API-Keys at https://dev.twitter.com/apps - Edit the configuration of the script to suit your needs in tweetneglector.php - Run the script manually from browser, console or automatically by cronjob /usr/bin/php /var/www/tweetneglector/tweetneglector.php
Download Tweet Neglector 0.5 here