Tag Archives: www

google_reader

News im Internet suchen / filtern / finden

Heute wollte ich beschreiben, wie ich mich über IT-News informiere, denn jeder der sich mit dem Thema “IT” beschäftigt bemerke schnell das aktuelle Informationen sehr wichtig sind, wenn z.B. eine Sicherheitslücke bekannt wird, Updates für bestimmte Programme anstehen oder man sich “einfach” über neue Technologien / Programme / etc. informieren möchte.


An alle IT-Blogger: Ich bin immer auf der Suche nach neuen IT-Blogs und interessanten IT-News, daher würde ich euch bitten, folgende Angaben als Kommentar zu hinterlassen, so dass ich euch folgen und eure Nachrichten lesen kann, thx.

  1. RSS-Feed
  2. ggf. Twitter/Identi.ca – Account
  3. ggf. Facebook-Fanpage


Google-Reader

Der Google Reader ist sehr praktisch, da man nicht die verschiedenen News-Seiten besuchen muss, man hat alle Informationen auf einem Blick zusammen. (Im RSS-Feed bitte immer ganze Artikel anzeigen lassen, anders macht RSS keinen Sinn!!!) Zudem kann man im Google-Reader auch bei anderen Google-Usern (Buzz) mitlesen, welche wiederum Infos/News weiterempfehlen können, so baut man sich schnell seine persönliche kleine News-Zentrale zusammen. Damit das ganze nicht unübersichtlich wird, sollte man die RSS-Feed in einzelne Ordner (Kategorien) speichern. Die Krönung ist ganzen ist dann, wenn du dir das Google-Reader App auf deinem Android-Smartphone installierst und immer alle aktuellen News abrufbereit in der Tasche hast.

Tipp: Per iGoogle (Google – Startseite) kannst du dir deine Google-Reader News auch anzeigen lassen und mehr viele weitere Infos wie z.B. das Wetter etc.


Auf speziellen Webseiten, werden auch RSS-Feed von Blogs zusammengefasst, so dass man diese nicht selber organisieren muss bzw. auch neue Blogs / News findet. Wer sich für das Thema (RSS-Sammlung -Planet) interessiert, kann sich eine solche Software ggf. auch selber installieren – www.planetplanet.org

z.B.:


+ News werden archiviert

+ Ordner erleichtern die Verwaltung

+ komplette News auf einer Webseite

- unübersichtlich, bei vielen Abos

- ggf. doppelte News bei mehreren Abos


google_reader
google_reader


der bessere Google-Reader – feedly.com

Auch wenn die Technik vom Google-Reader schon sehr gut ist, wirklich ansprecht / übersichtlich sieht es nicht wirklich aus, daher nutze ich www.feedly.com. (verfügbar für Chrome, Firefox, Safari) Die einzelnen Kategorien vom Google-Reader kannst du dir nun übersichtlich in einer Art Zeitungsformat anzeigen lassen und bekommst viele weiter News Empfehlungen.


+ Ordner erleichtern die Verwaltung

+ komplette News auf einer Webseite

+ News werden gewichtet

+ Übersichtliche Darstellung

- nur im Browser verfügbar (App ist jedoch in Arbeit)


feedly
feedly


News für unterwegs

Wenn man aus welchem Grund auch immer unterwegs (offline) News lesen möchte, kann man sich auch mehrere RSS-Feed per E-Mail zuschicken lassen und zwar auf tabbloid.com. Außerdem nutze ich auch noch readitlaterlist.com, wir der Name (Read It Later) schon sagt, kann man hier bequem Webseiten abspeichern und später offline lesen.

Tipp: Für “Read It Later” gibt es auch Apps für dein Smartphone, falls du keine Internetflat hast. ;-)


+ Internet wird nicht ständig benötig

- ein wenig unübersichtlich (readitlaterlist.com)

- unübersichtlich (tabbloid.com)


multi_RSS_per_pdf
multi_RSS_per_pdf


read_it_later
read_it_late


E-Mail (Newsletter)

Vor einiger Zeit habe ich mit mich darauf beschränkt (am Morgen) auf der Arbeit die IT-News des Tages per E-Mail zu lesen. Daher kann man meine Blog-Beiträge auch per E-Mail empfangen, dies lässt sich sehr einfach per RSS + FeedBurner realisieren.

Tipp: Unter Linux (Arch Linux & Ubuntu) nutzte ich “Claws Mail” als E-Mail Client. :-)


z.B.:


+ News werden archiviert

+ Filter-Regeln, erleichtern die Organisation

- unübersichtlich, bei vielen E-Mails / Abos

- ggf. doppelte News bei mehreren Abos


Twitter

Wer ein wenig Zeit mitbringt, kann auf Twitter auch viele neue Leute kennen lernen und interessante News in der “Timeline” lesen, ich folge hier vielen IT-Bloggern und kann jedem der Twitter nutzt nur empfehlen Twitter-Listen anzulegen, um ein wenig Ordnung in die Informationsflut zu bekommen. z.B.: twitter.com/suckup_de/lists Indem andere diese Listen wiederum abonnieren, kann man auch ohne viel Zeitaufwand vielen News finden.

Tipp: Wer eine freie Alternative zu Twitter sucht sollte sich einmal identi.ca anschauen…


+ News in Echtzeit

+ Listen erleichtern die Verwaltung

- unübersichtlich Timeline, bei vielen Nachrichten

- spezielle News werden schnell überlesen

- doppelte News


Twitter_Listen
Twitter_Listen


Twitter_IT-Blogger
Twitter_IT-Blogger

Online-Zeitung (Twitter)

Als Ergänzung zu Twitter möchte ich an dieser Stelle kurz “Twittertim.es” und “paper.li” vorstellen. Bei Twittertim.es kann man aus seiner Timeline eine Zeitung generieren, die Reihenfolge der Beiträge ergeben sich daraus, wie viele Bekannte diese Nachricht ebenfalls erwählt haben. paper.li ist ebenfalls ein Online-Zeitungs-Dienst, welcher Twitter und ggf. Facebook Meldungen (News) verarbeitet. Der Vorteil von paper.li ist der, dass man auch die erwähnten Twitter-Listen als ansprechende Zeitung publizieren und abonnieren kann. z.B.: paper.li/suckup_de/it-nachrichten


+ News werden gewichtet

+ Übersichtliche Darstellung

- spezielle News werden ggf. nicht anzeigt


paper_politik
paper_politik


Social-News

Ergänzend zu den bisher Vorgestellen News-Quellen schaue ich teilweise auch in sogenannte Social-News, dort können User (du und ich) Nachrichten einreichen, diese können dann von anderen gepusht werden. Um so mehr Stimmen ein Beitrag erhält, desto weiter vorne (oben) wird dieser Angezeigt.

z.B.:


+ News werden gewichtet

- ggf. unrelevante / uninteressante News

- spezielle News werden schnell überlesen

- etwas unübersichtlich


Podcasts (Audio-News)

Sehr schön finde ich auch Padcasts, wo sehr liebe Menschen News zusammentragen, diese als eine Art Radiosendung verpacken und als Audio-File anbieten. Solch ein Podcast kannst man sich jedoch nur anhören, wenn man auch die Zeit mitbringt! z.B. auf dem Weg zur Arbeit / im Zug / oder einfach gemütlich zu Hause. ;-)

z.B.:


+ ausführliche News

+ irgendwie persönlicher als ein heise-Artikel :-)

- festgelegte Themenauswahl

- ggf. lange Laufzeit

nginx_logo_klein2

Nginx + Varnish auf Debian/Ubuntu

Zurück zur “Webseiten beschleunigen” – Übersicht

5.4) Nginx mit Varnish


“Varnish ist ein Web-Beschleuniger für dynamische Web-Seiten mit viel Inhalt. Im Gegensatz zu anderen Web-Beschleunigern, die häufig aus clientseitigen Proxies oder aus Servern entstanden, wurde Varnish von Grund auf als Web-Beschleuniger konzipiert.” – Wiki


Als erstes erweitern wir unsere sources.list, so dass wir die Varnish-Software einfach installieren / updaten können:


Ubuntu:

echo "http://repo.varnish-cache.org/ubuntu/ lucid varnish-2.1" >> /etc/apt/sources.list


Debian:

echo "deb http://repo.varnish-cache.org/debian/ lenny varnish-2.1" >> /etc/apt/sources.list


Nun installieren wir Varnish…

curl http://repo.varnish-cache.org/debian/GPG-key.txt | apt-key add -
aptitude install varnish


Nun müssen wir einige Eistellungen an Varnish vornehmen, so dass dieser als erstes angesprochen wird…

vim /etc/default/varnish
# Configuration file for varnish
#
# /etc/init.d/varnish expects the variables $DAEMON_OPTS, $NFILES and $MEMLOCK
# to be set from this shell script fragment.
#

# Should we start varnishd at boot?  Set to "yes" to enable.
START=yes

# Maximum number of open files (for ulimit -n)
NFILES=131072

# Maximum locked memory size (for ulimit -l)
# Used for locking the shared memory log in memory.  If you increase log size,
# you need to increase this number as well
MEMLOCK=82000

# Default varnish instance name is the local nodename.  Can be overridden with
# the -n switch, to have more instances on a single server.
INSTANCE=$(uname -n)

## Configuration with VCL
#
DAEMON_OPTS="-a :80 \
             -T localhost:6082 \
             -f /etc/varnish/default.vcl \
             -S /etc/varnish/secret \
             -s file,/var/lib/varnish/$INSTANCE/varnish_storage.bin,1G"

## TEST
#
#DAEMON_OPTS="-a :80 \
#             -T localhost:6082 \
#             -f /etc/varnish/default.vcl \
#             -s malloc,512M \
#             -p lru_interval=3600 \
#             -p thread_pool_max=2000 \
#             -p listen_depth=2048 \
#             -p 'cc_command=exec cc -fpic -shared -Wl,-x -L/usr/include/libmemcached/memcached.h -lmemcached -o %o %s' \
#             -h classic,500009 \
#             -t 0"

## Alternative 3, Advanced configuration
#
# See varnishd(1) for more information.
#
# # Main configuration file. You probably want to change it :)
# VARNISH_VCL_CONF=/etc/varnish/default.vcl
#
# # Default address and port to bind to
# # Blank address means all IPv4 and IPv6 interfaces, otherwise specify
# # a host name, an IPv4 dotted quad, or an IPv6 address in brackets.
# VARNISH_LISTEN_ADDRESS=
# VARNISH_LISTEN_PORT=6081

#
# # Telnet admin interface listen address and port
# VARNISH_ADMIN_LISTEN_ADDRESS=127.0.0.1
# VARNISH_ADMIN_LISTEN_PORT=6082
#
# # The minimum number of worker threads to start
# VARNISH_MIN_THREADS=1
#
# # The Maximum number of worker threads to start
# VARNISH_MAX_THREADS=1000
#
# # Idle timeout for worker threads
# VARNISH_THREAD_TIMEOUT=120
#
# # Cache file location
# VARNISH_STORAGE_FILE=/var/lib/varnish/$INSTANCE/varnish_storage.bin
#
# # Cache file size: in bytes, optionally using k / M / G / T suffix,
# # or in percentage of available disk space using the % suffix.
# VARNISH_STORAGE_SIZE=1G
#
# # File containing administration secret
# VARNISH_SECRET_FILE=/etc/varnish/secret
#
# # Backend storage specification
# VARNISH_STORAGE="file,${VARNISH_STORAGE_FILE},${VARNISH_STORAGE_SIZE}"
#
# # Default TTL used when the backend does not specify one
# VARNISH_TTL=120
#
# # DAEMON_OPTS is used by the init script.  If you add or remove options, make
# # sure you update this section, too.
# DAEMON_OPTS="-a ${VARNISH_LISTEN_ADDRESS}:${VARNISH_LISTEN_PORT} \
#              -f ${VARNISH_VCL_CONF} \
#              -T ${VARNISH_ADMIN_LISTEN_ADDRESS}:${VARNISH_ADMIN_LISTEN_PORT} \
#              -t ${VARNISH_TTL} \
#              -w ${VARNISH_MIN_THREADS},${VARNISH_MAX_THREADS},${VARNISH_THREAD_TIMEOUT} \
#              -S ${VARNISH_SECRET_FILE} \
#              -s ${VARNISH_STORAGE}"
#


Nun muss du die Konfig anpassen, ich zeige hier ein Beispiel für meinen WordPress Blog… ggf. musst du für deine Webseiten jedoch noch weitere Einstellungen ändern.


vim /etc/varnish/default.vcl
backend default {
        .host = "127.0.0.1";
        .port = "8080";
}

acl purge {
        "localhost";
}

sub vcl_fetch {
        set beresp.ttl = 12h;
        set req.grace = 24h;
        if (req.url ~ "wp-(login|admin)") {
                return (pass);
        }
        if (req.url ~ "feed") {
                return (pass);
        }
        return (deliver);
        unset beresp.http.set-cookie;
        if (req.url ~ "\.(jpeg|jpg|png|gif|ico|swf|js|css|txt|gz|zip|rar|bz2|tgz|tbz|html|htm|pdf|pls|torrent)$") {
                set beresp.ttl = 48h;
        }

        remove req.http.X-Forwarded-For;
        set    req.http.X-Forwarded-For = req.http.rlnclientipaddr;
        if (req.url ~ "^/w00tw00t") {
                error 403 "Not permitted";
        }
        return(deliver);
}

sub vcl_deliver {
        if (obj.hits > 0) {
                set resp.http.X-Cache = "HIT";
                set resp.http.X-Cache-Hits = obj.hits;
        } else {
                set resp.http.X-Cache = "MISS";
        }
        remove resp.http.X-Varnish;
        remove resp.http.Via;
        remove resp.http.Age;
        remove resp.http.X-Powered-By;
}

sub vcl_recv {
        set req.grace = 6h;
        if (req.request == "PURGE") {
                if(!client.ip ~ purge) {
                        error 405 "Not allowed.";
                }
                purge("req.url ~ ^" req.url "$ && req.http.host == "req.http.host);
        }
        if (req.url ~ "\.(jpg|png|gif|gz|tgz|bz2|lzma|tbz)(\?.*|)$") {
                remove req.http.Accept-Encoding;
        } elsif (req.http.Accept-Encoding ~ "gzip") {
                set req.http.Accept-Encoding = "gzip";
        } elsif (req.http.Accept-Encoding ~ "deflate") {
                set req.http.Accept-Encoding = "deflate";
        } else {
                remove req.http.Accept-Encoding;
        }
        if( req.url ~ "^/wp-(login|admin)" || req.http.Cookie ~ "wordpress_logged_in_" ) {
                return (pass);
        }
        if (!(req.url ~ "wp-(login|admin)")) {
                unset req.http.cookie;
        }
        if (req.request != "GET" &&
                req.request != "HEAD" &&
                req.request != "PUT" &&
                req.request != "POST" &&
                req.request != "TRACE" &&
                req.request != "OPTIONS" &&
                req.request != "DELETE") {
                return (pipe);
        }
        if (req.request != "GET" && req.request != "HEAD") {
                return (pass);
        }
        if (req.http.Authorization || req.http.Cookie) {
                return (pass);
        }
        if (req.url ~ "\.(jpeg|jpg|png|gif|ico|swf|js|css|txt|gz|zip|rar|bz2|tgz|tbz|html|htm|pdf|pls|torrent)(\?.*|)$") {
                unset req.http.Authenticate;
                unset req.http.POSTDATA;
                set req.request = "GET";
                set req.url = regsub(req.url, "\?.*$", "");
                return (lookup);
        }
        unset req.http.cookie;
        return (lookup);
}

sub vcl_pipe {
        set bereq.http.connection = "close";
        if (req.http.X-Forwarded-For) {
                set bereq.http.X-Forwarded-For = req.http.X-Forwarded-For;
        } else {
                set bereq.http.X-Forwarded-For = regsub(client.ip, ":.*", "");
        }
}

sub vcl_pass {
        set bereq.http.connection = "close";
        if (req.http.X-Forwarded-For) {
                set bereq.http.X-Forwarded-For = req.http.X-Forwarded-For;
        } else {
                set bereq.http.X-Forwarded-For = regsub(client.ip, ":.*", "");
        }
}


Parallel müssen wir nun unseren Webserver, egal ob Apache oder in diesem Fall Nginx, auf den Port 8080 lauschen lassen.  Beim Nginx ist dies relativ simpel, du muss nur “listen 80″ -> “listen 8080″ ändern. Ich zeige an dieser Stelle jedoch einmal meine Nginx-Konfiguration für meinen WordPress Blog.

Wie immer gilt, erst verstehen, dann kopieren… :-)
server {
        listen 8080;
        server_name suckup.de www.suckup.de blog.voku-online.de linux.voku-online.de windows.voku-online.de ubuntu.voku-online.de allgemein.voku-online.de cdn1.voku-online.de cdn2.voku-online.de cdn3.voku-online.de cdn4.voku-online.de cdn5.voku-online.de *.suckup.de;
        root /var/www/www.suckup.de/web/;
        index index.php;
        access_log /var/log/nginx/suckup.access.log main;
        error_log /var/log/nginx/suckup.error.log;
        log_not_found on;

        ## Cache - testen
        open_file_cache max=2500 inactive=24h;
        open_file_cache_valid    24h;
        open_file_cache_min_uses 2;
        open_file_cache_errors   on;

        location ~* ^.+.(htm|html|jpg|jpeg|gif|png|ico|css|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|mid|midi|wav|bmp|rtf|js)(\?[0-9]+)?$ {
                root /var/www/www.suckup.de/web/;
                access_log off;
                expires max;
                break;
        }

        ## Optimierung - "(css/js).php" to "(css/js)"
        location /wp-content/plugins/wp-special-textboxes/css/ {
                location ~* \.(css.php)$ {
                        if ($args ~* ver=(.*)$) {
                                rewrite ^ $scheme://$host/wp-content/cache/wp-special-textboxes.css? permanent;
                        }
                }
        }
        location /wp-content/plugins/wp-special-textboxes/js/ {
                location ~* \.(js.php)$ {
                        if ($args ~* ver=(.*)$) {
                                rewrite ^ $scheme://$host/wp-content/cache/wstb.js? permanent;
                        }
                }
        }
        if ($args ~* ver=3.0.1$) {
                rewrite ^ $scheme://$host/wp-content/cache/wp-special-textboxes.css? permanent;
        }

        if (-f $request_filename) {
                break;
        }
        if (!-e $request_filename) {
                rewrite ^(.+)$ /index.php?q=$1 last;
        }

        # -----------------------------------------
        # http://wiki.nginx.org/Wordpress

        ## remove any multislashes //
        if ($request_uri ~* "\/\/") {
                rewrite ^/(.*) $scheme://$host/$1 permanent;
        }

        ## Slash am Ende anfuegen ?!?
        #if ($request_uri ~* "^[\w\-\/]+[^\/?]$") {
                #rewrite ^(.*)$ $scheme://$host$1/ permanent;
        #}

        ## www eifuegen
        #if ($host !~* ^(www|subdomain)) {
                #rewrite ^/(.*)$ $scheme://www.$host/$1 permanent;
        #}

        ## www vorne entfernen
        if ($host ~* ^www\.(.*)) {
                set $host_without_www $1;
                rewrite ^(.*)$ http://$host_without_www$1 permanent;
        }

        ## immer SSL verwenden
        #rewrite ^(.*) https://$server_name$1 permanent;

        ## immer HTTP verwenden
        #rewrite ^(.*) http://$server_name$1 permanent;

        ## Feedburner
        rewrite ^/e107_plugins/rss_menu/rss.php?(.*)$ http://suckup.de/feed/ last;
        if ($http_user_agent !~ (FeedBurner|Googlebot)) {
                rewrite ^/feed/?$ http://feeds.feedburner.com/suckup last;
                break;
        }

        ## WordPress3
        #if (!-e $request_filename) {
                #rewrite ^(.+)$ /index.php?q=$1 last;
                #break;
        #}

        ## WordPress3 MU
        #if (!-e $request_filename) {
                #rewrite ^.+/?(/wp-.*) $1 last;
                #rewrite ^.+/?(/.*\.php)$ $1 last;
                #rewrite ^(.+)$ /index.php?q=$1 last;
                #break;
        #}

        ## WordPress3 Multi-Domain
        rewrite ^.*/files/(.*)$ /wp-includes/ms-files.php?file=$1 last;
        if (!-e $request_filename) {
                rewrite ^.+/?(/ms-.*) $1 last;
                rewrite ^/files/(.+) /wp-includes/ms-files.php?file=$1 last;
                rewrite ^.+/?(/wp-.*) $1 last;
                rewrite ^.+/?(/.*.php)$ $1 last;
                rewrite ^(.+)$ /index.php?q=$1 last;
                break;
        }
        location ~* ^.+.(htm|html|jpg|jpeg|gif|png|ico|css|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|mid|midi|wav|bmp|rtf|js)(\?[0-9]+)?$ {
                access_log off;
                expires max;
                root /var/www/www.suckup.de/web/;
                rewrite ^/.(/wp-.*/.*.(html|jpg|jpeg|gif|png|ico|css|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|mid|midi|wav|bmp|rtf|js))(\?[0-9]+)?$ $1 last;
                break;
                rewrite ^.*/files/(.*(html|jpg|jpeg|gif|png|ico|css|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|mid|midi|wav|bmp|rtf|js))(\?[0-9]+)?$ /wp-includes/ms-files.php?file=$1 last;
                break;
                if (!-e $request_filename) {
                        rewrite ^.+/?(/wp-.*) $1 last;
                        rewrite ^.+/?(/.*.php)$ $1 last;
                        rewrite ^(.+)$ /index.php?q=$1 last;
                        break;
                }
        }

        ## WordPress-Forum
        if (!-e $request_filename) {
                rewrite ^/forums/topic/(.*)$ /forums/topic.php?q=$1 last;
                rewrite ^/forums/forum/(.*)$ /forums/forum.php?q=$1 last;
                rewrite ^/forums/profile/(.*)$ /forums/profile.php?q=$1 last;
                rewrite ^/forums/view/(.*)$ /forums/view.php?q=$1 last;
                rewrite ^/forums/tags/(.*)$ /forums/tags.php?q=$1 last;
                rewrite ^/forums/rss/(.*)$ /forums/rss.php?q=$1 last;
                rewrite ^/forums/bb-admin/ /forums/bb-admin/index.php last;
                rewrite ^/forums/ /forums/index.php last;
                break;
        }

        ## WordPress W3 Total Cache
        set $totalcache_file '';
        set $totalcache_uri $request_uri;
        if ($request_method = POST) {
                set $totalcache_uri '';
        }
        if ($query_string) {
                set $totalcache_uri '';
        }
        if ($http_cookie ~* "comment_author_|wordpress|wp-postpass_" ) {
                set $totalcache_uri '';
        }
        if ($totalcache_uri ~ ^(.+)$) {
                set $totalcache_file /wp-content/w3tc-suckup.de/pgcache/$1/_default_.html.gzip;
        }
        if (-f $document_root$totalcache_file) {
                rewrite ^(.*)$ $totalcache_file break;
        }

        ## WordPress SuperCache
        #set $supercache_file '';
        #set $supercache_uri $request_uri;
        #if ($request_method = POST) {
                #set $supercache_uri '';
        #}
        #if ($query_string) {
                #set $supercache_uri '';
        #}
        #if ($http_cookie ~* "comment_author_|wordpress|wp-postpass_" ) {
                #set $supercache_uri '';
        #}
        #if ($supercache_uri ~ ^(.+)$) {
                #set $supercache_file /wp-content/cache/supercache/$http_host/$1index.html;
        #}
        #if (-f $document_root$supercache_file) {
                #rewrite ^(.*)$ $supercache_file break;
        #}

        #if (!-e $request_filename) {
                #rewrite . /index.php last;
        #}

        # -----------------------------------------

        ## memchached test
        #location / {
                #default_type text/html;
                #add_header "Content" "text/html; charset=utf8";
                #charset utf-8;
                #set $memcached_key $uri;
                #memcached_pass 127.0.0.1:11211;
                #error_page 500 404 405 = @fallback;
        #}
        #location @fallback {
                #try_files $uri $uri/ @suckup;
        #}

        location / {
                try_files $uri $uri/ @suckup;
                sub_filter suckup.de:8080
                'suckup.de:80';
                sub_filter_once on;
        }

        location @suckup {
                include /etc/nginx/fastcgi_params;
                fastcgi_param SCRIPT_FILENAME $document_root/index.php;
                fastcgi_param QUERY_STRING q=$uri&$args;
                fastcgi_param SCRIPT_NAME /index.php;
                fastcgi_pass 127.0.0.1:11000;
        }

        location ~ \.php$ {
                try_files $uri @suckup;
                ## memchached test
                #set $memcached_key $uri;
                #memcached_pass  127.0.0.1:11211;
                fastcgi_index index.php;
                fastcgi_pass 127.0.0.1:11000;
                fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
                include /etc/nginx/fastcgi_params;
        }

        ## .htaccess & .htpassword sperren
        location ~ /\.ht {
                deny  all;
        }
}
kino

Die besten Filme…

… aller Zeiten, zumindest für mich. :-) Habe damit angefangen die Filme, welche ich bereits gesehen habe, auf www.imdb.com/user/ur23762404/ratings zu bewerten.

spritemap

Webseiten komprimieren

Zurück zur “Webseiten beschleunigen” – Übersicht

2.) Komprimierung

So langsam möchte ich auf die Fragen, welche bisher aufgetaucht sein könnten eingehen und mit der Beschleunigung der Webseite anfangen, daher starten wir mit der Komprimierung.

Alle neuen Browser (ab IE6) unterstützen komprimierte Dateien, man kann sich dies so ähnlich vorstellen, wie in dem diesem Proxy-Beispiel, wo die Dateien serverseitig komprimiert werden und vom Client, in unserm Fall nun der Browser wieder dekomprimiert werden. Aber dazu kommen wir gleich. Das Problem ist, dass Bilder bereits komprimiert sind und falls diese im Nachhinein noch einmal passiert, diese sogar größer werden können als zuvor, daher versucht man diese bereits bei der Bereitstellung in der optimalen Dateigröße anzubieten, zudem sollte man vermeiden, dass zu viele kleine Dateien vom Server geladen werden müssen, da zu viele Verbindungen bzw. Anfragen sich auch seht negativ auf die Performance einer Webseite auswirken.

2.1) Bilder komprimieren

2.1.1) Bilder Sprites


spritemap
spritemap



Durch viele kleine Icons / Menü-Bildern kommen viele Serveranfragen zustande, welche man durch ein größeres Bild, welches dann wiederum mit css so bearbeitet werden kann, dass man bestimmte Bildabschnitte ansprechen kann, ersetzten könnte.


Nun noch ein kleines Beispiel zur Verdeutlichung:
www.websiteoptimization.com/speed/tweak/css-sprites


Es folgt noch ein Beispiel, um das Prinzip zu verstehen…


alte CSS-Regeln:

#header {background: url(bild1.jpg) top left repeat-x; height:80px;}
ul.menu li {background: url(bild2.jpg) top left repeat-x; height:15px;}

bild1.jpg und bild2.jpg sind jeweils 1px breit. Waf der folgenden Webseite → Sprite-Generator ← kann man diese beiden Dateien nun zu einer Sprite-Datei zusammenfassen und herunterladen bzw. auf Webserver hochladen.


Dieses Sprite-Bild wird nun für alle Elemente, die einen im Sprite enthaltenen Hintergrund haben eingefügt:

#header, ul.menu li {background-image:url(bg_sprite.png);}


Mithilfe der im Generator angegebenen Regeln, werden die alten CSS-Regeln ersetzen:

.sprite-bild1 { background-position: 0 -30px; }
.sprite-bild2 { background-position: 0 -110px; }

…wird zu…

#header {background-position: 0 -30px; background-repeat: repeat-x;}
ul.menu li {background-position: 0 -110px; background-repeat: repeat-x;}


Mit zwei Bildern macht dies noch nicht so viel Sinn, aber ich denke das reicht zum Verdeutlichen des Prinzipes.


2.1.2) PNG-Bilder komprimieren

VOR DER ÄNDERUNG/OPTIMIERUNG AN IRGENDWELCHEN BILDERN, BITTE EIN BACKUP ERSTELLEN!!!

Das folgende HowTo zeigt wie man png-Bilder direkt auf dem Server verkleinern kann, ohne dessen Qualität zu verringern.

sudo bash
aptitude install optipng
optipng -o7 bild.png  -out bild_new.png

z.B.:

2673 24. Jun 15:50 free-source_bottom.png
1297 27. Jul 01:55 free-source_bottom_new.png

folgender Befehl komprimiert alle Bilder im Verzeichnis, welche auf .png enden ->

optipng  -o7 *.png

oder man sucht mittels “find” die entsprechenden Bilder rekursive aus der gesamten Verzeichnisstruktur heraus

find . -iname '*.png' -exec optipng -o7 {} \;

Wichtig: um noch ein Backup der original Datei zu behalten kannst du den Parameter “-k” verwenden

Alternativ kann man die Größe von png-Bildern auch mit pngcrush optimieren, welches auf die selbe einfache Weise installiert werden kann.

sudo bash
aptitude install pngcrush
pngcrush -rem alla  -reduce -brute original.png optimized.png

Alternativ kann man dies auch wieder rekursiv im aktuellen Verzeichnis alle png-Bilder mittels “pngcrush” bearbeiten lassen.

for file in `find . -name "*.png"`;do
echo $file;
pngcrush -rem alla -reduce -brute "$file" tmp_img_file.png;
mv -f tmp_img_file.png $file;
done;

z.B.

Original: 8,9K
Optipng: 7.6K
Optipng + PNGcrush: 7.4K

Dies fällt bei größeren Bildern mehr ins Gewicht, jedoch kann auch die Komprimierung von solchen Logos etc. schon einige hundert MB im Monat einsparen, zumal PNG in Gegensatz zu JPEG eine verlustfreie Neukomprimierung unterstützt.


Link:
optipng.sourceforge.net
pmt.sourceforge.net


weitere Optimierungsmöglichkeiten für PNG-Bilder:
www.smashingmagazine.com


2.1.3) JPEG-Bilder komprimieren

VOR DER ÄNDERUNG/OPTIMIERUNG AN IRGENDWELCHEN BILDERN, BITTE EIN BACKUP ERSTELLEN!!!

Wie bereits zuvor beschrieben, können auch jpg-Bilder verkleinert werden.

aptitude install jpegoptim
jpegoptim --force  logo.jpg

z.B.:

24640 24. Jun 14:28 logo.jpg
22448 27. Jul 02:20 logo.jpg

Hier könnte man, wie bereits zuvor beschrieben, mittels “find” die entsprechenden Bilder heraussuchen und diese verkleinern lassen.

find . -iname '*.jpg' -exec jpegoptim --force {} \;


Link:
jpegoptim.sourceforge.net


Eine weitere Möglichkeit jpg-Dateien unter Debian/Ubuntu zu optimieren, welche nach meinen ersten Tests jedoch genauso gut funktioniert wie jpegoptim.

sudo bash
aptitude install libjpeg-progs
jpegtran -copy  none -optimize -perfect logo.jpg > logo_jpegtran.jpg


weitere Optimierungsmöglichkeiten für JPEG-Bilder:
www.smashingmagazine.com


2.1.4) Bilder komprimieren – Online

Auf der folgenden Webseite, kannst du deine Bilder auch online verkleinern lassen…

developer.yahoo.com

… der nachfolgende Link ist nur für PNG-Bilder geeignet …

gracepointafterfive.com/punypng/



example
example



… und hier noch ein Link, wobei hier größtenteils an der Qualität der Bilder geschraubt wird…

tools.dynamicdrive.com


Als alternative zu all dieses serverseitigen Möglichkeiten kannst du deiner Bilder natürlich auch mit einem Bildbearbeitungsprogramm (z.B. Paint.NET) öffnen und z.B. optimiert für Webseiten abspeichern.


2.2) JavaScript/CSS komprimieren

2.2.1) JavaScript/CSS komprimieren – serverseitig

Hier werde ich kurz zeigen wir du deine JS- und CSS-Dateien nicht nur komprimieren kannst, um die Ladegeschwindigkeit deiner Webseite zu verbessern, sondern auch noch optimierst, so dass diese schneller ausgeführt werden. Der CSS-Kompressions-Algorithmus verwendet zudem einen Satz von fein aufeinander abgestimmten reguläre Ausdrücke, um die CSS-Datei zu komprimieren.


Dateien kombinieren: (optional)


cat datei1.js > alle_dateien.js
cat datei2.js >> alle_dateien.js
cat datei3.js >> alle_dateien.js


cd /usr/src/
wget  http://yuilibrary.com/downloads/yuicompressor/yuicompressor-2.4.2.zip
unzip yuicompressor-2.4.2.zip
rm yuicompressor-2.4.2.zip
cd yuicompressor-2.4.2build
sudo aptitude install sun-java6-bin
java -jar yuicompressor-2.4.2.jar --type js -o  combined.js alle_dateien.js alle_dateien_klein.js

dies kann man übrigens auch mit CSS-Daten machen…

java -jar yuicompressor-2.4.2.jar --type css -o  combined.css alle_dateien.css alle_dateien_klein.css
Bei mir hat das kombinieren von einigen JS- und CSS-Dateien negative Auswirkungen gehabt, so haben einige JS nicht mehr funktioniert, zudem sollte man bedenken, dass einige Dateien nicht auf jeder Webseite benötigt werden und daher auch ruhig später geladen werden können, sobald ein Besucher z.B. auf Kommentare klickt.


Download:
Download – yuilibrary.com


Link:
How does it work? – developer.yahoo.com


Alternativ kann man CSS-Dateien auch sehr bequem mit “csstidy” komprimieren.

sudo aptitude install csstidy
csstidy mycssfile.css  myoutputfile.css

oder man lässt sich das Ergebnis erstmal auf dem Bildschirm ausgeben

csstidy  mycssfile.css

z.B.:

border-width: 1px;
border-style: solid;
/*Dies ist ein Kommentar*/
border-color: gray;

… wird zu …

border: 1px solid gray;


Link:
csstidy.sourceforge.net


2.2.2) JavaScript/CSS komprimieren – Online

Alternativ kann man, wenn man z.B. keinen V- oder Root-Server hat um zusätzliche Software zu installieren, die Dateien Online komprimieren zu lassen.


z.B.: für Javascript

Online Komprimierung – yui.2clics.net

shrinksafe.dojotoolkit.org

javascriptcompressor.com

ggf. kann man seine JS-Datei auch vorher überprüfen lassen um Fehler auszuschließen

www.jslint.com


z.B.: für CSS

www.cleancss.com

www.cssoptimiser.com

www.cssdrive.com


Eine weitere Methode besteht darin, die Daten selber gar nicht zu verändern, sondern diese direkt und nach einer bestimmten Zeit neu von einem Server komprimieren zu lassen, diese Methode hat daher auch wieder nachteiligen Einfluss auf die Ladegeschwindigkeit, da ein weitere Request, DNS-Lookup usw. hinzukommt. Jedoch kann man an diesen Online-Dienst auch mehrere CSS- bzw. JS-Dateien gleichzeitig übergeben. Ob dies wirklich die Performance steigern kann müsste man im Einzellfall ausprobieren.


z.B.:

http://reducisaurus.appspot.com/css?url1={{erste_URL}}&url2={{zweite_URL}}&url3={{dritte_URL}}&max-age={{cach_in_sekunden}}


Link:

code.google.com/p/reducisaurus/


2.3) Apache gzip-Kompression

Serverseitige Komprimierung und somit eine Reduzierung der zu Übertragungen Datenmengen von 40 – 70 % sind hier zu erreichen, zudem kannst du mithilfe der folgenden Konfigurationen gleich mehrere Webseiten, welche auf dem selben Server laufen optimieren.


ohne gzip-Kompression:


http_request
http_request



mit gzip-Kompression:


http_request_compressed
http_request_compressed



Aktiviere mod_deflate (gzip) – serverseitig

Diese Art der Komprimierung macht natürlich nur bei Dateien Sinn, welche auch komprimiert werden können z.B. HTML, CSS oder Javascript …


a2enmod deflate

… dieser Befehl kann unter anderen Distributionen anders aussehen z.B.: BSD

LoadModule deflate_module /usr/lib/apache2/modules/mod_deflate.so


Kommen wir zur Konfiguration des Modules, wir können “mod_deflate” in folgender Datei bearbeiten ->


vim /etc/apache2/mods-enabled/deflate.conf


#SetInputFilter DEFLATE
SetOutputFilter DEFLATE

BrowserMatch ^Mozilla/4 gzip-only-text/html
BrowserMatch ^Mozilla/4\.0[678] no-gzip
BrowserMatch \bMSI[E] !no-gzip !gzip-only-text/html

SetEnvIfNoCase Request_URI \.(?:gif|jpe?g|jpg|ico|png|pdf|ipk|ico)$ no-gzip dont-vary
SetEnvIfNoCase Request_URI \.(?:mpg|mpeg|flv|wmv|wma|ogg|avi|mov|mp3|mp4|swf)$ no-gzip dont-vary
SetEnvIfNoCase Request_URI \.(?:exe|tar|t?gz|cab|zip|t?bz2|iso|bz2|sit|jar|rar|rm|rpm|deb)$ no-gzip dont-vary


Header append Vary User-Agent env=!dont-vary
Header append Vary User-Agent

Header set Vary *


DeflateCompressionLevel 6


Mithilfe von gzip (DeflateCompressionLevel) kann man verschneide Kompressions-Level einstellen, wobei 1 die schnellsten Komprimierung (weniger Kompression) und 9 die langsamste Komprimierung (beste Kompression) ist. Die Standard-Kompressions-Level ist 6. da eine zu hohe Kompression auf Kosten der der Systemleistung geht, ggf. kann man diesen Wert anpassen, wenn man noch genügend Ressourcen frei hat.

Nun müssen wir unsern Webserver neu-starten, um die Konfiguration zu übernehmen.

/etc/init.d/apache2 restart

und test…

gidnetwork.com/tools/gzip-test


Ausgabe: http://gedichte.voku-online.de/news.php


Web page compressed? → Yes
Compression type? → gzip
Size, Markup (bytes) → 52,039
Size, Compressed (bytes) → 9,934
Compression → % 80.9


Link:
httpd.apache.org/docs/2.0/mod/mod_deflate


2.3.2) Aktiviere mod_gzip – serverseitig

Wer noch apache und nicht apache2 verwendet sollte “mod_gzip” anstelle von “deflate” ansehen, jedoch werde ich nicht weiter auf die veraltete Apache-Version eingehen, wenn noch jemand den alten “Apache Web-Server” einsetzt, soll man ggf. ein Update auf apache2 durchführen…


“Nur unter Apache 1.3 ist “mod_gzip” effektiver ab “Apache 2.x” sollte man “mod_deflate” verwenden.”

www.howtoforge.com/linux_apache_mod_gzip


2.3.3) Aktiviere gzip – manuell

Es gibt auch noch die Möglichkeit Dateien serverseitig im Vorhinein zu komprimieren und in einer .htaccess anzugeben, welche Dateien bzw. Dateiendungen vom Browser wieder dekomprimiert werden müssen. Ich selber habe auch eine Mischung aus den verschienden Komprimierungsverfahren gewählt, so habe ich sehr große JS-Dateien im Vorhinein folgendermaßen komprimiert, so dass der Server dies nicht jedes mal machen muss, zudem hat dieses Verfahren den großen Vorteil, dass man die negative Auswirkung des hohen Komprimierungslevel, auf die Systemauslastung umgeht.

gzip -9 test.js
mv test.js.gz test.js.jgz


RewriteEngine on
RewriteCond %{HTTP:Accept-Encoding} gzip
RewriteCond %{REQUEST_FILENAME}.jgz -f
RewriteRule (.*).js$ $1.js.jgz [L]
AddType "text/javascript" .js.jgz
AddEncoding gzip .jgz


Link:
tutorialajax.com/compress-javascript-with-gzip


Erfolg des eigenen Blogs prüfen

Nachdem ich nun bereits einige Blog-Einträge verfasst habe und meine Webseite in Suchmaschinen (z.B. google, yahoo, bing oder apacho) und Diensten (z.B. twitter, feedburner oder disqus) angemeldet habe, wollte ich wissen wie meine Webseite im Vergleich zu anderen Blogs abschneidet bzw. wie mein Blog insgesamt Bewertet wird.

Nun kann man Webseiten auf verschiedene Arten vergleichen, zum Beispiel die Anzahl an Seitenabrufen, über die Anzahl der Verlinkungen oder der Analyse von technischen Details.

1.) Traffic

Der Traffic bzw. die Seitenaufrufe kann man unter anderem auf den folgenden Webseiten abrufen und somit mit andern vergleichen.

- www.alexa.com

 


alexa.com
alexa.com


- topofblogs.com

 


topofblogs.com
topofblogs.com


- bloggerei.de


bloggerei.de
bloggerei.de


2.) Verlinkungen

Die Anzahl der Verlinkungen (Backlinks) im Netz könnte man auch als relevante Größe zum vergleichen von Webseiten heranziehen.

- Technorati

- WIKIO

3.) Bewertung

Außerdem könnte man seine Webseite durch eine Bewertung mit andern Webseiten vergleichen, die Zahlen und Daten welche zur Berechnung herangezogen werden sind natürlich recht willkürlich, da jedoch jede Webseite an den selben Daten gemessen wird, kann man diese als Vergleich heranziehen.

- www.seitwert.de

 


seitwert.de
seitwert.de


- www.seitenreport.de


seitenreport.de
seitenreport.de


- www.seittest.de


seittest.de
seittest.de


SEO

Nachdem man sich diese Daten angesehen hat und ggf. mit anderen Blogs verglichen hat, stolpert man spätestens über den Begriff “SEO” (Suchmaschinenoptimierung – Search Engine Optimization), bleibt die Frage wer dies wirklich braucht. Denn wenn man seine Webseite einigermaßen Benutzerfreundlich gestaltet, den Besuchern die Möglichkeit gibt Kommentare oder ähnliches einfach zu verfassen und somit mit der Webseite/Blog zu interagieren und Blog-Einträge über interessante Themen verfasst, steigt die Besucherzahl ganz automatisch. Zudem sind “Soziale Netzwerke” besonders für noch unbekannte Webseiten von Vorteil, daher folgt eine Liste von Webseiten, welche sehr hilfreich sind um eine Webseite bekannter zu machen…

z.B.:

- Twitter

- flickr + feedburner

- MyBlogLog

- backtype

- friendfeed

um zu schauen über welche Themen von deinem Blog momentan in Sozialen Netzwerk diskutiert wird gibt es folgende Webseite.

- ubervu

Wer seine Webseite / Blog nun auch getestet hat, kann seine Ergebnisse ja hier als Kommentar eintragen, so dass man die Ergebnisse vergleichen kann…

Google

Google Hacks und Tricks

In letzter Zeit sind einige neue Suchmaschinen erschienen z.B. www.wolframalpha.com, www.bing.com nur um zwei zu nennen, doch warum sollte man eine neue Suchmaschine benutzen, wenn man nicht einmal richtig mit google umgehen kann… also hier ein paar kleine Tricks und Hacks mit google.

Auf folgender Webseite, kann man ausprobieren, welche Suchmaschinen die besten Ergebnisse erzielt.
blindsearch.fejus.com


Informationen

lexikon


definiere

< - im Suchfeld, bewirkt, dass google eine Definition des Wortes test sucht.

z.B.:

definiere ubuntu

www.google.de/search?q=definiere+ubuntu


wetterwetter

< - gefolgt von einem Städtenamen, im Suchfeld bewirkt, dass google, wenn wundert es das Wetter anzeigt.

z.B.:

Wetter Duisburg

www.google.de/search?q=Wetter+Duisburg


plz-karte

PLZ

Wenn du die entsprechende Postleitzahl -> PLZ < - einer Stadt gerade entfallen ist, kannst du auch diese mit google anzeigen lassen.

z.B.:

PLZ Dinslaken

www.google.de/search?q=PLZ+Dinslaken



Pizza

Pizzeria

Falls du nach einer -> Pizzeria < - suchst, hilft dir google auch weiter...

z.B.:

Pizzeria 46562

www.google.de/search?q=Pizzeria+46562

oder

Pizzeria Voerde

www.google.de/search?q=Pizzeria+Voerde


kino

Kino

Google findet auch alle Kinos und dessen aktuelles Programm mittels -> kino < - gefolgt von einem Städtenamen

z.B.:

kino Dinslaken

www.google.de/search?q=kino+Dinslaken

oder

kino 46537

www.google.de/search?q=Kino+46537


movie film

< - im Suchfeld bewirkt, dass google die entsprechenden Kinos sucht, wo dieser Film gezeigt wird

z.B.:

movie eclipse

www.google.de/movies?q=eclipse


imdb fiml

< - im Suchfeld bewirkt, dass google direkt die entsprechenden Film-Bewertung anzeigt

imdb eclipse

Globus

www.google.de/search?q=imdb+eclipse


google-Karte

Außerdem ist googleMaps in google integriert, so dass man sich sofort eine -> kart < - eines Ortes anzeigen lassen kann.

z.B.:

karte EU

www.google.de/search?q=karte+EU

PS: bei Städten, wird die Karte standardmäßig über den Suchergebnissen angezeigt


fussball



Fußballmannschaft

Um sich die Spielpläne für bestimmte -> Fußballmannschaft < - anzeigen zu lassen, reicht es aus, dessen Namen einzugeben.

z.B.:

FC Bayern München

www.google.de/search?q=FC+Bayern+M%FCnchen


deutsche_bahn



Zugverbindung

Wenn man seine nächste Zugverbindung wissen möchte, kann man dies auch sofort mit google ermitteln.

z.B.:

Voerde Mönchengladbach 13:30

www.google.de/search?q=Voerde+M%C3%B6nchengladbach+13%3A30


Pakete



Paketnummern

< - von UPS-, Fedex- oder USPS-Paketen können ebenfalls bei google gesucht werden, um den Status der Lieferung in Erfahrung zu bringen...

z.B.:

1Z9999W99999999999

www.google.de/search?q=1Z9999W99999999999


Rechtschreibung



Rechtschreibprüfung

Zudem hat google wie den meisten bereits bekannt sein dürfte eine eingebaute -> Rechtschreibprüfung < -

z.B.:

Wolfgang Göte

www.google.de/search?q=Wolfgang+Göte


Betriebssystem

Wer speziell Infos zu BSD, Linux oder Windows sucht, der kann es einmal mit den folgenden Google-Suchen probieren.


www.google.com/bsd

www.google.com/linux

www.google.com/microsoft


taschenrechner

um- / rechnen mit Google

Zudem kann google auch noch sehr gut um/rechnen, dazu geben Sie z.B. folgende Dinge im Suchfeld ein:

z.B.:

100 / 100 * 99 / 3 ^ 2


www.google.de/search?source=hp&q=100+%2F+100+*+99+%2F+3+^+2

sin(90) / cos (45)

www.google.de/search?q=sin%2890%29+%2F+cos+%2845%29

pi*2

www.google.de/search?q=pi*2

50 Euro in dollar

www.google.de/search?q=50+Euro+in+dollar

oder

50 € in $

www.google.de/search?q=50+%E2%82%AC+in+%24

10 MB in KB

www.google.de/search?q=10+MB+in+KB

10 ha in m^2

http://www.google.de/search?q=10+ha+in+m%5E2

10 g in t

www.google.de/search?q=10+g+in+t

oder

10 gramm in tonnen

www.google.de/search?q=10+gramm++in+tonnen

13 Meilen in km

www.google.de/search?q=13+Meilen+in+km


Spezialisierung von Suchanfragen (einfach)


“-“

Ein “-” im Suchfeld, wirkt als Filter und nimmt alle Ergebnisse mit dem folgendem Wort aus den Ergebnissen.

z.B.:

voku -online

www.google.de/search?q=voku+-online


“+”

Im Gegensatz dazu bewirkt ein “+” im Suchfeld, dass das folgende Wort auf jedenfall im Ergebnis vorhanden sein muss.

z.B.:

voku +online

www.google.de/search?q=voku+%2Bonline


“~”

Das “~” im Suchfeld hat zur folge, dass man auch Dinge die mit dem folgendem Wort zu tun haben, angezeigt bekommt

z.B.:

~linux

www.google.de/search?q=%7Elinux


“”

Das hinzufügen von “” Anführungszeichen in der Suchfeld, bewirkt, dass man nur genau diesen Satz sucht und nicht nach allen einzelnen Wörter.

z.B.:

“Dieser Blog-Eintrag wird immer oben stehen bleiben”

www.google.de/search?q=%22Dieser+Blog-Eintrag+wird+immer+oben+stehen+bleiben%22


“*”

Das “*” im Suchfeld bewirkt, dass da noch irgendwas zwischen dem Wort davor und dem Wort danach stehen muss.

z.B.:

“die * besten Distribution”

www.google.de/search?q=%22die+*+besten+Distribution%22


“%”

Das “%” im Suchfeld bewirkt, dass da noch ein Zeichen zwischen dem Wort davor und dem Wort danach stehen muss.

z.B.:

“voku%online”

www.google.de/search?q=%22voku%25online%22


Spezialisierung von Suchanfragen (hardcore)


inurl:text

< - im Suchfeld, bewirkt, dass google nur noch Ergebnisse anzeigt, in dessen URL "text" vorkommt.

z.B.:

inurl:news voku

www.google.de/search?q=inurl%3Anews+voku

allinurl:voku firefox

www.google.de/search?q=allinurl%3Avoku+firefox


intitle:text

< - im Suchfeld, bewirkt, dass google nur noch Ergebnisse anzeigt, in dessen Titel "text" vorkommt.

z.B:

intitle:e107 voku

www.google.de/search?q=intitle%3Ae107+voku

allintitle: download news voku

www.google.de/search?q=allintitle%3A+download+news+voku


intext:text

< - im Suchfeld, bewirkt, dass google nur noch Ergebnisse anzeigt, in dessen Inhalt "text" vorkommt.

z.B.:

intext:bash voku

www.google.de/search?q=intext%3Abash+voku

allintext:voku bash

www.google.de/search?q=allintext%3Avoku+bash


| (OR)

Ein -> | < - oder -> OR < - steht für "oder"...

z.B:

intitle:”download|news” voku

www.google.de/search?q=intitle%3A%22download%7Cnews%22+voku

oder

intitle:”download OR news” voku

www.google.de/search?q=intitle%3A%22download+OR+news%22+voku&btnG=Suche


site:test.de

< - im Suchfeld, bewirkt, dass google nur noch Ergebnisse anzeigt, die von der Webseite "test.de" stammen.

z.B.:

site:suckup.de ubuntu

www.google.de/search?q=site%3Asuckup.de+ubuntu


link:test.de

< - bewirkt, dass google alle Links die zu "test.de" zeigen anzeigt.

z.B.:

link:www.heise.de -site:heise.de

www.google.de/search?q=link%3Awww.heise.de+-site%3Aheise.de


daterange:….

< - im Suchfeld, bewirkt, dass google in einem bestimmten Zeitraum sucht, jedoch muss das Datum eines gregorianischen Kalenders zuvor in ein julianisches Datum umwandelt werden.

Datum umrechnen -> Link

z.B.:

daterange:2454624-2455354 voku

www.google.de/search?q=daterange%3A2454624-2455354+voku


&as_qdr=d/w/m/y

Das hinzufügen von “&as_qdr=d/w/m/y” in die URL von google bewirkt, dass man nur die Suchergebnisse der vergangenen Tage, Wochen… angezeigt bekommt.

&as_qdr=d
-> 1 Tag (day)

&as_qdr=d7
-> 7 Tage

&as_qdr=w
-> 1 Woche (week)

&as_qdr=w4
-> 4 Wochen

&as_qdr=m
-> 1 Monat (month)

&as_qdr=m6
-> 6 Monate

&as_qdr=y
-> 1 Jahre (year)

&as_qdr=y2
-> 2 Jahre

z.B.:
www.google.com/search?q=voku&as_qdr=d


filetype:abc

< - im Suchfeld bewirkt, dass google nur noch Ergebnisse anzeigt, welche vom Type "abc" sind.

Folgende Dateitypen kann google direkt suchen:

Adobe Portable Document Format (pdf)
Adobe PostScript (ps)
Lotus 1-2-3 (wk1, wk2, wk3, wk4, wk5, wki, wks, wku)
Lotus WordPro (lwp)
MacWrite (mw)
Microsoft Excel (xls)
Microsoft PowerPoint (ppt)
Microsoft Word (doc)
Microsoft Works (wks, wps, wdb)
Microsoft Write (wri)
Rich Text Format (rtf)
Shockwave Flash (swf)
Text (ans, txt)

z.B.:

filetype:txt zsh suckup

www.google.de/search?q=filetype%3Atxt+zsh+suckup


cache:test.de

< - im Suchfeld bewirkt, dass man den Cache von google angezeigt bekommt.

z.B.:

cache:suckup.de

webcache.googleusercontent.com/search?q=cache:suckup.de


related:test.de

< - im Suchfeld bewirkt, dass man so ähnliche Seiten wie "test.de" angezeigt bekommt.

z.B.:

related:test.de

www.google.de/search?q=related%3Atest.de

“..”

Die beiden Punkte “..” im Suchfeld bewirkt, dass google Ergebnisse zwischen zwei werten anzeigt.

z.B.:

mp3 player “2..5 gigabyte”

www.google.de/search?q=mp3+player+%222..5+gigabyte%22

Laptop “100..350 euro”

www.google.de/search?q=Laptop+%22100..350+euro%22


images.google

Hier noch ein “images.google” Trick… wenn man mit der Bilder-Suche von google nach “paris” sucht bekommt man ein bunte Mischung aus verschiedenen Bilder, wenn man jedoch in der URL folgendes ergänzt -> &imgtype=face < -, sieht das Ergebnis ein wenig anders aus.

z.B.:
images.google.com/images?q=paris

images.google.com/images?q=paris&imgtype=face


MP3-Download

Falls du einen Musik-Titel (Download) suchst, hilft dir google auch weiter…

z.B.:

intitle:index.of + mp3 + “Männer Sind Schweine” -html -htm -php -asp -txt -pls

www.google.de/search?q=intitle%3Aindex.of+%2B+mp3+%2B+”Männer+Sind+Schwein…

PS: Auch das Herunterladen von Musik Dateien kann strafbar sein. Der GoogleWatchBlog und seine Mitarbeiter übernehmen keine Haftung für eventuelle straf- und zivilrechtlichen Folgen.



viel Spaß beim ausprobieren… :-)

Google Trends

Mit Google-Trends kannst du Interessen in der Welt vergleichen. Google Trends zeigt an wie oft ein Begriff bzw. eine Webseite mittels google gesucht wurde, dabei kann man unter geographischen Regionen & Jahren/Monaten unterscheiden, um Trends zu analysieren.

verschiedene Trends/Webseiten vergleichen (z.B.: Windows XP & Windows 7):

www.google.de/trends?q=%22Windows+XP%22%2C+%22Windows+7%22

die aktuellen Trends (USA):

www.google.com/trends/hottrends

der Suchbergriff “Ubuntu”:

trends.google.com/trends?q=ubuntu

Analyse von Webseiten (z.B.: heise.de):

trends.google.com/websites?q=heise.de

Link:
www.googlelabs.com

Suchmaschinen mal anders

1.) Suchmaske für verschiedene Suchmaschinen

so kannst du deinen Suchbegriff z.B. bei Wikipedia als auch bei google nachschlagen lassen

www.limmz.com


2.) Öko – Suchmaschinen

pro Suche werden etwas mehr als 0,1m² Regenwaldfläche gerettet

forestle.org

… ein ähnliches Projekt …

ecosia.org

… oder auch die schwarze Google Seite 
www.blackle.com


3.) Hintergrundbilder – Suchmaschine

wallbase.net


4.) Linux – Suchmaschine

wer nach etwas zum Thema Linux sucht, der ist auf der folgenden Webseite genau richtig

www.google.de/linux

www.google.com/bsd

www.tuxsucht.de


5.) Wissenschaftlische – Suchmaschine

Daten aus verschiedenen Quellen werden miteinander verknüpft, jedoch bisher nur in Englischer-Sprach. Gib einfach mal deine Stadt, in der du wohnst in dieser Suchmaschine ein und schon bekommst du einige Interessante Informationen.

www.wolframalpha.com


6.) Musik – Suchmaschine

www.semsix.com


7.) Entscheidungs – Suchmaschine

Hunch (zu Deutsch: Vorahnung) soll über Frage-Antwort-Kataloge und daraus resultierende Analysen individuell bei Entscheidungen helfen

www.hunch.com


8.) Personen – Suchmaschine

wenn du eine Person anhand seines Namens finden möchtest bist du auf den folgenden Seiten genau richtig

www.yasni.de

www.123people.de


9.) Anonyme – Suchmaschine

auf den folgenden Seiten wird Privatsphäre groß geschrieben… :-)

semager.de

ixquick.com


10.) Twitter – Suchmaschine

auf dieser Seite kannst du Kurznachrichten von Twitter durchsuchen…

topsy.com


11.) Creative Commons - Suchmaschine

Die Idee: Kreative Inhalte jeder Art (bspw. wissenschaftliche Publikationen, Filme, Musik) sollen der Öffentlichkeit im Internet frei zugänglich gemacht werden, um eine uneingeschränkte weltweite Kommunikation und Zusammenarbeit zu ermöglichen.

search.creativecommons.org

Google startet globales Kommentar-System: Sidewiki

Globales was? Kommentar-System?… eigentlich ist es ganz einfach, du kannst dir (IE & Firefox Nutzer) die google-Toolbar + Sidewiki-Add-on für deinen Browser installieren, so dass du zu jeder Seite die du gerade besuchst einen Kommentar schreiben kannst, z.B. zu dieser hier.


Die Installation passiert so gut wie von allein: www.google.com/sidewiki


Jeder der sich dieses Add-on installiert kann deinen Kommentar nun lesen und ggf. selber etwas dazu schreiben. Es folgt ein kleines Video von googels Sidewiki:

Hintergrundbilder für Windows, MAC und Linux

schaut euch mal folgende Hintergrundbilder/Wallpapers an…

Allgemeine-Wallpapers:

www.zixpk.com
www.instantshift.com

Ubuntu-Wallpapers:

www.hongkiat.com

Mac-Wallpapers:

www.hongkiat.com
www.1stwebdesigner.com
2.0.bloguite.com
spyrestudios.com

Windows-Wallpapers:

www.hongkiat.com
gnoted.com

z.B.:

PS: wenn jemand noch mehr schöne Hintergrundbilder finden, dann füge diese einfach als Kommentar hinzu, ich werde diese dann ggf. hier mit in diesem Blog-Eintrag nachtragen.