pingdom

Webseiten Analyse

closeDieser Beitrag wurde vor mehr als drei Monaten veröffentlicht. Bedenke bitte, dass die hier angebotene Information nicht mehr aktuell und gültig sein könnte. Informiere dich daher bitte auch an anderer Stelle über dieses Thema. Sollten sich neue Informationen ergeben haben, so kannst du mich auch gerne auf diese über einen Kommentar hinweisen. Vielen Dank!

Zurück zur “Webseiten beschleunigen” – Übersicht

1.) Webseiten Analyse

Dies ist der Erste Teil von meiner Blog-Reihe “Webseiten beschleunigen”. Um die ursprüngliche Ladegeschwindigkeit deiner Webseite zu prüfen, installieren wir uns zwei Erweiterungen für Firefox.

Firebug +
YSlow

ggf. kann man sich auch nach die nachfolgenden Links anschauen, jedoch habe ich mit der Kombination „ Firebug + YSlow“ sehr gute Erfahrungen gemacht, daher folgt nun diesbezüglich ein kleines Video.



Alternative von Google:

Firebug +
Page-Speed


Alternative Online-Analyse:

Bisher habe ich nur zwei Online-Analyse-Dienste gefunden, welche mir wirklich geholfen haben.

a.) Auf Pingdom.com kannst du die Ladezeit deiner Webseite und dessen Inhalt sehr schön in einem Graphen sehen und Schwachstellen somit sehr einfach erkennen, z.B. wenn eine externe Datei nicht erreichbar ist.

tools.pingdom.com


pingdom
pingdom


b.) Die nächste Webseite ist AOL’s WebPageTest ist ein wenig umfangreicher, so zeigt diese Webseite wie bereits beim vorherigen Link einen Graphen mit den geladen Dateien an, jedoch führt diese Webseite den Test zweimal durch, so dass die Auswirkung vom Browser-Cache simuliert wird. Außerdem gibt es eine Checkliste, wo alle Dateien noch einmal einzeln geprüft werden.

AOL’s WebPageTest


aol_webpagetest
aol_webpagetest


1.1) Webseiten Benchmark

Außerdem könnte kann die Abfragen auch direkt von der Shell aus starten z.B. mit “httperf”. Es folgt ein kleines HowTo für Debian:

sudo bash
aptitude install httperf
httperf --hog --server voku-online.de --num-conn 20 --ra 10 --timeout 5

jedoch kann ich zumindest mit der Ausgabe nicht viel anfangen, da mir diese vielen Zahlen auf Anhieb nicht viel sagen, daher folgt eine kleine Anleitung, wie man aus diesen Werten einen Graphen zeichnet

cd /usr/src/
wget http://www.xenoclast.org/autobench/downloads/debian/autobench_2.1.2_i386.deb
dpkg -i autobench_2.1.2_i386.deb
autobench --single_host --host1  www.test.de --uri1 /10K --quiet
--low_rate 20  --high_rate 200 --rate_step 20 --num_call 10
--num_conn  5000 --timeout 5 --file results.tsv
aptitude install gnuplot
bench2graph results.tsv result.ps

so nun laden wir die Datei „result.ps“ z.B. per WinSCP auf unsern Windows Rechner und öffnen die Datei mit Ghostscript

Hier mein Beispiel:


webserver_bench
webserver_bench


(1) req_rate: request rate, requests per second
(2) con_rate: connection rate, connections per second
(3) min_rep_rate: minimum reply rate, replies per second
(4) avg_rep_rate: average reply rate, replies per second
(5) max_rep_rate: maximum reply rate, replies per second
(6) stddev_rep_rate: standard deviation for reply rate
(7) resp_time
(8) net_io: Net I/O, KB per second
(9) error

Link:
autobench


Anstatt diesen Vorgang komplett per Hand zu bewerkstelligen, kann man auch folgende Webseite dazu nutzen:

-> loadimpact.com

So kannst du herausfinden, wie sich deine Webseite verhält, wenn sehr viele Besucher diese besuchen. Anbei das Ergebnis von diesem Blog. (Nach meiner Optimierung per “PHP XCache” + “Nginx” + “W3 Total Cache


loadimpact


Hier ist ein schneller Überblick darüber, was diese Kurve nun aussagt. -> loadimpact.com/forum/

1 Star2 Stars3 Stars4 Stars5 Stars (5 votes, average: 5.00 out of 5)
  • http://suckup.de/ Lars Moelleken

    Es würde mich interessieren, wie eure Webseiten, Blogs etc. bei dem Test auf http://loadimpact.com abschneiden, postet doch mal eure Ergebnisse…

  • http://suckup.de/ Lars Moelleken

    hier noch eine hilfreiche Webseite um die Ladegeschwindigkeit einer Webseite zu analysieren:
    -> http://gtmetrix.com/

  • http://suckup.de/ Lars Moelleken

    …und noch eine hilfreiche Webseite, wenn es um das beschleunigen von Webseiten geht:
    -> http://zoompf.com/free

  • http://suckup.de/ Lars Moelleken

    Hier zwei weitere Webseiten mit denen sich die Webseiten-Performance analysieren lässt: http://pagespeed.googlelabs.com/ & http://gtmetrix.com/

  • http://78.47.19.106 Berndinox

    Hallo,

    zum ersten: Echt tolle Seite mit wirklich sehr hilfreichen Tutorials und Tipps.

    Aktuell bin ich noch am herumspielen am “Perfekten Webxserver”. Zur Zeti verwende ich: Nginx + PHP5-FPM + xCache + Varnish

    Hier die Ergebnisse des Test’s:
    http://loadimpact.com/result/78.47.19.106-78cc06b894e94ccb63d4ae9e36cc9601

    Getestet wurde eine Joomla 1.7 Index Seite mit Standard Template ohne Inhalt.

    BTW: Schau dir doch mal Varnish genauer an ist echt Toll!

  • http://suckup.de/about voku

    ab – Apache HTTP server benchmarking tool -> http://httpd.apache.org/docs/2.0/programs/ab.html

    z.B.:
    ab -n 100 -c 10 http://www.suckup.de/

  • http://cs-creation.de website

    I almost never comment, but i did some searching and wound up here Webseiten Analyse | SUCKUP.de.
    And I actually do have a couple of questions for you if it’s allright. Could it be just me or does it look like some of these remarks look like coming from brain dead visitors? :-P And, if you are writing on other social sites, I would like to keep up with anything new you have to post. Could you make a list of every one of your shared sites like your linkedin profile, Facebook page or twitter feed?