Strict Standards: Only variables should be passed by reference in /membri2/asbruff/flatpress/fp-includes/core/core.fpdb.class.php on line 256
TheJoe
2010
Feb
26

Alcuni consigli nell’uso di “.htaccess”


Deprecated: Non-static method StringParser_Node::destroyNode() should not be called statically, assuming $this from incompatible context in /membri2/asbruff/flatpress/fp-plugins/bbcode/inc/stringparser.class.php on line 358

not_found.jpg Arrivato al terzo post consecutivo su “.htaccess” credo sia il caso di dire che l’argomento mi intrighi sufficientemente. Oggi vedremo alcuni consigli e customizzazioni nell’uso di “.htaccess”, migliorando le prestazioni del nostro server. [Read More...]

2010
Feb
25

Usare il file “.htaccess” per bloccare l’hotlinking


Deprecated: Non-static method StringParser_Node::destroyNode() should not be called statically, assuming $this from incompatible context in /membri2/asbruff/flatpress/fp-plugins/bbcode/inc/stringparser.class.php on line 358

broken_link.jpg Continuiamo a parlare di “.htaccess”, oggi vediamo come bloccare gli hotlink alle immagini residenti nel nostro server.

Già ieri abbiamo parlato di come proibire l’accesso alle nostre immagini da siti esterni (come spesso accade con forum o siti amatoriali), che non fanno altro che incrementare l’uso della banda, riducendo le risorse del nostro server. Nel caso di ieri l’utente vedrà il simbolo di immagine mancante, chi prova a collegarsi direttamente al sito ottiene l’errore “403 Forbidden”. [Read More...]

2010
Feb
24

Usare il file “.htaccess” per bloccare gli accessi


Deprecated: Non-static method StringParser_Node::destroyNode() should not be called statically, assuming $this from incompatible context in /membri2/asbruff/flatpress/fp-plugins/bbcode/inc/stringparser.class.php on line 358

googlebot1.jpg A chiunque sia capitato di monitorare gli accessi di un sito sarà capitato di imbattersi in accessi molto simili fra loro, spesso si tratta di crawler (lo stesso Google utilizza un sofisticato tipo di crawler chiamato GoogleBot). Parafrasando Wikipedia:

Un crawler (detto anche spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca.

Solitamente i crawler sono innocui, creano un limitatissimo traffico all’interno del sito (se fatti bene) per offrire il servizio di indicizzazione che tutti ben conosciamo ed apprezziamo. [Read More...]

Admin area