System-Linux

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - surf

Fil des billets

vendredi, septembre 19 2008

http://rat-mos.labrute.com !!!

Moi aussi j'ai ma brute !!! devenez mon élève et conquérons le monde !!!

http://rat-mos.labrute.com

lundi, septembre 15 2008

Le fichier robots.txt

Présentation du fichier robots.txt

Le fichier robots.txt est un fichier texte contenant des commandes à destination des robots d'indexation des moteurs de recherche afin de leur préciser les pages qui peuvent ou ne peuvent pas être indexées. Ainsi tout moteur de recherche commence l'exploration d'un site web en cherchant le fichier robots.txt à la racine du site. Format du fichier robots.txt

Le fichier robots.txt (écrit en minuscules et au pluriel) est un fichier ASCII se trouvant à la racine du site et pouvant contenir les commandes suivantes :

User-Agent: permet de préciser le robot concerné par les directives suivantes. La valeur * signifie "tous les moteurs de recherche". Disallow: permet d'indiquer les pages à exclure de l'indexation. Chaque page ou chemin à exclure doit être sur une ligne à part et doit commencer par /. La valeur / seule signifie "toutes les pages du site".

Attention Le fichier robots.txt ne doit contenir aucune ligne vide ! ! !

Voici des exemples de fichier robots.txt :

Exclusion de toutes les pages :

User-Agent: *
Disallow: /

Exclusion d'aucune page (équivalent à l'absence de fichier robots.txt, toutes les pages sont visitées) :

      
User-Agent: *
Disallow: 

Autorisation d'un seul robot :

User-Agent: nomDuRobot
Disallow :
User-Agent: *
Disallow: /

Exclusion d'un robot :

User-Agent: NomDuRobot
Disallow: /
User-Agent: *
Disallow:

Exclusion d'une page :

User-Agent: *
Disallow: /repertoire/chemin/page.html

Exclusion de plusieurs page :

User-Agent: *
Disallow: /repertoire/chemin/page.html
Disallow: /repertoire/chemin/page2.html
Disallow: /repertoire/chemin/page3.html

Exclusion de toutes les pages d'un répertoire et ses sous-dossiers :

User-Agent: *
Disallow: /repertoire/

Voici quelques exemples de User-Agents pour les moteurs de recherche les plus populaires :

Nom du moteur User-Agent

Alta Vista Scooter

Excite ArchitextSpider

Google Googlebot

HotBot Slurp

InfoSeek InfoSeek Sidewinder

Lycos T-Rex

Voilà Echo

jeudi, septembre 11 2008

Google Chrome interdit !!!

En allemagne ! voyez plutôt :

ici

mercredi, septembre 10 2008

DOS avec hping

Le DOS, Denial of Service

Le Denial of Service est une technique qui consiste à envoyer un flux de données trop important par rapport à ce que la cible peut recevoir et traîter. Si quelqu’un a votre adresse IP et veut vous priver d’internet ou bloquer l'accès à votre site, il pourra le faire si il dispose d’une connexion suffisamment importante. Il va alors vous flooder et saturer votre bande passante montante, ce qui aura pout effet de perturber énormement votre traffic internet dans les deux sens.

Vous pouvez faire le test à partir d'une machine de l'exterieur. D’abord scanner les ports ouverts de la machine cible :

nmap -p 1-100 <adresse ip cible>

(ici nous scannons que les 100 premier port de la machine cible)

Vous découvrez alors quelques ports TCP ouverts, j'ai choisis le port http 80 et je tape dans un terminal :

hping3 --flood -p 80 -S <adresse ip cible>

(hping --help pour l'explication des options)

Cette commande va envoyer des paquets TCP SYN à la cible, c’est à dire des demandes de connexions, en boucle et sans éffectuer d’acquittement de ces connexions. C’est un une attaque “SYN flood”. Elle a pour conséquence de réserver des ressources sur la cible qui attend un acquittement pour toutes les demandes de connexions qui sont faites, mais elle n’en recevra jamais.

Mais avant que la mémoire ou le CPU ne soit surchargé, on arrive à la saturation du lien car la cible ne fait que envoyer des réponses (SYN-ACK) à toutes les requêtes SYN reçues. Et le débit montant sur un freebox étant beaucoup plus faible que le débit descendant, le lien montant est saturé de réponses et ne tarde pas à être inutilisable.

Il y a quelques astuces pour éviter ce type d’attaque, bien configurer ses services voir la page "sécurisé apache" pour apache il y a aussi Modsecurity, les regles de firewall iptables, limiter le nombre de port ouvert, etc...

Bon courage :-D

mercredi, août 20 2008

Proxy : surfer en anonyme

Voici un site qui propose gratuitement une liste de proxy qui sont régulièrement vérifiés.

Ceci vous permettra de surfer anonymement pour par exemple : faire des bêtises :p

liste de proxy