Skip to content

GiuseppeGiorgi/Robots.txt-java

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

17 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Robots.txt-java

Robots è un progetto java open source che permette a un crawler web di sapere se una URL è scansionabile

Start

Per usare il robots bisogna creare un istanza di RobotClient e come parametri bisogna inserire lo userAgent di cui si vuole controllare le regole es "Googlebot" e la url in cui si trova il file Robots.txt

    /*
    * esempio:
    * user-agent = Googlebot
    * url = http://www.example.com/robots.txt
    */
    RobotClient Robots = new RobotClient(user-agent, url);
    

Usare il metodo isUrlAllowed, prende come parametro una Url in formato stringa oppure URL e ritorna un Boolean ( true se la url puo essere scansionata / false se la url non puo essere scansionata)

    /*
    * esempio:
    * String url = url da controllare se puo essere scansionata
    * 
    */
    String url = "http://www.example.com/example
    Boolean isAllowed = isUrlAllowed(url);
    

Uml

About

parserizzazione Robots.txt

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages