Skip to content

Commit

Permalink
updated translation for indexcreate page and added indexcleaner trans…
Browse files Browse the repository at this point in the history
…lation

git-svn-id: https://svn.berlios.de/svnroot/repos/yacy/trunk@2044 6c8d7289-2bf4-0310-a012-ef5d649a1542
  • Loading branch information
daburna committed Apr 29, 2006
1 parent 1179c9f commit 4c11187
Showing 1 changed file with 45 additions and 1 deletion.
46 changes: 45 additions & 1 deletion locales/de.lng
Expand Up @@ -410,6 +410,30 @@ The global search resulted in \#\[globalresults\]\# link contributions from othe
YaCy is a GPL'ed project==YaCy ist ein GPL Projekt
with the target of implementing a P2P-based global search engine.==mit dem Ziel eine globale P2P-basierte Suchmaschine zu realisieren.
Architecture \(C\) by Michael Peter Christen==Architektur (C) von Michael Peter Christen

#-------------------------------------------------------
#File: IndexCleaner_p.html
#Completely translated. If you find any untranslated string in the webinterface, send it to <admin@yacy-forum.de>

Index Control==Index Kontrolle
Index Cleaner==Index Aufr&auml;umer
ThreadAlive:
ThreadToString:
Total URLs searched:==Insgesamt durchsuchte URLs:
Blacklisted URLs found:==URLS auf Blacklist gefunden:
Percentage blacklisted:==Prozent auf Blacklist:
last searched URL:==zuletzt durchsuchte URL:
last blacklisted URL found:==zuletzt gefundene URL auf Blacklist:
RWIs at Start:==RWIs beim Start:
RWIs now:==RWIs jetzt:
wordHash in Progress:==Wort-Hash in Benutzung:
last wordHash with deleted URLs:==letzter Wort-Hash mit gel&ouml;schten URLs:
Number of deleted URLs in on this Hash:==Anzahl an gel&ouml;schten URLs in diesem Hash:
UrldbCleaner - Clean up the database by deletion of blacklisted urls:==UrlDBCleaner - R&auml;umen Sie Ihre Datenbank auf, indem Sie URLs die auf Ihrer Blacklist stehen l&ouml;schen:
Start/Resume==Start/Fortzsetzen
Stop==Stopp
Pause==Anhalten
RWIDbCleaner - Clean up the database by deletion of words with reference to blacklisted urls:==RWIDBCleaner - R&auml;umen Sie Ihre Datenbank auf, indem Sie W&ouml;rter die mit Ihrer Blacklist verbunden sind l&ouml;schen:

#-------------------------------------------------------
#File: IndexControl_p.html
Expand Down Expand Up @@ -459,7 +483,27 @@ A prefetch-depth of 8 would index 25.600.000.000 pages, maybe this is the whole
Crawling Filter:==Crawling Filter:
This is an emacs-like regular expression that must match with the URLs which are used to be crawled.==Dies ist ein emacs-&auml;hnlicher regul&auml;rer Ausdruck, der mit der gecrawlten URL &uuml;bereinstimmen muss.
Use this i.e. to crawl a single domain. If you set this filter it would make sense to increase==Benutzen Sie dies z.B., um nur eine einzelne Domain zu crawlen. Wenn Sie diese Maske aktivieren, macht es Sinn
the crawling depth.==die Crawling Tiefe zu erh&ouml;hen.
the crawling depth.==die Crawling Tiefe zu erh&ouml;hen.
#Re-Crawl Option:==Re-Crawl Option:
Use:==Nutzen:
Time:==Zeit:
Year\(s\)==Jahr(e)
Month\(s\)==Monat(e)
Day\(s\)==Tag(e)
Hour\(s\)==Stunde(n)
Minute\(s\)==Minute(n)
If you use this option, web pages that are already existent in your database are crawled and indexed again.==Ist diese Option aktiviert, werden bereits in Ihrer Datenbank existierende Internetseite erneut gecrawled und indexiert.
It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Es h&auml;ngt vom Alter des letzten Crawls ab, ob dies getan oder nicht getan wird: wenn der letzte Crawl &auml;lter als das angegebene
date, the page is crawled again, othervise it is treaded as 'double' and not loaded or indexed again.==Datum ist, wird die Seite erneut gecrawlet, sonst wird sie als 'double' markiert und weder geladen noch indexiert.Auto-Dom-Filter:==Auto-Dom-Filter:Depth:==Tiefe:
This option will cause a creation of a domain-list during indexing. This list is filled only with domains that==Diese Option f&uuml;hrt dazu, dass w&auml;hrend des Indexieren eine Domain-Liste erstellt wird. Diese Liste wird nur mit Domains gef&uuml;llt, die
appear on the given depth during crawling. The domain-list is then used to filter-out all domains, that appear==in der angegebenen Tiefe w&auml;hrend des Crawls auftauchen. Die Domain-Liste wird dann benutzt, um alle Domains rauszufiltern, die
on depths greater then the given depth, but do not appear in the domain-list. You can use this option i.e.==tiefer als die angegebene Tiefe vorkommen, aber nicht auf der Domain-Liste vorkommen. Sie k&ouml;nnen diese Option z.B. dazu benutzen,
to crawl pages with bookmarks while restricting the crawl on only those domains that appear on the bookmark-page.==um Seiten mit Lesezeichen zu crawlen, w&auml;hrend der Crawl auf die, nur auf diese Lesezeichen-Seite auftauchenden Domains, begrenzt ist.
Maximum Pages per Domain:==Maximale Seiten pro Domain:
Page-Count:==Seiten Anzahl:
You can limit the maxmimum number of pages that are fetched and indexed from a single domain with this option.==Sie k&ouml;nnen die maximale Anzahl an Seiten, die von einer einzelnen Domain gefunden und indexiert werden, mit dieser Option begrenzen.
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Sie k&ouml;nnen diese Option auch mit dem 'Auto-Dom-Filter' kombinieren, so dass das Limit f&uuml;r alle Domains mit der
the given depth. Domains outside the given depth are then sorted-out anyway.==angegebenen Tiefe gilt. Domains ausserhalb der angegebenen Tiefe werden einfach aussortiert.
Accept URLs with '\?' / dynamic URLs:==Akzeptiere URLs mit '?' / dynamische URLs:
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==Ein Fragezeichen ist normalerweise ein Hinweis auf eine dynamische Seite. URLs mit dynamischem Inhalt sollten normalerweise nicht gecrawlt werden. Wie auch immer, manchmal gibt es Seiten mit festem Inhalt, die
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==nur von URLs zu erreichen sind, die ein Fragezeichen enthalten. Wenn Sie unsicher sind, aktivieren Sie diese Funktion nicht, um Crawl Schleifen zu vermeiden.
Expand Down

0 comments on commit 4c11187

Please sign in to comment.