Skip to content

Commit

Permalink
updated german language file
Browse files Browse the repository at this point in the history
git-svn-id: https://svn.berlios.de/svnroot/repos/yacy/trunk@680 6c8d7289-2bf4-0310-a012-ef5d649a1542
  • Loading branch information
rramthun committed Sep 7, 2005
1 parent 718950c commit a79913c
Show file tree
Hide file tree
Showing 2 changed files with 97 additions and 11 deletions.
106 changes: 96 additions & 10 deletions locales/de.lng
Expand Up @@ -23,7 +23,7 @@
YaCy: Blacklist Manager==YaCy: Blacklist Manager
Blacklist==Blacklist
This function provides an URL filter to the proxy; any blacklisted URL is blocked==Diese Funktion stellt einen URL-Filter vor den Proxy. Das Laden einer URL aus der Blacklist wird geblockt.
from being loaded. You can define several blacklists and activate them separately.==Sie können mehrere Blacklists anlegen und getrennt aktivieren.
from being loaded. You can define several blacklists and activate them separately.==Sie können mehrere Blacklists anlegen und getrennt aktivieren.
You may also provide your blacklist to other peers by sharing them; in return you may==Sie können ebenfalls Ihre Blacklist einem anderen Peer zum Download anbieten.
collect blacklist entries from other peers.==Im Gegenzug können Sie sich selber von anderen Peers Blacklists runterladen.
Edit list:==Liste bearbeiten:
Expand Down Expand Up @@ -286,15 +286,101 @@ Changes will take effect immediately==Änderungen sind sofort aktiv
#-------------------------------------------------------
#File: IndexCreate_p.html

Index Creation=Index Erzeugung
You can define URLs as start points for Web page crawling and start that crawling here.=Du kannst hier URLs angeben, die gecrawlt werden sollen und dann das Crawling starten.
Crawling Depth:=Crawl-Tiefe:
Crawling Filter:=Crawl-Maske:
Store to Proxy Cache:=In den Proxy-Cache speichern:
Do Local Indexing:=Lokales Indexieren:
Do Remote Indexing:=Indexieren auf anderen Peers:
Exclude static Stop-Words:=Stop-Words ausschließen:
Start Point:=Startpunkt:
Index Creation==Index Erzeugung
Start Crawling Job:==Starte Crawling Aufgabe:
You can define URLs as start points for Web page crawling and start that crawling here.==Sie können hier URLs angeben, die gecrawlt werden sollen und dann das Crawling starten.
Crawling Depth:==Crawl-Tiefe:
"\#\[crawlingDepth\]\#">=="#[crawlingDepth]#">
A minimum of 1 is recommended.==Ein Minimum von 1 ist empohlen.
Be careful with the prefetch number. Consider a branching factor of average 20;==Seien Sie vorsichtig mit der Crawl-Tiefe. Erwägen Sie einen durschnittlichen Verzweigungsfaktor von 20;
A prefetch-depth of 8 would index 25.600.000.000 pages, maybe the whole WWW.==eine Crawl-Tiefe 8 wird 25.600.000.000 Seiten indexieren, vielleicht sogar das ganze WWW.
Crawling Filter:==Crawl-Maske:
"\#\[crawlingFilter\]\#">=="#[crawlingFilter]#">
This is an emacs-like regular expression that must match with the crawled URL.==Dies ist ein emacs-ähnlicher regulärer Ausdruck, der mit der gecrawlten URL übereinstimmen muss.
Use this i.e. to crawl a single domain. If you set this filter it would make sense to increase==Benutzen Sie dies z.B., um nur eine einzelne Domain zu crawlen. Wenn Sie diese Maske aktivieren, macht es Sinn
the crawl depth.==die Crawl Tiefe zu erhöhen.
Accept URLs with '\?' / dynamic URLs:==Akzeptiere URLs mit '?' / dynamischen URLs:
URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==URLs mit dynamischem Inhalt sollten normalerweise nicht gecrawlt werden. Wie auch immer, manchmal gibt es Seiten mit festem Inhalt, die
is accessed with URL's containing question marks. If you are unsure, do not check this to avoid crawl loops.==nur von URLs zu erreichen sind, die ein Fragezeichen enthalten. Wenn Sie unsicher sind, aktivieren Sie diese Funktion nicht, um Crawl Schleifen zu vermeiden.
Store to Proxy Cache:==Speicher im Proxy Cache:
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==Diese Option ist standardmässig beim Proxy aktiviert, wird aber zum reinen Crawlen nicht gebraucht.
We recommend to leave this switched off unless you want to control the crawl results with the==Wir raten Ihnen, sie nicht zu aktivieren, ausser Sie wollen die Crawl Resulate mit
Cache Monitor==Cache Monitor kontrollieren.
Do Local Indexing:==Lokales indexieren:
This should be switched on by default, unless you want to crawl only to fill the==Dies sollte standardmässig aktiviert sein, ausser Sie wollen den
Proxy Cache</a> without indexing.==Proxy Cache</a> ohne Indexierung f&uuml;llen.
Do Remote Indexing:==Indexieren auf anderen Peers:
Describe your intention to start this global crawl \(optional\):==Beschreiben Sie warum Sie diesen globalen Crawl starten (optional):
This message will appear in the 'Other Peer Crawl Start' table of other peers.==Diese Nachricht wird bei anderen Peers in der 'Anderer Peer Crawl Start' Tabelle angezeigt.
If checked, the crawl will try to assign the leaf nodes of the search tree to remote peers.==Wenn aktiviert, wird der Crawl versuchen, die Verzweigungen im Suchbaum an remote Peers zu &uuml;bertragen.
If you need your crawling results locally, you must switch this off.==Wenn Sie die Crawling Ergebnisse lokal ben&ouml;tigen, aktivieren Sie diese Funktion.
Only senior and principal peer's can initiate or receive remote crawls.==Nur Senior und Principal Peers k&ouml;nnen einen remote Crawl initiieren oder erhalten.
<b>A YaCyNews message will be created to inform all peers about a global crawl</b>, so they can ommit starting a crawl with the same start point.==<b>Eine Nachricht wird im YaCy News Bereich angezeigt, um alle Peers von diesem gloablen Crawl zu informieren,</b> damit sie es vermeiden k&ouml;nnen, einen Crawl vom selben Startpunkt zu starten.
Exclude <i>static</i> Stop-Words==Stop-Words ausschlie&szlig;en:
To exclude all words given in the file <tt class=small>yacy.stopwords</tt> from indexing,==Um alle W&ouml;rter von der Indexierung auszuschliessen, die in der Datei <tt class=small>yacy.stopwords</tt> enthalten sind,
check this box.==aktivieren Sie diese Box.
Starting Point:==Startpunkt:
From&nbsp;File:==Aus Datei:
From&nbsp;URL:==Von URL:
Existing start URL's are re-crawled.==Die existierende Start URL wird wieder gecrawlt.
Other already visited URL's are sorted out as 'double'.==Andere bereits besuchte Seiten werden als 'doppelt' aussortiert.
A complete re-crawl will be available soon.==Ein kompletter Re-Crawl wird bald m&ouml;glich sein.
"Start New Crawl"=="Starte neuen Crawl"
<b>Distributed Indexing: </b>==<b>Verteiltes Indexieren: </b>
Crawling and indexing can be done by remote peers.==Crawlen und Indexieren kann von anderen Peers durchgef&uuml;hrt werden.
Your peer can search and index for other peers and they can search for you.==Ihr Peer kann suchen und indexieren f&uuml;r andere Peers und diese k&ouml;nnen f&uuml;r Sie suchen.
Accept remote crawling requests and perform crawl at maximum load==Akzeptiere remote Crawling Anfragen und Crawle bis zum maximal geladenen.
Accept remote crawling requests and perform crawl at maximum of==Akzeptiere remote Crawling Anfragen und Crawle bis zu einem Maximum von
Pages Per Minute \(minimum is 1, low system load at PPM <= 30\)==Seiten pro Minute (Minimum ist 1, langsame Systeme sollten unter 30 Seiten pro Minte laden)
Do not accept remote crawling requests \(please set this only if you cannot accept to crawl only one page per minute; see option above\)==Akzeptiere keine remote Crawling Anfragen (bitte aktivieren Sie dies nur, wenn Sie nicht eine Seite pro Minute Crawlen k&ouml;nnen; siehe Option oben)
"set"=="Speicher"
Error:==Fehler:
Error with profile management. Please stop yacy, delete the File DATA/PLASMADB/crawlProfiles0.db and restart.==Fehler im Profil Management. Bitte stoppen Sie YaCy, l&ouml;schen Sie die Datei DATA/PLASMADB/crawlProfiles0.db und starten Sie YaCy neu.
Application not yet initialized. Sorry. Please wait some seconds and repeat the request.==Nicht richtig initialisiert. Sorry. Bitte warten Sie einige Sekunden und wiederholen Sie die Anfrage.
<b>ERROR: Crawl filter "#[newcrawlingfilter]#" does not match with crawl root "#[crawlingStart]#".</b> Please try again with different filter==
Crawling of "#[crawlingURL]#" failed. Reason:==
Error with url input==Fehler mit der eigegebenen URL
Error with file input==Fehler mit der eingebenen Datei
Set new prefetch depth to==Neue Crawl Tiefe gesetzt auf
Crawling of "\#\[crawlingURL\]\#" started.==Crawling von "#[crawlingURL]#" gestartet.
You can monitor the crawling progress either by watching the URL queues==Sie k&ouml;nnen den Crawling Prozess auch sehen, indem Sie auf einer URLs nachsehen
(<a href="/IndexCreateWWWLocalQueue_p.html">local queue</a>,
<a href="/IndexCreateWWWGlobalQueue_p.html">global queue</a>,
<a href="/IndexCreateLoaderQueue_p.html">loader queue</a>,
<a href="/IndexCreateLoaderQueue_p.html">indexing queue</a>)
or see the fill/process count of all queues on the
<a href="/Performance_p.html">performance page</a>.
<b>Please wait some seconds, because the request is enqueued and delayed until the http server is idle for a certain time.</b>==
The indexing result is presented on the==
<a href="IndexMonitor.html">Index Monitor</a>-page.==
<b>It will take at least 30 seconds until the first result appears there. Please be patient, the crawling will pause each time you use the proxy or web server to ensure maximum availability.</b>==
If you crawl any un-wanted pages, you can delete them <a href="IndexControl_p.html">here</a>.==
Removed #[numEntries]# entries from crawl queue. This queue may fill again if the loading and indexing queue is not empty==
Crawling paused successfully.==Crawling wurde erfolgreich unterbrochen (Pause).
Continue crawling.==Crawling wird fortgesetzt.
"refresh"=="Aktualisiere"
"continue crawling"=="Crawling fortzsetzen"
"pause crawling"=="Crawling pausieren"
Crawl Profile List:==Crawl Profil Liste:
Crawl Thread==Crawl Art
Start URL==Start URL
Depth</b>==Tiefe</b>
Filter</b>==Maske</b>
Accept '\?'</b>==Akzeptiere'?'</b>
Fill Proxy Cache==F&uuml;lle Proxy Cache
Local Indexing</b>==Lokales Indexieren</b>
Remote Indexing</b>==Indexieren auf anderen Peers</b>
Recently started remote crawls in progress:==Gerade gestartetes Indexieren auf anderen Peers in Bearbeitung:
Start Time==Startzeit
Peer Name==Peer Name
Start URL==Start URL
Intention/Description==Absicht/Beschreibung
Recently started remote crawls, finished:==Gerade gestartete Indexieren auf anderen Peers, beendet:
Remote Crawling Peers:==Remote Crawl Peers:
No remote crawl peers availible.==Kein Peer zum remote Crawl erreichbar.
peers available for remote crawling.==Peers erreichbar zum remote Crawling.==
Idle Peers==unt&auml;tige Peers
Busy Peers==Besch&auml;tigte Peers

#-------------------------------------------------------
#File: IndexMonitor.html
Expand Down
2 changes: 1 addition & 1 deletion source/de/anomic/yacy/yacyNewsAction.java
Expand Up @@ -64,7 +64,7 @@ public void processPeerArrival(yacySeed peer, boolean direct) {
String cre1 = (String) serverCodings.string2map(decodedString).get("cre");
String cre2 = (String) serverCodings.string2map(record.toString()).get("cre");
if ((cre1 == null) || (cre2 == null) || (!(cre1.equals(cre2)))) {
System.out.println("### ERROR - cre are not equal: cre1=" + cre1 + ", cre2=" + cre2);
serverLog.logError("### ERROR - cre are not equal: cre1=" + cre1 + ", cre2=" + cre2);
return;
}
try {
Expand Down

0 comments on commit a79913c

Please sign in to comment.