![]() |
Hallo Max, nach 8 Stunden mal ein Zwischenergebniss. Dein Global Hardlimit tut es, eine kleine ungenauigkeit ist zwar drin, aber besser geht es nicht. So zwischen 5-15 Quellen liegt das Limit mal drunter oder drüber, aber das lässt sich nicht ändern. Also ich behaupte jetzt mal besser geht es schon fast nicht mehr (bin ja kein Coder, sondern die Nervensäge vom Dienst). Mit freundlichen Grüssen mav744 Edit 14.30 Uhr: Bis auf die sache das im Titel komische zeichen angezeigt werden, du weist bescheid was ich meine, läuft alles so wie es soll. Hat man einmal Overall Hardlimit genutzt, willst du es nicht mehr missen. Die CPU last ist voll kommen im grünen bereich und die Speicherauslastung auch. Die gesamt Sourcen im Transferfenster stimmen mit denen in der Statistik überein. Webcache kann ich nicht zu viel zu sagen, läuft ja wenig bis gar nichts drüber bei mir. Klar steigt die Cpu last ein wenig an wenn ich den Timer auf einen niedriegeren Wert stelle, da der Max dann ja mehr nachregeln muss bzw. die Intervalle kürzer werden, aber dies ist erträglich. Ich sage: Glückwunsch es funzt :dance , und das mit gemischten Dateien (also wenig Quellen und Viele Quellen). |
Das mit dem Timer erledigt sich dann alsbald auch,da ich beabsichtige den festen timer wert durch einen throttler zu ersetzen. Wozu kurze Update Intervalle,wenn die Quellen eh nahezu in gleicher höhe gesetzt werden? A) Schont das den CPU und B) denke ich mal sollte man die Files einfach in Ruhe lassen wenn man das richtige Hardlimit gefunden hat und dieses nicht andauernd neu setzen. Allerdings würde ich das Hardlimit doch lieber gleichmäßiger über die Dateien verteilen-> 7-800 ist doch ein wenig krass unregelmäßig,aber dafür ist es ja noch in der Testphase MfG Max |
hallo MaxUpload ich habe deinen Mod gestern gestartet und das Global Hardlimit auf 3000 gestellt heute morgen hatte ich 2993 gefundene Quellen :clap ich glaube ich habe einen Bug gefunden wenn man im Transferfenster in den Kategorien erste Spalte statt alle auf unkatalogesiert stellt stehen oben die Quellen von diesen Dateien und das GHL richtet sich nach dieser Zahl wie wäre es wenn du Zitat:
dann würden erst die zuviele Verbindungen abgebaut und dann erst wieder neue Quellen gesucht würde es Sinn machen wenn das Hartlimit bei einer Datei immer nur ZB 100 über den abgefragten Quellen liegt so daß es nur Max 100 zuviele Quellen pro Datei gibt man konnte dann die Zahl reduzieren je höher die die Quellenzahl der Datei und und je näher die gesamte Quellenzahl dem GHL ist |
Hallo and, Zitat:
Zitat:
Wie plausiebel sind denn die Werte der WebCache Statistik oder benutzt Webcache nicht? Mir wurde von einem Bug in der Titelleiste berichtet...kannst du das bestätigen? Richtig müßte dort stehen: "eMule v0.45b Max v0.1d WC 1.9a B3"...bei mav z.B: treten dort aber merkwürdige ASCII-Zeichen auf...Kästchen z.B. . MfG Max |
Code: eMule v0.45b Max v0.1d Statistik [eMule 0.45b Max 0.1c] Zitat:
bei Alle rechtsklick und den Hacken bei unkatalogisiert machen jetzt werden die Dateien angezeigt die keiner Kategorie zugeordnet sind angezeigt diese Dateien Minuten anzeigen lassen dann ins Statistikfenster gehen dort seht dann bei gefundene Quellen plötzlich ein zu hoher Wert Zitat:
Zitat:
|
Kann ich auch bestätigen. Beim aktivieren von "Transferraten in Titelleiste" werden lauter komische Zeichen in selbiger angezeigt. |
Hi ich fasse das mal grade kurz zusammen: mav hatte mir den Transferfenster Bug zuerst gemeldet. Thx mav. Zitat:
Zitat:
Zitat:
Das Verbose log vom AutoHL ist völlig daneben...sorry grober Fehler von mir. Könnt ihr also ganz und gar ignorieren. Fehler bei der Hardlimitberechnung ...um so faszinierender das es trotzdem bei den meisten funktioniert. Bei mir sogar besser als die Debugte Version. Möglich das mich dieser Fehler zufällig auf eine Verbesserung gebracht hat. Werds nochmal testen was besser läuft. So nun zu den Antworten welche ich gefunden habe: -Transferraten im Titel...kleiner Bug der sich durch die Implementierung von Webcache 1.9a eingeschlichen hat..wäre mir bestimmt auch auf gefallen wenn ich nicht prinzipiell darauf verzichte mir dort etwas anzeigen zu lassen ;-). Man muß halt wirklich alles testen. -Falsche Log Line...kleiner Bug welcher aber das falsche Hardlimit anzeigt. nach beheben dieses Bugs und der Anzeige des korrekten Wertes stieß ich auf folgendes Problem -setzen eines zu großen Wertes beim erhöhen des Hardlimits... es war tatsächlich zig mal so groß wie das ursprünglich von mir geplant war....wie bereits erwähnt funktioniert das bedeutend besser ich habe auch schon so eine Ahnung warum. Und seit eben dieser Sekunde sogar schon eine gute Idee mir das zu nutze zu machen. Da dies soweit geklärt ist wären eigentlich nur noch 2 Sachen interessant für mich zum debuggen... Inwiefern gibt es einen Fehler in der Webcache Statstic oder nicht ? Und das überprüfen von and's Beobachtung. Danke erstmal euch allen ihr habt mir sehr geholfen. Mfg Max |
Bei mir läuft er jetzt seit knapp 5 Stunden und ich wundere mich warum die Quellenanzahl nicht runter geht. Wenn ich mir jetzt nochmal and's Kommentar durchlese, kann ich ihn nur bestätigen. Warum kann man eigentlich das GSL nicht auf über 4500 setzen? Ich weiß, dass dies in etwa der optimale Wert ist, jedoch hatte ich meine DL's bis jetzt immer so eingestellt, das ca. 30 Files downloadeten und die max. gef. Quellen so bei 8000 lagen. Dabei gingen die zu vielen Verbindungen auch noch gegen null und der Esel rannte einwandfrei...nichtmal mein Router machte mehr schlapp bei diesen Einstellungen. Sollte es also nicht jedem frei überlassen sein, den für sich optimalen Wert zu ermitteln oder damit ein wenig herum zu experimentieren? |
Zitat:
MfG Max |
Das ist mit gar nicht aufgefallen, da ich sowieso nur maximal 6000 Quellen bestellen kann. Sonst würde mein Upload total einbrechen und dasNetzwerk würde zu wenig von mir bekommen. Das heisst, das mein overhead über die Hälfte meines Uploads fressen würde. Und da ich sowieso immer ohne Kategorien arbeite, ist mir die beobachtung von and nicht aufgefallen. Ansonsten kann ich nur sagen das, das Global Hardlimit bei mir total gut funktioniert. Mit freundlichen Grüssen mav744 |
Ah...ok. Bis 7500 geht's. Habe es nur mit 8000 versucht und der Wert ist beim übernehmen immer wieder auf 4500 zurückgesprungen. Also 7500 ist OK. Meine Erfahrung hat mir gezeigt, dass sowieso nicht mehr drin ist. Wenn jemand noch höhere Werte für sich als optimal ertestet hat, soll er das hier schreiben. Kannst es ja dann immer noch in der nächsten Version erhöhen... |
Eine Frage am Rande: Werden Webcache- Downloads zu den den Downloadsessions gezählt? Ich hoffe mal ja, was die große Anzahl fehlgeschlagener Sessions bei mir erklären würde. zigq8vc0 |
Nachricht von Sam...ehm Max meine ich ;-). Kurzer zwischen Bericht,nicht das ihr denkt ich bin verschollen. Mein Ziel war es zumindest testweise ein "Global Source Limit" Tolleranz von +-5 % zu realisieren. Das wären bei 4500 Quellen ein Bereich von 4275-4725 Quellen. Tatsächlich bewege ich mich zwischen 4480-4509 Quellen und das sogar im PassivModus ;-) ,also sage ich mal verwegen wie ich bin... Ziel mehr als erreicht.Was jetzt noch zwingend erforderlich ist,ist ein Update-Time-Throttler-> A) um das Ziel schnellst möglichst zu erreichen, B) um bei Annährung an die gewünschte Quellenzahl die Cpu-Last zu verringern und die Quellenzahl zu stabilisieren und C) bei Veränderungen schnell wieder den PassivModus zu verlassen und die Quellenanzahl auszugleichen. MfG Max |
@MaxUpload klingt gut! Mach schön brav Deine Tags in den Code... wenn es fertig ist bin ich schon sehr neugierig ihn zu studieren. |
Na da schließ ich mich nur an. Wenn ich dir helfen kann... hast ja meine ICQ nummer^^ MFG Stulle |
Alle Zeitangaben in WEZ +1. Es ist jetzt 15:02 Uhr. |
Powered by vBulletin® Version 3.8.3 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
SEO by vBSEO ©2011, Crawlability, Inc.