In den letzten Tagen ist viel über dieses Thema zu lesen, dass ganze Seiten von Spambots übernommen wurden und dadurch bei Google besser gelistet werden als das Original.
Eine ausführliche Veröffentlichung findet sich bei nuke-news.de: http://nuke-news.de/article519.html
Und eine lebhafte Diskussion im Abakus Forum: http://www.abakus-internet-marketing.de/foren/viewtopic.php?t=30757
Eine prima Lösung für das Problem scheint wirklich das in diesen Publikationen verlinkte Tool "
bot-trap (http://www.bot-trap.de/)" zu sein.
ZitatBot-Trap.de - Das Gemeinnützige Projekt gegen Web-Spam!
Ständig sind Robots (Bots, Spider) im WWW unterwegs. Einige mit negativen Absichten, so z.B. Link-Spam abzusetzen, Content zu stehlen, eMail-Adressen zu sammeln usw. Damit ist jetzt Schluss!
GEMEINSAM sammeln, identifizieren und sperren wir, was wir nicht länger tolerieren. Das sind u.a.:
Gästebuch Spam, Formular Spam, Forum Spam, Wiki Spam, Blog Spam, Referer Spam, Content Grabber, E-Mail Harvester, Scraper
... die Liste ist endlos. Ein bei uns frei erhältliches PHP Skript kann in die eigene Webpräsenz eingebunden werden und blockiert die Schädlinge. Das Script updated sich (ähnlich einem Virenscanner) von selbst mit neuen Sperrmerkmalen und Versionen. Frickeln an .htaccess Dateien war gestern!
Da wir alle wissen, daß auch nicht so nette Menschen an den Mechanismen unserer Arbeit interessiert sind, müssen wir leider eine ausführliche Selbstvorstellung im Forum verlangen. Nur echte Menschen mit ehrlichen Absichten sollen und dürfen mitmachen.
Schauen Sie dem Web Spam nicht länger ohnmächtig zu. Treten Sie der Community bei, profitieren Sie vom Austausch und der gemeinsamen Arbeit. Machen Sie mit und helfen Sie mit! Mehr im Wiki und im Forum [Anmeldung nötig]
Ich habe mich dort angemeldet und das Script jetzt testweise hier auf der Seite installiert. :thumbup:
Im Laufe des Tages werde ich hier die Installation im pragmaMx beschreiben und hoffe, dass einige User dann mitziehen werden....
EDIT:
Unsere News zum Thema: http://www.pragmamx.org/News-file-article-sid-637.html
Eine Einleitung zum Einbau findet sich hier: http://www.pragmamx.org/Content-pa-showpage-pid-66.html
Für die Version 0.2 sollten wir auch etwas gegen die EMail - Harvester unternehmen.
Ich habe da noch eine schöne Klasse, die EMail-Adressen so anzeigt, das si für die Harverster unbrauchbar sind.
Die Arbeitet allerdings nicht mit Ascii-Umwandlung sondern bietet schon ein etwas ausgefeilteres System.
MfG
-> Im Laufe des Tages werde ich hier die Installation im pragmaMx beschreiben
und die persönliche vorstellung ?
Würde so eine Rattenfalle auch vor Datenklau aus der db schützen?
bei meiner jetzigen online-Pedigree-db haben die in den Perl-script was eigebaut, das bei solchen Angriffen eine emil sendet, dann kann man die IP sperren. bei mir gab es bisher keine Probleme. aber im am. Raum gibt es professionelle harvester, die versuchen Daten (die von privaten Betreiben kostenlos ins Netz gestellt werden) rauszuziehen und dann als "eigene" teuer zu verkaufen.
Ich habe nämlich vor irgendwann auf eine andere Version umzusteigen, die auch mit MySQL läuft. ob da so was schon drin ist, weiss ich nicht. wäre also sehr daran interessiert.
Zitat von: m-t am 22 Dezember 2006, 15:53:19
und die persönliche vorstellung ?
Meine?
die findet ihr hier, nach eurer Anmeldung dort....
http://www.bot-trap.de/forum/index.php?topic=1390.0
Um die Anmeldung und den Download muss sich jeder selbst kümmern. Das können wir nicht übernehmen, das würde gegen die Grundsätze von bot-trap.de verstossen.
Das Projekt lebt auch nur durch die aktive Teilnahme jedes einzelnen Users.
Zitat von: Andi am 22 Dezember 2006, 16:00:57
Um die Anmeldung und den Download muss sich jeder selbst kümmern. Das können wir nicht übernehmen, das würde gegen die Grundsätze von bot-trap.de verstossen.
das meinte ich :-)
Hallo ich habe mich schon angemeldet und den Code bekommen.Werde auf deine Anleitung warten.
Hai
Habe mich auch vor einiger Zeit angemeldet, auch den Code bekommen. Nur mit dem Einbinden haperts.... .
Leider habe ich wegen meinem neuen Job kaum Zeit mich zu kümmern. Alles zur Zeit sporadisch. Aber ich freue mich auf eine Einbauanleitung. :BD:
Jetzt schon ein fettes Dankeschön! :thumbup:
@Andi
Hallo, ich habe hier http://www.bot-trap.de/wiki/wikka.php?wakka=EinbauPHPNuke (http://www.bot-trap.de/wiki/wikka.php?wakka=EinbauPHPNuke) eine Einbauanleitung für PHPNuke gefunden, funktioniert diese auch unter PragmaMx richtig?
Kann man mit Hilfe der page.restrictor.inc.php die Speerseite auch an PragmaMx anpassen (so wie Errorseiten)?
Danke, für Deine Hilfe Gerhard
Einbau des bot-trap Codes in pragmaMx
- werde Mitglied im Forum von bot-trap.de, stelle dich dort vor und lasse dir den Code zusenden
- erstelle im mx-Webroot, dort wo die mainfile.php liegt, einen neuen Ordner "restrictor"
- dorthin kopierst du die von bot-trap.de heruntergeladene Code-Datei "page.restrictor.php" und alle an diesen Post angehaengten Dateien (.htaccess, page.restrictor.inc)
- der Ordner und die Datei page.restrictor.php, muss vom System beschreibbar sein, also chmod entsprechend setzen (0777)
- editiere die mainfile.php wie folgt:
finde folgende Zeilen:
define('MX_IS_ADMIN', mxIsAdmin()); // Adminberechtigung initialisieren
define('MX_IS_USER' , mxIsUser()); // Userberechtigung initialisieren
danach schreibst du folgende zusaetzliche Zeilen hinzu:
// restrictor von http://www.bot-trap.de/
if (((!MX_IS_ADMIN && !MX_IS_USER) || (MX_IS_ADMIN && isset($_GET['pres']))) && file_exists('./restrictor/page.restrictor.php')) {
chdir('./restrictor');
include_once('./page.restrictor.php');
chdir(dirname(__file__));
}
- speicher die mainfile.php
- zum testen rufst du (als Admin angemeldet) deine Seite mit folgenden Parametern auf: http://www.deineseite.tld/index.php?pres=check
Es sollten versch. Statusmeldungen erscheinen.
ZitatPage Restrictor v0.08o - Signatures 200612221201 - Last modified: 22.12.2006 14:23:11.
does file_get_contents(URL) work: YES
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: www.deineseite.tld
LogFile exists: YES, is writable: YES
Custom Extension exists: YES
Die Installation weicht etwas von der von bot-trap empfohlenen Methode ab, indem das bot-trap script nicht im web-root gespeichert wird. Ich finde es etwas praktikabler, die zusammengehörigen Dateien in einem Extra Ordner zu verwalten. So ist es auch möglich, ohne Änderung der eigentlichen .htaccess Datei, diesen Ordner per .htaccess zu schützen um die logfiles zu verstecken.
Weiterhin sparen wir einige resourcen, dadurch, dass das script bei eingeloggten Usern und Admins nicht ausgeführt wird. Ein Bot kann nicht als User/Admin eingeloggt sein...
In der Datei /restrictor/page.restrictor.inc ist im Moment nur die etwas angepasste Fehlerseite definiert, die dort beliebig angepasst werden kann. Hier zwischen, kann beliebiger HTML-Code eingefügt werden.
$forbiddenCustomMessage = <<<forbiddenCustomMessage
<!-- hier beliebiger HTML-Code... -->
forbiddenCustomMessage;
Wichtig ist, dass die Zeile
forbiddenCustomMessage; nicht eingerückt werden darf!
Die Datei dient hauptsächlich für eigene Anpassungen des Scriptes, weiter Infos dazu findet ihr im bot-trap Forum. ;)
[Dateien gelöscht durch Administrator]
Die gelöschten Dateien finden sich hier:http://www.pragmamx.org/Forum-topic-24878.html
Hallo Andi danke für die Anleitung habe alles so gemacht.Wenn ich mich dann als Admin anmelden möchte kommt:
Error: the theme-folder is missing!
Wenn ich mich zuerst als Admin anmelde ghet es aber sobald ich mich abmelde kommt das selbe.
Und dann habe ich:
Page Restrictor v0.08o - Signatures 200612221201 - Last modified: 22.12.2006 19:06:21.
does file_get_contents(URL) work: NO
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: www.ben.schnikemike.de
LogFile exists: NO
Custom Extension exists: YES
Hi :)
komisches Ding....
kannst mir mal nen FTP-Zugang zukommen lassen?
Habe im Moment keinen Plan was das sein könnte. Irgendwie klappt bei dir anscheinden der Ordnerwechsel per php nicht...
Zugangsdaten sind raus
Oki, gelöst...
Dein Server wollte den Code in der mainfile so haben:
// restrictor von http://www.bot-trap.de/
if (((!MX_IS_ADMIN && !MX_IS_USER) || (MX_IS_ADMIN && isset($_GET['pres']))) && file_exists('./restrictor/page.restrictor.php')) {
chdir('./restrictor/');
include_once('./page.restrictor.php');
chdir('../');
}
Hmm, ist eigentlich auch einfacher, mal sehen, ob noch mehr User das Problem haben ;)
Hallo Andi vielen Dank für deine schnelle Hilfe. :thumbup: :thumbup: :thumbup:
Muss ich jetzt noch irgendetwas machen oder arbeitet das jetzt selber?
Hi :)
jop, kein Problem, hat mich ja aselbst interessiert und evtl. hilft es anderen Usern, die das gleiche Problem haben.
ZitatMuss ich jetzt noch irgendetwas machen oder arbeitet das jetzt selber?
Normalerweise brauchst du nichts machen, wenn die Statusmeldungen so wie gepostet ausfallen.
Ab und zu ein Update mit dem folgenden Parameter: http://www.DEINESEITE.de/index.php
?pres=update (#post_)
Und ganz wichtig: aktiv im bot-trap Forum beteiligen und die Neuerungen beobachten :)
ZitatAb und zu ein Update mit dem folgenden Parameter: http://www.DEINESEITE.de/index.php?pres=update
Und ganz wichtig: aktiv im bot-trap Forum beteiligen und die Neuerungen beobachten :)
OK werde ich machen.
LG Benjamin
hi
bei mir findet er das log-file nicht, mit beiden varianten versucht :puzzled:
Page Restrictor v0.08o - Signatures 200612221201 - Last modified: 22.12.2006 20:15:51.
does file_get_contents(URL) work: YES
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: nuke-theme.de
LogFile exists: NO
Custom Extension exists: YES
Hi :)
das logfile ist standardmässig nicht vorhanden, sondern wird vom Script erst angelegt.
Vermutlich hat das script im Ordner /restrictor/ keine Schreibrechte (chmod) um die Datei zu erstellen.
Entweder den Ordner auf chmod 777 stellen und nochmal probieren, oder im Ordner mal eine leere Datei page.restrictor.log anlegen und die mit den passenden chmods versehen...
hi
@ Andi
wenn du nicht so weit weg wohnen würdest, würde ich kommen und dich knuddeln :BD: :thumbup:
es funzt :thumbup: :cul:
hallo,
hatte das selbe wie bei jogi, habe dann wie beschrieben page.restrictor.log mit dem editor erstellt, hochgeladen und bekomme dann das hier... meine frage jetzt, ob das alles ist? also schon installiert? :red:
Page Restrictor v0.08o - Signatures 200612222212 - Last modified: 22.12.2006 23:38:58.
does file_get_contents(URL) work: YES
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: xyz
LogFile exists: YES, is writable: YES
Custom Extension exists: YES
hi :)
jop, da scheint alles ok zu sein ;)
Von dem Script bekommst du ja sonst nichts mit. Dass es aber arbeitet, siehst du an dieser Ausgabe und an dem wachsenden Logfile ;)
ok danke Andi :) und bei der anleitung musste es richtig laufen :thumbup:
Hallo,
habe es genau nach Anleitung gemacht, und per Hand die page.restrictor.log erstellt, mit Schreibrechten versehen und eingefügt, weil es bei mir leider nicht automatisch geklappt hat.
Trotzdem bekomme ich diese Fehlermeldung:
Beim Aufruf der index.php?pres=check
Page Restrictor v0.08o - Signatures 200612222212 - Last modified: 23.12.2006 00:31:40.
does file_get_contents(URL) work: NO
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: docsexlin.de
LogFile exists: YES, is writable: YES
Custom Extension exists: YES
Wieso steht hier: does file_get_contents(URL) work: NO anstatt YES
MfG
Hallo
@Andi
Es funzt! :thumbup:
Danke und wenn ich besser rasiert wäre und Du meine Frau wärest würdest Du ein Küsschen bekommen! ;)
@all
Wie ich es getestet habe? Mit Firefox, genaues hier: http://www.bot-trap.de/wiki/wikka.php?wakka=PageRestricorTest
moin moin
:thumbup: :thumbup: :thumbup:
coole sache das...
eingebaut und den firefox test ausgeführt....1A :thumbup: :cul:
dann sag ich mal auf ein spamfreies fest
allen ein besinnliches fest und schöne feiertage
so long maverik
funktioniert einwandfrei. :thumbup:
danke für das howto
bestens, Dankeschön :thumbup:
Hi :)
danke für die Dankesworte, aber der Dank gebührt hauptsächlich dem team von bot-trap.de (http://www.bot-trap.de/)!
Zitat von: moskote01 am 23 Dezember 2006, 00:47:45
Wieso steht hier: does file_get_contents(URL) work: NO anstatt YES
Bei dir ist die php-Konfigurationseinstellung "allow_url_fopen" abgeschaltet und kann vom Script nicht automatisch umgestellt werden. Dadurch kann sich das Script nicht selbstständig aktualisieren. Auf die eigentliche Funktion hat das keinen negativen Einfluss.
Hi :)
wer den Autoupdater Service von k0riz0n (http://bottrap.korizon.de/index.php) in Anspruch nehmen will, der muss an der .htaccess eine Änderung vornehmen, damit der Updater Zugriff auf das bot-trap Script hat.
aus:
deny from all
mache:
Order deny,allow
Deny from all
Allow from 80.67.17.158
(datei anbei)
Die URL zum Eintragen lautet dann:
http://[DEINESEITE.TLD]/restrictor/page.restrictor.php
Info zum Update Service: http://www.korizon.de/comment.html&comcat=cont&subid=31
[gelöscht durch Administrator]
Zitat von: Andi am 23 Dezember 2006, 14:33:00
Hi :)
wer den Autoupdater Service von k0riz0n (http://bottrap.korizon.de/index.php) in Anspruch nehmen will, der muss an der .htaccess eine Änderung vornehmen, damit der Updater Zugriff auf das bot-trap Script hat.
hallo andi,
evt. eine dumme frage? kann durch den "autoupdater service" eine sicherheitslücke entstehen? wie regelt ihr es auf eurer pragma seite?
vom gefühl her denke ich das manuelle update ist sicherer!?
grüsse und ein frohes fest noch...
svenne
Hi :)
jop, am Anfang war ich auch etwas skeptisch...
Aber der Update Service macht nichts anderes, als das script mit dem Parameter ?pres=update aufzurufen. Also genau das, was du auch manuell machen würdest/müsstest.
Nur eben zu dem Zeitpunkt, wann auch ein Update verfügbar ist.
hallo andi,
ist ja ein super script. was hältst du von einer benutzerberechtigung für diesen oder einen zusätzlichen tread zu einer evt. erweiterung/optimierung. meinst du dass es evt. möglich ist, das script so zu verändern dass mann oder frau alle bots für einzelne module sperren kann. evt. doppelt für das forum etc. da lässt sich eine menge traffik einsparen! wenn gewünscht!
grüssle
sven
Hallo Andi,
habe ein wahrscheinlich ähnliches Problem:
Page Restrictor v0.08r - Signatures 200701011951 - Last modified: 02.01.2007 22:53:06.
does file_get_contents(URL) work: YES
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: www.bailamos-juntos.com.ar
LogFile exists: NO
Custom Extension exists: YES
allerdings in beiden Versionen???, also in der oben zuerst beschriebenen und dann mit der angepaßten...
Hallo!
Verzeiht die dumme Frage, kenn mich in der Materie nicht besonders aus.
Ich lese immer von Sperren? Es kann mir aber nicht passieren, dass meine eigene Seite gesperrt wird, wenn ich das installiere, oder?!
Was ich so bei bot-trap gelesen hab, kommt es wohl schon vor, dass User nur die Fehlerseite zu sehen bekommen.
Das liegt wohl daran, dass die Sperre aufgrund IP-Adressbereichen geschieht, in denen neben den Schädlingen evtl. auch "harmlose" Surfer unterwegs sein können...
Wie oft das der Fall ist, kann ich aber nicht sagen.
Zitat von: pete am 03 Januar 2007, 10:14:39
Hallo!
Verzeiht die dumme Frage, kenn mich in der Materie nicht besonders aus.
Ich lese immer von Sperren? Es kann mir aber nicht passieren, dass meine eigene Seite gesperrt wird, wenn ich das installiere, oder?!
keine angst, falls du oder jemand gesperrt wurde erscheint ein Captcha/Rechenaufgabe und du kannst deine seite betreten. ausserdem erscheint noch ein link zum forum.
grüsse
black
Hmmm?????
Surfer XY mit IP 123.123.123.123 (is natürlich nur ein Beispiel ;)) kommt auf meine Seite und ist lt. Skript kein "Guter", dann wird dieser User gesperrt? Die Frage ist, bekommt der dann meine Seite gar nicht erst zu sehen oder wie läuft das? :puzzled:
Zitatbekommt der dann meine Seite gar nicht erst zu sehen oder wie läuft das?
Schon einmal beim Scriptautor auf der Seite geschaut ?
Moin :)
Allgemeine Infos bezüglich des Scriptes, hier nachlesen: http://www.bot-trap.de/wiki/wikka.php?wakka=BotTrapWiki
Detailierte Fragen sind hier meist schon beantwortet, wenn nicht, dort fragen.http://www.bot-trap.de/forum/index.php
Airport1 und das bot-trap Team sind da kompetenter als wir.
Zitat von: black and white am 02 Januar 2007, 20:52:34
ist ja ein super script. was hältst du von einer benutzerberechtigung für diesen oder einen zusätzlichen tread zu einer evt. erweiterung/optimierung. meinst du dass es evt. möglich ist, das script so zu verändern dass mann oder frau alle bots für einzelne module sperren kann. evt. doppelt für das forum etc. da lässt sich eine menge traffik einsparen! wenn gewünscht!
Sorry, aber wir werden da keine individuelle Anpassung machen. Das System funktioniert nur, wenn es weiterhin zentral bei bot-trap.de verwaltet und gepflegt wird. Auch lebt es nur von der Mitarbeit der Community.
Änderungsvorschläge also immer nur dort im Forum stellen. Es gibt dort sogar extra threads...
Zitat von: Brammer am 03 Januar 2007, 03:01:08
habe ein wahrscheinlich ähnliches Problem:
Page Restrictor v0.08r - Signatures 200701011951 - Last modified: 02.01.2007 22:53:06.
does file_get_contents(URL) work: YES
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: www.bailamos-juntos.com.ar
LogFile exists: NO
Custom Extension exists: YES
allerdings in beiden Versionen???, also in der oben zuerst beschriebenen und dann mit der angepaßten...
Sorry, aber was ist das Problem? Die Anzeige ist doch ok
Zitat von: pete am 03 Januar 2007, 10:44:45... oder wie läuft das?...
http://www.bot-trap.de/wiki/wikka.php?wakka=BotTrapWiki
Ûnd für Fälle dass IP-Bereiche gesperrt sind, die offensichtlich nicht gesperrt gehören, gibt es extra einen Forenbereich wo man sowas melden kann. Das geht sehr unbürokratisch. Hatte ich auch schon:
http://www.bot-trap.de/forum/index.php?topic=1430.0
@Andi bei mir zeigt er nach der unter
ZitatCustom Extension exists: YES
folgendes an
ZitatCustom Extension exists: NO
weist du was custom extensions sind ?? ich steh mal n bischen aufm schlauch
Hi :)
das erscheint, wenn die "individuelle Anpassungsdatei" vorhanden ist:
http://www.bot-trap.de/wiki/wikka.php?wakka=PageRestrictorCustom
Müsste als, nach der hier in diesem Thread beschriebenen Methode immer Yes anzeigen...
Aloa,
mir ist gerade aufgefallen, das ich die update Routine des Scriptes nicht aufrufen kann. Ebenso die Check Routine des Scriptes. Script und Ordner sind auf 777.
Noch jemand das Problem?
:red:
___ Hat sich erledigt - Hatte die htaccess übersehen.
danke @andi hatte ich glatt übersehen / überlesen , bin halt doch blind wie ein maulwurf :puzzled:
Zitat von: black and white am 25 Dezember 2006, 13:24:07
kann durch den "autoupdater service" eine sicherheitslücke entstehen?
Wie Andi schon geschrieben hat, durch meinen Service wird keine Lücke geöffnet.
Es wird nur 3 mal der PRES mit verschiedenen Parametern per Url aufgerufen.
Sonst nix ;)
nur auf die nummer Sicher zu gehen:
wenn ich zusätzlich ein IP Nummern-Kreis aussperren will, muss ich in die page.restrictor.inc vor der Ausgabe von $forbiddenCustomMessage hinzufügen z.B.:
$forbiddenIPRanges .= <<<IPRANGES_END
88.231.0.0/88.231.127.255 TurkTelekom
IPRANGES_END;
laut : http://www.bot-trap.de/wiki/wikka.php?wakka=PageRestrictorCustom (http://www.bot-trap.de/wiki/wikka.php?wakka=PageRestrictorCustom) müsste eigentlich so sein.
Richtig???
Hat sich erledigt, habs mit eigenen ip getestet, funzt 1a! :thumbup:
hi...
Ich habe ein Problem bei der Anmeldung zum Auto Update Service...
Ich bekomme immer die Fehlermeldung "Url nicht erreichbar".
Ich hab es so installiert wie oben von Andy beschrieben. restrictor Verzeichnis, page.restrictor.php stehen auf 777 und die richtige htaccess Datei ist auch drin. Hat jemand nen Tip woran es noch leigen kann?
Beim Check steht bei mir: does file_get_contents(URL) work: NO - kann das das Problem sein warum auch die Anmeldung scheitert?
Sonst geht alles ohne Probleme auch das manuelle Update.
EDIT: wobei ich mich frage: mit pragma wird das Update über: /index.php?pres=update oder check
Ein Aufruf der Updatefunktion wie beim Entwickler beschrieben /page.restrictor.php?pres=update oder check wird durch Forbidden abgelehnt, daher wird die url bei korizon abgeleht.
icke
nochmal als Ergänzung:
Ein Aufruf der Updatefunktion wie beim Entwickler beschrieben /page.restrictor.php?pres=update oder check wird durch Forbidden abgelehnt, wobei natürlich noch der Unterordner davor kommt, also so: restrictor/page.restrictor.php?pres=update oder check - daher wird die url bei vmtl. korizon abgeleht.
Muss vieleicht die IP für die Anmeldungsseite noch in der htaccess ergänzt werden?
icke
In der htaccess sollte folgendes stehen.
Order deny,allow
Deny from all
Allow from 80.67.17.158
hi...
steht es, ohne Zweifel. 3 Mal geprüft.
Rechte der Dateien stimmen auch.
icke
Du musst aber auch dran denken, das wenn das drinne steht, auch du keinen zugriff mehr auf die Dateien/Ordner hast. ;)
Wenn du es Testen willst, einfahc mal die htaccess löschen und dann ausporibern
hä?
Doch per FTP und manuell kann ich ja das Update oder Check durchführen.
Aber nur über index.php?pres=update und nicht über die page.restrictor.php....
icke
Hmm... ich bin ein wenig irritiert!
Meine Installation hat problemlos funktioniert.
Lt. FireFox Test ist die Seite nun geschützt.
Rufe ich index.php?pres=update auf, bekomme aber ich lediglich:
Page Restrictor updated to v0.08r with signatures from 200701272151
angezeigt...
soll das so sein ??? :gruebel:
hi
ist ja auch ok :)
Page Restrictor updated to v0.08r with signatures from 200701272151
update gefahren zu version 0.08r mit signatur vom 27.01.2007 21:51
damit ist alles im lot ;) ;)
Danke jogi24, hab ich mir schon gedacht, wollte nur ne Bestätigung ;)
Hat sich eine von Euch die täglichen Logfiles in Unterverzeichnis angelegt, funktioniert das?
Ich bekomme weder im "restricted" das bestehende Logfile beschrieben noch im Logverzeichnis ein neues Tageslogfile angelegt.
chmod 777 ist auf das page.restrictor.log und das Logverzeichnis gesetzt
Code in page.restrictor.inc eingefügt
hi...
Der Schutz geht ja auch, wie auf der HP vom Bot-Trap unter Wiki zu lesen/ testen ist. Es geht mir nur um den Updateservice von korizon. Da ist keine Anmeldung möglich. Oder hat jemand andere Erfahrungen oder weiß woran es liegen könnte.
Danke
icke
funzt doch ;)
habe soeben eine seite von mir eingetragen.
http://www.korizon.de/bottrap.html
hi....
mmm. Leider hilft mir das nicht weiter. Bei mir geht es nicht.
icke
wende dich doch mal an den service und schau mal im macher-forum vorbei. wenn ich richtig gelesen hatte, wurde der updateservice gehackt und evt. kommt es dadurch zu störungen/verzögerungen. das gehackt bezieht sich auch nur auf die webseiten des updateservice. nicht auf das updatescript/dienst! alles reine spekulation meinerseits!
gruss
...
kann ich von meiner Seite nicht bestätigen.
Der Updateservice hat bei mir sofort funktioniert.
Hi...
Hab es gerade nochmal getestet. Keine Chance. "Url nicht erreichbar"
Naja, man muss auch mal aufgeben.
Bei Korizon hab ich auch schon nachgefragt. Da die page.restrictor.php auch nicht über den Browser ausgerufen werden kann, kann er mir leider auch nicht weiter helfen.
Hallo, wie erstelle ich die .htaccess Datei für den Einbau des Codes?
ZitatUm Besucher aus dem Ordner auszusperren, erstelle in diesem Ordner eine .htaccess Datei mit folgendem Inhalt:
habe den ordner restrictor erstellt und da die page.restrictor.php DAtei reinkopiert. das ganze liegt nun schon auf dem server. auch den chmod hab ich auf 777 gesetzt. Also eigentlich alles getan. Nur ich kann keine htaccess datei erstellen mit dem code:
ZitatOrder deny,allow
Deny from all
Allow from 80.67.17.158
kann nur .txt etc dateien erstellen...
kann mir da jemand mal nen tipp geben??? DANKE
Mist verdammt. "sorry" es funktioniert nicht, hab grad auf meine seite geschaut. nach dem editieren der mainfile.php kommt nur der text:
Zitat
Parse error: parse error, unexpected $ in /kunden/162343_76297/webseiten/html/mainfile.php on line 314
:rtfm:
hab den code so eingefügt wie beschrieben, was mach ich falsch?? ich werd noch irre.... typisch frau würde ich sagen :'(
MOin :)
unter Windows kann man ohne Tricks keine Dateien erstellen, die mit einem Punkt beginnen. Darum erstelle die htaccess Datei als normale htaccess.txt Datei, lade sie auf den Server und benenne sie dort um in .htaccess
Wegen dem Parsefehler:
Ist schwer zu sagen was du da gemacht hast, ohne den Code zu sehen...
Mit welchem Editor bearbeitest du die Dateien?
Anbei eine fertige mainfile.php für pragmaMx 0.1.9
[gelöscht durch Administrator]
Hallo, hab die datei wie du gesagt als .txt datei hochgeladen und auf den server kopiert. muss ich sie dann so umbenennen: htaccess.htaccess ?? oder ist es egal welcher name vor dem punkt steht?
zu der mainfile.php hab dir meine mitgeschickt. hab es eigentlich genauso eingefügt. probier jetzt mal deine aus und lad sie hoch... mal sehen ob es klappt.
[gelöscht durch Administrator]
hi
kein name vor dem punkt,
sondern nur .htaccess
Hab die mainfile.php jetzt bei mir hochgeladen, also die seite ist auf jeden fall noch da :-) funktioniert auch alles DANKE ... hab grad bei meinr festgestellt das der code gar nicht drin ist. obwohl ich den auf jedenfall gespeichert hab. wo kommt denn da der fehler her? benutze übrigens meistens wordpad zum ändern der codes.
kann man irgendwie testen ob es funktioniert? hab da irgendwo was gelesen, ...
Vielen Dank für deine schnelle Hilfe.... :genie:
@jogi24 - oh DANKE... :thumbup:
www.deinedomain.de/index.php?pres=check
hey future...
und wie teste ich nun ob der bot-trap funktioniert???
http://www.bot-trap.de/wiki/wikka.php?wakka=PageRestricorTest
oder
hier steht auch eine möglichkeit drinen
http://www.bot-trap.de/forum/index.php?topic=2312.0
:zensur: wurde erfolgreich abgewehrt :) :genie:
Danke für eure hilfe IHR SEID DIE BESTEN !!!!!!!!!!!
hi...
ich verzweifle bald mit dem ding....
hab gerade mal wieder ins bot-trap forum geschaut die letzte signatur ist von mitte feb. bei mir steht noch immer 26.jan.
scheinbar geht das update bei mir überhaupt nicht.
hab vieleicht jemand nen tip woran es liegen kann?
icke
Hi :)
ruf den pres, bzw. deine Seite mal wie folgt auf und poste hier die Ausgabe
http://www.bestslk.de/?pres=check
Du musst als Admin angemeldet sein
hi andi..
hier der ausdruck:
Page Restrictor v0.08r - Signatures 200702192144 - Last modified: 21.02.2007 22:18:17.
does file_get_contents(URL) work: NO
is writable: YES
local: /index.php?pres=check
uri: /modules.php
server: www.bestslk.de
LogFile exists: YES, is writable: YES
Custom Extension exists: YES
vmtl. ist die ursache das das update nicht geht:
die hier: does file_get_contents(URL) work: NO
da bleibt nur die page.restrictor.php nach jeden update ziehen und auf den server hochladen.
icke
Genau ;)
oder den Hoster bitten, dass er allow-url-fopen wieder aktiviert.
Wird er aber bestimmt nicht tun.
Thread geschlossen, weil zu unübersichtlich.
Bitte bei Problemen zuerst im Bot-Trap Forum (http://www.bot-trap.de/forum/index.php) umsehen.
Wenn da nichts zu finden ist, hier (unter Fremdmodule) einen neuen Thread eröffnen.
http://www.bot-trap.de/forum/index.php