Skocz do zawartości

Arent

Użytkownicy
  • Postów

    75
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Arent

  1. zaraz moment, to jak to ma być? Bo do ciała dokumentu wkleiłem tylko ten kod <? echo $_SERVER['HTTP_REFERER'] ?> żadnych ELSE i IF tam nie mam
  2. do pliku php wkleić tylko to? <? echo $_SERVER['HTTP_REFERER'] ?> jeśli tak to mam czystą stronę, białą
  3. adres się zgadza, sprawdzałem po kilka razy, wciąż jest to samo
  4. Na 100% nie, czy ktoś mógłby sprawdzić to u siebie?
  5. właśnie spostrzegłem że ładuje mi tylko jeden plik, sprawdzałem na onecie i zawsze mi laduje plik not-adwords.txt <? if (eregi('http://www.onet.pl/',$HTTP_REFERER)) { $txt=file_get_contents("adwords.txt"); } else { $txt=file_get_contents("not-adwords.txt"); } echo $txt; ?>
  6. A no tak, dzięki. Takie jeszcze pytanie, jeśli użytkownik wejdzie z adwords a następnie odświezy stronę, wtedy załaduje inną str (ponieważ po odświezeniu poprzednią stroną była inna niż www.adwords...). Jak zrobić żeby załadowało tą samą?
  7. Jest, nawet ścieżkę bezpośrednio do pasku adresu wkleiłem i się wyświetla to samo mam w IE i Firefox
  8. mam: Warning: file_get_contents(http://www.sciezka.com/en/not-adwords.txt)) [function.file-get-contents]: failed to open stream: HTTP request failed! HTTP/1.1 404 Not Found in /dir/en/175.php on line 8 dokładnie tu $txt=file_get_contents("http://www.sciezka.com/en/not-adwords.txt)");
  9. taki kod jest prawidłowy? <? if (eregi('http://adwords.google.com',$HTTP_REFERER)) { $txt=file_get_contents("for-adwords.txt)"); } else { $txt=file_get_contents("not-adwords.txt)"); } echo $txt; ?> a nie da się samego słowa adwords sprawdzić?
  10. Witam, Jak użyć funkcji $HTTP_REFERER żeby sprawdzić tylko fragment adresu jaki użytkownik odwiedził wcześniej, a nie cały adres? Np. jak użytkownik wchodzi mi z adwords to najpierw po kliknięciu w reklamę jest adres np. http://adwords.google.com/4njnyjnojyio0j2yip2j5i.... po czym następuje redirect na moją stronę Chciałbym żeby po sprawdzeniu czy użytkownik przyszedł ze strony o adresie ze słowem adwords serwer zaincludował odpowiedni plik, a jeśli słowa adwords nie byłoby zaincludowałby inny plik.
  11. Dzięki za pomoc, a za porno to sorry - tak wpisałem z głowy przypadkowy ciąg znaków
  12. Witam, mam problem z wyświetleniem potrzebnych mi danych na stronie dostawcy w formacie xml w instrukcji mam tak (oczywiście nie mogę podać prawdziwych adresów dostepu i reszty poniewaz jest to serwis płatny) po wklepaniu samego adresu http://example.com/service/ mam plik xml więc daję tak [3 to numer danych jaki chcę otrzmać] lub tak niestety mam wyświetlony adres strony głównej witryny dostawcy, obojętnie czy wklepię 1. lub 2. adres, a i nie ma redirecta, adres pozostaje taki sam
  13. słyszałem że można również wyciągnąć z kompa info o maksymalnej rozdzielczości jaka jest dostępna na karcie graficznej
  14. chyba najprościej jest uzywać anonymous proxy
  15. a jakiej najlepiej przeglądarki używać i jak ją skonfigurować (np. blokując cookies nie mogę wejść na wiele witryn i mszę odblokować), zeby "wyciekało" jak najmniej danych z mojego kompa?
  16. A ja zadam takie pytanie, jakie informacje webmaster może wyciągnąć z mojego kompa? Z tego co się orientuję to: IP, nawet jeśli łączę się przez proxy rozdzielczość ekranu, liczba kolorów rodzaj przeglądarki wersja systemu operacyjnego (język także?) może wyciągnąć nazwę użytkownika kompa?
  17. No i znowu problem wrócił mimo że blokuję już ponad 1000 botów, staram się blokować cały zakres, ale chyba to nie działa czy do pliku .htaccess mogę jeszcze dodać coś takiego jak to http://phpfreelancer.net/articles/30690_Oc...i-htaccess.html coś takiego
  18. Jak wykonać np. mnożenie lub dzielenie dwóch kolumn w 1 tabeli? tak żeby wyświetlić 1 kolumnę np. w tabeli html:
  19. a dałoby się coś takiego zrobić, że boty mogliby przeglądać max 300 podstron podczas 1 wizyty (poza googlebotem)?
  20. no ale jest jeszcze problem z botami np. e-weblinka, seo.net.pl, livelink, co-op'a, linkme, link-vaulta, itd. - jakbym zaczął je blokować to poprostu zostałbym przez adminów zbanowany
  21. no widzę, że transfer spadł z 10 gb do nieco ponad 1 gb, generalnie wartościowe strony generują mi tylko ułamek tego co qlweby, zastanawiam się czy nie lepiej zbanowć wszystkie boty, tylko wpuścić google, yahoo, itp.
  22. taka lista jakby kto potrzebował stąd http://www.spywareinfo.com/harvest_project/spambots.txt
×
×
  • Dodaj nową pozycję...