ยินดีต้อนรับคุณ, บุคคลทั่วไป กรุณา เข้าสู่ระบบ หรือ ลงทะเบียน

เข้าสู่ระบบด้วยชื่อผู้ใช้ รหัสผ่าน และระยะเวลาในเซสชั่น

ThaiSEOBoard.comความรู้ทั่วไปSearch Engine Optimization++++++++ ขอถามเขียนไฟล์ Robots.txt สำหรับชาวป่า แบบนี้ได้ไหมครับ ++++++++
หน้า: [1] 2  ทั้งหมด   ลงล่าง
พิมพ์
ผู้เขียน หัวข้อ: ++++++++ ขอถามเขียนไฟล์ Robots.txt สำหรับชาวป่า แบบนี้ได้ไหมครับ ++++++++  (อ่าน 4478 ครั้ง)
0 สมาชิก และ 1 บุคคลทั่วไป กำลังดูหัวข้อนี้
IzeSem
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 61
ออฟไลน์ ออฟไลน์

กระทู้: 1,386



ดูรายละเอียด
« เมื่อ: 22 สิงหาคม 2010, 19:44:23 »

โค๊ด:
User-agent: Googlebot
User-agent: AdsBot-Google (adword bot)
User-agent: MSNBot
User-agent: Slurp
User-agent: Teoma (ask.com bot)
Disallow:

User-agent: *
Disallow: /
บันทึกการเข้า
yakuzamama
ก๊วนเสียว
*

พลังน้ำใจ: 71
ออฟไลน์ ออฟไลน์

กระทู้: 448



ดูรายละเอียด เว็บไซต์
« ตอบ #1 เมื่อ: 22 สิงหาคม 2010, 20:13:19 »

User-agent: *
Disallow: /

มันห้ามไม่ให้ bot ทุกตัวค้นหาเว็บไม่ใช่หรอครับ  wanwan023

ปกติผมใส่แค่นี้

User-agent: *
Disallow:
Sitemap:http://www.name.com/sitemap.xml

ถ้ามี folder admin ก็จะใส่ Disallow: /admin/

บันทึกการเข้า
IzeSem
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 61
ออฟไลน์ ออฟไลน์

กระทู้: 1,386



ดูรายละเอียด
« ตอบ #2 เมื่อ: 22 สิงหาคม 2010, 20:22:09 »

คือต้องการแค่บอท
User-agent: Googlebot
User-agent: AdsBot-Google (adword bot)
User-agent: MSNBot
User-agent: Slurp
User-agent: Teoma (ask.com bot)
Disallow:

บอทอื่นห้ามครับ
ไม่รุ้ว่าได้เปล่ายังไม่ได้ลอง lol
บันทึกการเข้า
tdelphi
Global Moderator
หัวหน้าแก๊งเสียว
*****

พลังน้ำใจ: 308
ออฟไลน์ ออฟไลน์

กระทู้: 1,601



ดูรายละเอียด เว็บไซต์
« ตอบ #3 เมื่อ: 22 สิงหาคม 2010, 20:31:13 »

ดูของ ไทยเสียวมั้ยครับ  เมื่อคืนโดน 80legs ถล่ม  เอาชุดนี้ใส่เข้าไป หายเกลี้ยงเลย
ไฟล์ .htaccess

อ้างถึง
RewriteEngine On


# PREVENT PREFETCHING OF PAGES
#=====================================
RewriteCond %{X-moz} ^prefetch [NC,OR]

# BLOCK DEFAULT UA OF PROGRAMMING LIBRARIES
#==================================================
RewriteCond %{HTTP_USER_AGENT} ^curl/ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^HTMLParser [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Jakarta\ Commons [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Java [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^libcurl [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^libwww-perl [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^LWP::Simple [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^lwp-request [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft\ Data\ Access [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft\ URL\ Control [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^MS\ Web\ Services\ Client\ Protocol [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^PECL::HTTP [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^POE-Component-Client-HTTP [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^PycURL [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Python-urllib [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Snoopy [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^VB\ Project [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WWW::Mechanize [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Indy\ Library [NC,OR]
RewriteCond %{HTTP_USER_AGENT} RPT-HTTPClient [NC,OR]

# BLOCK BAD BOTS, ETC. - VERIFIED IN LOGS 2009-12
#==================================================
RewriteCond %{HTTP_USER_AGENT} ^$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^AISearchBot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^al_viewer [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^amibot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^BDFetch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^core-project [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Cuam\ Ver [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^DoubleVerify\ Crawler [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^ia_archiver [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/(2�3)\.0 [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/([1-9])\.([0-9])\ http [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/([1-9])\.([0-9])$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Ruby [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^SBL-BOT [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Space\ Bison [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Squid-Prefetch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Twisted\ PageGetter [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WebImages [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^YebolBot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Zend_Http_Client [NC,OR]
RewriteCond %{HTTP_USER_AGENT} 80legs [NC,OR]
RewriteCond %{HTTP_USER_AGENT} aiHitBot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Arachmo [NC,OR]
RewriteCond %{HTTP_USER_AGENT} asynchttp [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Downloader [NC,OR]
RewriteCond %{HTTP_USER_AGENT} DreamPassport [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Email [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Exabot-Thumbnails [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Extractor [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Fetch\ API\ Request [NC,OR]
RewriteCond %{HTTP_USER_AGENT} HTTrack [NC,OR]
RewriteCond %{HTTP_USER_AGENT} larbin [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MS\ FrontPage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MSFrontPage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MSIECrawler [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MyDiGiRabi [NC,OR]
RewriteCond %{HTTP_USER_AGENT} NEWT [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Nutch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ppclabs_bot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} SimulBrowse [NC,OR]
RewriteCond %{HTTP_USER_AGENT} SpiderMan [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Spinn3r [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Web\ Spider [NC,OR]
RewriteCond %{HTTP_USER_AGENT} WebCapture [NC,OR]

# BLOCK BAD BOTS - USED BUT NOT FOUND IN LOGS SAMPLED 2009-12
#==================================================
RewriteCond %{HTTP_USER_AGENT} ^DittoSpyder [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Download [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Teleport\ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZIP [NC]

RewriteCond %{HTTP_USER_AGENT} webcollage [NC,OR]

# BLOCK BAD BOTS - EXECUTE RULE
#==================================================
RewriteRule !^(robots\.txt|feed\.xml)$ - [F,L]





« แก้ไขครั้งสุดท้าย: 22 สิงหาคม 2010, 20:33:49 โดย tdelphi » บันทึกการเข้า

IzeSem
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 61
ออฟไลน์ ออฟไลน์

กระทู้: 1,386



ดูรายละเอียด
« ตอบ #4 เมื่อ: 22 สิงหาคม 2010, 20:34:20 »

โอ้วขอบคุณครับ คุณ tdelphi
บันทึกการเข้า
มายองเนสจัง
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 582
ออฟไลน์ ออฟไลน์

กระทู้: 3,137



ดูรายละเอียด
« ตอบ #5 เมื่อ: 22 สิงหาคม 2010, 20:42:11 »

ไอ้ข้างบนมาานคืออะไรหราคะ ไม่เข้าใจอะ wanwan022
บันทึกการเข้า
bouy22
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 408
ออฟไลน์ ออฟไลน์

กระทู้: 2,334



ดูรายละเอียด เว็บไซต์
« ตอบ #6 เมื่อ: 22 สิงหาคม 2010, 20:53:25 »

เข้ามา เมม กระทู้
บันทึกการเข้า

สนใจทำธุรกิจไอศกรีมหนองโพ คลิกเลย | ลงประกาศโฆษณา ประกาศฟรี | เว็บฝากรูป | สคริปเกมแฟลช |
ผลิตภัณฑ์เสริมอาหารออกซิเจนน้ำ Adoxy
chui761
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 860
ออฟไลน์ ออฟไลน์

กระทู้: 9,477



ดูรายละเอียด เว็บไซต์
« ตอบ #7 เมื่อ: 15 กันยายน 2010, 23:30:32 »


มาดันหน่อย พึ่งโดนกะตัว ขอลองเอาไปใช้หน่อย
บันทึกการเข้า

asshur
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 59
ออฟไลน์ ออฟไลน์

กระทู้: 3,315



ดูรายละเอียด เว็บไซต์
« ตอบ #8 เมื่อ: 15 กันยายน 2010, 23:45:42 »

ป๊าด!!!! เดี๋ยวเอาของไทยเสียวลองเลย
บันทึกการเข้า

perfectxp
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 114
ออฟไลน์ ออฟไลน์

กระทู้: 3,055



ดูรายละเอียด เว็บไซต์
« ตอบ #9 เมื่อ: 16 กันยายน 2010, 00:21:27 »

อาจารย์ต่อมาตอบเองเลย อิอิ
บันทึกการเข้า
samabois
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 124
ออฟไลน์ ออฟไลน์

กระทู้: 1,851



ดูรายละเอียด เว็บไซต์
« ตอบ #10 เมื่อ: 16 กันยายน 2010, 00:54:11 »

 wanwan017 wanwan017 wanwan017

ไฟล์ .htaccess

แก้ บนโฮส ใช่ไหมครับ
บันทึกการเข้า

"ความล้มเหลว" มันก็แค่ "อุปสรรคชั่วคราว" เท่านั้น ไม่ได้เป็น "ข้ออ้าง" สำหรับคนที่ "มุ่งมั่น"
ขาย โดเมนUNITED.IN.TH 30,000 บาท ติดต่อมาได้เลย
เริ่มโปรเจ็คเพื่อโลกสวย....Hello World !!!
iNspIr@Tion
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 135
ออฟไลน์ ออฟไลน์

กระทู้: 2,816



ดูรายละเอียด
« ตอบ #11 เมื่อ: 08 ตุลาคม 2010, 02:18:30 »

ดูของ ไทยเสียวมั้ยครับ  เมื่อคืนโดน 80legs ถล่ม  เอาชุดนี้ใส่เข้าไป หายเกลี้ยงเลย
ไฟล์ .htaccess

อ้างถึง
RewriteEngine On


# PREVENT PREFETCHING OF PAGES
#=====================================
RewriteCond %{X-moz} ^prefetch [NC,OR]

# BLOCK DEFAULT UA OF PROGRAMMING LIBRARIES
#==================================================
RewriteCond %{HTTP_USER_AGENT} ^curl/ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^HTMLParser [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Jakarta\ Commons [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Java [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^libcurl [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^libwww-perl [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^LWP::Simple [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^lwp-request [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft\ Data\ Access [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft\ URL\ Control [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^MS\ Web\ Services\ Client\ Protocol [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^PECL::HTTP [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^POE-Component-Client-HTTP [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^PycURL [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Python-urllib [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Snoopy [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^VB\ Project [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WWW::Mechanize [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Indy\ Library [NC,OR]
RewriteCond %{HTTP_USER_AGENT} RPT-HTTPClient [NC,OR]

# BLOCK BAD BOTS, ETC. - VERIFIED IN LOGS 2009-12
#==================================================
RewriteCond %{HTTP_USER_AGENT} ^$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^AISearchBot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^al_viewer [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^amibot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^BDFetch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^core-project [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Cuam\ Ver [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^DoubleVerify\ Crawler [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^ia_archiver [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/(2�3)\.0 [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/([1-9])\.([0-9])\ http [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/([1-9])\.([0-9])$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Ruby [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^SBL-BOT [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Space\ Bison [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Squid-Prefetch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Twisted\ PageGetter [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WebImages [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^YebolBot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Zend_Http_Client [NC,OR]
RewriteCond %{HTTP_USER_AGENT} 80legs [NC,OR]
RewriteCond %{HTTP_USER_AGENT} aiHitBot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Arachmo [NC,OR]
RewriteCond %{HTTP_USER_AGENT} asynchttp [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Downloader [NC,OR]
RewriteCond %{HTTP_USER_AGENT} DreamPassport [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Email [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Exabot-Thumbnails [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Extractor [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Fetch\ API\ Request [NC,OR]
RewriteCond %{HTTP_USER_AGENT} HTTrack [NC,OR]
RewriteCond %{HTTP_USER_AGENT} larbin [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MS\ FrontPage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MSFrontPage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MSIECrawler [NC,OR]
RewriteCond %{HTTP_USER_AGENT} MyDiGiRabi [NC,OR]
RewriteCond %{HTTP_USER_AGENT} NEWT [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Nutch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ppclabs_bot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} SimulBrowse [NC,OR]
RewriteCond %{HTTP_USER_AGENT} SpiderMan [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Spinn3r [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Web\ Spider [NC,OR]
RewriteCond %{HTTP_USER_AGENT} WebCapture [NC,OR]

# BLOCK BAD BOTS - USED BUT NOT FOUND IN LOGS SAMPLED 2009-12
#==================================================
RewriteCond %{HTTP_USER_AGENT} ^DittoSpyder [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Download [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Teleport\ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZIP [NC]

RewriteCond %{HTTP_USER_AGENT} webcollage [NC,OR]

# BLOCK BAD BOTS - EXECUTE RULE
#==================================================
RewriteRule !^(robots\.txt|feed\.xml)$ - [F,L]






คือผมลองเอาไปใช้กับเว็บ wordpress แล้วมันขึ้น 500 Internal Server Error ครับ คือต้องแก้ตรงไหนก่อนรึเปล่าครับ
บันทึกการเข้า

ผิดหวังได้ ... แต่อย่าสิ้นหวัง
ผิดผลาดได้ ... แต่อย่าลืมแก้ไข
พ่ายแพ้ได้ ... แต่ต้องสู้ต่อไป
สูญเสียอะไรก็ได้ ... แต่อย่าสูญเสียกำลังใจในชีวิต

บริจาคเงินช่วยเหลือสัตว์กันครับ วัดพระบาทน้ำพุ
iNspIr@Tion
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 135
ออฟไลน์ ออฟไลน์

กระทู้: 2,816



ดูรายละเอียด
« ตอบ #12 เมื่อ: 08 ตุลาคม 2010, 02:23:29 »

งั้นขอถามคุณ tdelphi  อีกซักข้อด้วยแล้วกับครับ คือเว็บที่ผมลง wp มันโดนขอหาให้ cpu เกินตลอด ทราฟฟิค 1000+ ต่อวัน จากนั้นพอโดนปิดบ่อยๆเข้า คนเข้าเหลือ 100 กว่าๆ ก็ยังโดนข้อหาเดิมอีก คิดว่าโดน bot ถล่ม เลยอยากขอคำชี้แนะหน่อยครับ
บันทึกการเข้า

ผิดหวังได้ ... แต่อย่าสิ้นหวัง
ผิดผลาดได้ ... แต่อย่าลืมแก้ไข
พ่ายแพ้ได้ ... แต่ต้องสู้ต่อไป
สูญเสียอะไรก็ได้ ... แต่อย่าสูญเสียกำลังใจในชีวิต

บริจาคเงินช่วยเหลือสัตว์กันครับ วัดพระบาทน้ำพุ
tdelphi
Global Moderator
หัวหน้าแก๊งเสียว
*****

พลังน้ำใจ: 308
ออฟไลน์ ออฟไลน์

กระทู้: 1,601



ดูรายละเอียด เว็บไซต์
« ตอบ #13 เมื่อ: 08 ตุลาคม 2010, 03:13:14 »

งั้นขอถามคุณ tdelphi  อีกซักข้อด้วยแล้วกับครับ คือเว็บที่ผมลง wp มันโดนขอหาให้ cpu เกินตลอด ทราฟฟิค 1000+ ต่อวัน จากนั้นพอโดนปิดบ่อยๆเข้า คนเข้าเหลือ 100 กว่าๆ ก็ยังโดนข้อหาเดิมอีก คิดว่าโดน bot ถล่ม เลยอยากขอคำชี้แนะหน่อยครับ


ต้องดูจาก log นะ หรือหา stat อะไรมาจับก็ได้ครับ ว่า traffic ที่เข้ามาเป็น คนกี่ % และ บอท กี่ %
เบื้องต้น ลอง block bad bot ออกให้หมดก่อน เหลือแต่ตัวสำคัญๆ ไว้ เช่น Googlebot ตัวเดียวก็ได้
บันทึกการเข้า

umphs
สมุนแก๊งเสียว
*

พลังน้ำใจ: 75
ออฟไลน์ ออฟไลน์

กระทู้: 703



ดูรายละเอียด
« ตอบ #14 เมื่อ: 08 ตุลาคม 2010, 03:17:52 »

อ่ะ แล้วต้องแก้ยังไงถึงจะดีสุดหรือครับ  wanwan017
บันทึกการเข้า

(づ ̄  ̄)づ     (つ´∀`)つ          (゚∀゚)          ( ^ω^)       

 (*´∀`*)         (´・∀・`)        (*‘∀‘)       (*´д`*)
iNspIr@Tion
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 135
ออฟไลน์ ออฟไลน์

กระทู้: 2,816



ดูรายละเอียด
« ตอบ #15 เมื่อ: 08 ตุลาคม 2010, 07:40:40 »

งั้นขอถามคุณ tdelphi  อีกซักข้อด้วยแล้วกับครับ คือเว็บที่ผมลง wp มันโดนขอหาให้ cpu เกินตลอด ทราฟฟิค 1000+ ต่อวัน จากนั้นพอโดนปิดบ่อยๆเข้า คนเข้าเหลือ 100 กว่าๆ ก็ยังโดนข้อหาเดิมอีก คิดว่าโดน bot ถล่ม เลยอยากขอคำชี้แนะหน่อยครับ


ต้องดูจาก log นะ หรือหา stat อะไรมาจับก็ได้ครับ ว่า traffic ที่เข้ามาเป็น คนกี่ % และ บอท กี่ %
เบื้องต้น ลอง block bad bot ออกให้หมดก่อน เหลือแต่ตัวสำคัญๆ ไว้ เช่น Googlebot ตัวเดียวก็ได้


ขอบคุณมากครับ
บันทึกการเข้า

ผิดหวังได้ ... แต่อย่าสิ้นหวัง
ผิดผลาดได้ ... แต่อย่าลืมแก้ไข
พ่ายแพ้ได้ ... แต่ต้องสู้ต่อไป
สูญเสียอะไรก็ได้ ... แต่อย่าสูญเสียกำลังใจในชีวิต

บริจาคเงินช่วยเหลือสัตว์กันครับ วัดพระบาทน้ำพุ
siamza16
ก๊วนเสียว
*

พลังน้ำใจ: 7
ออฟไลน์ ออฟไลน์

กระทู้: 286



ดูรายละเอียด
« ตอบ #16 เมื่อ: 08 ตุลาคม 2010, 07:44:02 »

ขอบคุณมากครับได้ความรู้เพิ่มขึ้นอีก
บันทึกการเข้า

SearchMarketing
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 522
ออฟไลน์ ออฟไลน์

กระทู้: 6,613



ดูรายละเอียด
« ตอบ #17 เมื่อ: 08 ตุลาคม 2010, 08:55:25 »

เว็บผมร่วงเยอะเลย ทั้งที่ติดระบบ cache แล้ว

ควรเข้าไปดูที่ไหนดีครับ ว่ามันหนักเพราะอะไร

ทาง host แนะนำให้ติด sql mon แต่ ใส่เข้าไปแล้วมัน error

log file เรียกดูได้จากที่ไหนครับ

เห็นแต่ error log โตวันโตขึ้น บางอันจะเป็น GB แล้ว
บันทึกการเข้า
gorn009
คนรักเสียว
*

พลังน้ำใจ: 2
ออฟไลน์ ออฟไลน์

กระทู้: 139



ดูรายละเอียด
« ตอบ #18 เมื่อ: 08 ตุลาคม 2010, 09:22:06 »

โอ้ ความรู้ใหม่ ขอบคุณครับ ปกติมีตัวไฟล์ robot ของคุณอนุชา
บันทึกการเข้า
Seventh
คนรักเสียว
*

พลังน้ำใจ: 12
ออฟไลน์ ออฟไลน์

กระทู้: 181



ดูรายละเอียด เว็บไซต์
« ตอบ #19 เมื่อ: 10 มีนาคม 2014, 19:02:18 »

เก็บเป็นความรู้ ขอบคุณครับ
บันทึกการเข้า


รับแต่งหน้ารับปริญญา แต่งหน้าเจ้าสาว แต่งหน้าไปงาน แต่งหน้าพิธีกร สอนแต่งหน้า www.ช่างแต่งหน้าเช่าชุดราตรี.com
หน้า: [1] 2  ทั้งหมด   ขึ้นบน
พิมพ์