300 likes | 439 Views
Chapter 4 Internet Searching (การ ค้นหาสารสนเทศบน อินเตอร์เน็ต). ประเภทการค้นหา.
E N D
Chapter 4 Internet Searching (การค้นหาสารสนเทศบนอินเตอร์เน็ต)
ประเภทการค้นหา บนอินเทอร์เน็ต มีประเภทการค้นหามากมายทั้งประเภททั่วไป และประเภทจำเพาะ บริษัทหรือหน่วยงานที่ให้บริการการค้นหาที่เรียกว่า Search engineจะจัดทำรูปแบบการบริการอย่างเหมาะสม สะดวกและรวดเร็ว และแทบไม่น่าเชื่อเลยว่า ส่วนใหญ่จะเป็นการให้บริการฟรี ไม่คิดมูลค่า มีส่วนน้อยที่ต้องเสียค่าธรรมเนียมโดยการเข้าเป็นสมาชิก แต่รูปแบบนี้กำลังจะหมดไปด้วยกระแสการแข่งขันที่รุนแรง การที่บริษัท Search engineที่ให้บริการฟรีได้เช่น Google ,Yahoo ,Lycos ,MSN เพราะรายได้ที่ได้จากการโฆษณาเป็นจำนวนมากมายมหาศาล ด้วยผู้คนที่เข้าไปในเว็บไซต์เหล่านี้ มีจำนวนมากมายมหาศาลเช่นกัน เพื่อให้การบริการที่มีความหลากหลายสะดวกต่อผู้ใช้งานจะเข้าถึง Search engineได้จัดประเภทการค้นหาตามเนื้อหาโดยทั่วไปดังนี้ 1.Web Search 2.Directory Search 3.Book Search 4.Earth Search 5.News Search
Web Search เป็นการค้นหาทั่วไปที่ search engine ทุกแห่งให้บริการเป็นบริการหลัก การค้นหาก็ตามแต่ผู้ใช้บริการจะนึกคิดได้ ซึ่งสามารถค้นหาโดยใส่ คำสำคัญลงไปจากนั้น web search ก็จะทำการค้นหาข้อมูลมาแสดงให้แก่ผู้ใช้บริการหากใส่คำสำคัญน้อยเพื่อการค้นหา ก็จะได้คำตอบของเว็บไซต์ที่ปรากฏเป็นจำนวนมาก บางครั้งแทบจะใช้ประโยชน์ไม่ได้เลย จึงควรใส่คำสำคัญให้มากคำ เพื่อให้คำตอบมีไม่มากจนเกินไป เช่น บ่อยครั้งอาจจะค้นหาด้วย AND, OR ,NOT กับคำสำคัญเหล่านี้ ที่ใส่เข้าไปเพื่อให้จำเพาะมากขึ้น การค้นหาจึงจะเป็นประโยชน์ หากต้องการคำสำคัญที่จำเพาะมากยิ่งขึ้น ก็อาจจะต้องเขียนคำศัพท์ตามลำดับก่อนหลัง และใส่เครื่องหมาย “……..” ปิดหัวปิดท้าย เพื่อการค้นหาที่จำเพาะเจาะจงให้ได้ตามวลีนั้น ทำให้ได้คำตอบมีจำนวนไม่มากและแคบในการสืบค้นต่อไป ตัวอักษรใหญ่เล็กในภาษอังกฤษของคำสำคัญนั้น ไม่ค่อยผลเท่าไร การใช้ Search engine จะให้ได้ผลที่แตกต่างกัน ต้องย้ำเน้นตัวอักษรใหญ่หรือเล็กตามที่บันทึกไว้ โดยให้ใส่เครื่องหมาย “……..” ปิดหัวท้าย เป็นต้น
Directory Search เป็นบริการการค้นหาโดยนำข้อมูลที่ปรากฏใน Web ต่างๆ มาจัดเป็นหมวดหมู่ เป็นเรื่องๆภายใต้แต่ละเรื่อง จะทำการแบ่งเป็นเรื่องย่อยๆ ตามลำดับ จากเรื่องทั่วไป ไปสู่เรื่องที่มีความเฉพาะเจาะจงมากขึ้น โครงสร้างของการจัดหมวดหมู่จะถูกเตรียมไว้ก่อน จากนั้นจึงนำเว็บไซต์ต่างๆ ที่รวบรวมมาไปจัดเก็บตามหมวดหมู่ที่จัดทำไว้ ดังตัวอย่างต่อไปนี้ Arts Health Reference Business Home Regional Computers News Science Games Recreation Sports
Book Search เป็นบริการการค้นหาหนังสือ ตามชื่อเรื่อง ตามชื่อผู้แต่ง หรือตามชื่อสำนักพิมพ์ เมื่อได้หนังสือตามที่ต้องการ บางแห่งก็อนุญาตให้อ่านสารบัญได้ และเนื้อหาบางส่วนเป็นตัวอย่าง บ้างก็ให้อ่านเนื้อหาได้ทั้งหมด ตัวอย่าง Book Search
Earth Search เป็นบริการการค้นหาแผนที่โลก ตามตำแหน่งของเหนือ ใต้ ออก ตก หรือตามชื่อประเทศ ชื่อเมือง การแสดงผลจากภาพถ่ายดาวเทียมสู่ภาคพื้นดิน สามารถมองเห็นภูมิประเทศ สภาพของเมือง สภาพของป่า ชุมชน แม่น้ำลำธาร ถนนหนทาง และอาคารบ้านเรือน แม้แต่สถานที่สำคัญๆของประเทศ การค้นหาแผนที่โลกยังจะอำนวยความสะดวกให้ผู้ใช้ในอีกหลายรูปแบบ ในเรื่องของที่ดินทำกิน พืชผลทางการเกษตร หรือในกรณีน้ำท่วม ไฟไหม้ป่า หรือแผ่นดินไหว ยังได้เห็นอาณาบริเวณที่มีผลกระทบ นอกจากนี้ การค้นหายังให้รายละเอียดของแผนที่เมือง แผนที่ถนน ทำให้สามารถต่อด้วยการสืบค้นตำแหน่งที่ตั้งของโรงเรียน โรงพยาบาล โรงแรม ร้านอาหาร ได้เป็นต้น
News Search • เป็นบริการการค้นหาข่าวที่เกิดขึ้นทั่วโลก จากแหล่งข่าวต่างๆ โดยมีผู้นำหลัก เช่น CNN, BBC ที่นำเสนอข่าวบนโทรทัศน์ และบนอินเตอร์เน็ต โดยทั่วไปการนำเสนอนอกจากข่าวเด่นประจำเวลา/วันแล้ว ยังแยกเป็นข่าวทั่วโลกแยกตามประกาศ ข่าวทางธุรกิจ ข่าวทางวิทยาศาสตร์และเทคโนโลยี ข่าวกีฬา บันเทิง เพื่อแยกกลุ่มลูกค้าและผู้ใช้ประโยชน์ • นอกจากนี้ ผู้สนใจยังสามารถค้นหาข่าว เพื่อติดตามเหตุการณ์ ในอดีตมาถึงปัจจุบันได้ • ปัจจุบันบริษัท Search engine ที่สำคัญ เช่น Google , Yahoo และ MSN ต่างหันมาทำการเสนอข่าวเพื่อเป็นธุรกิจอีกส่วนหนึ่งเช่นกัน เป็นการแข่งขันเพื่อไม่ให้เสียส่วนแบ่งการตลาด
จักรกลการค้นหา (Search Engine) โปรแกรมที่ช่วยในการสืบค้นหาข้อมูล โดยเฉพาะข้อมูลบนอินเทอร์เน็ต โดยครอบคลุมทั้งข้อความ รูปภาพ ภาพเคลื่อนไหว เพลง ซอฟต์แวร์ แผนที่ ข้อมูลบุคคล กลุ่มข่าว และอื่น ๆ ซึ่งแตกต่างกันไปแล้วแต่โปรแกรมหรือผู้ให้บริการแต่ละSearch engineส่วนใหญ่จะค้นหาข้อมูลจากคำสำคัญ (Keyword) ที่ผู้ใช้ป้อนเข้าไป จากนั้นก็จะแสดงรายการผลลัพธ์ที่มันคิดว่าผู้ใช้น่าจะต้องการขึ้นมา ในปัจจุบัน Search engine บางตัว เช่น Googleจะบันทึกประวัติการค้นหาและการเลือกผลลัพธ์ของผู้ใช้ไว้ด้วย และจะนำประวัติที่บันทึกไว้นั้น มาช่วยกรองผลลัพธ์ในการค้นหาครั้งต่อ ๆ ไป Search engineโดยส่วนมากจะมีผลประโยชน์ทางการค้ามาเกี่ยวข้อง อาจจะมาในรูปแบบการลงโฆษณา และการขายสินค้าตามมาทุกครั้งของการแสดงผล บ่อยครั้งการจัดอันดับความสำคัญ จึงไม่เป็นไปตามสิ่งที่ควรจะเป็น กลายเป็นตามค่าตอบแทนที่ลูกค้าของ Search engineนั้นจ่ายให้ และกลายเป็นจัดอยู่ในหน้าต้นๆของการแสดงผล สิ่งนี้จะเป็นผลเสียในระยะยาวของบริษัทSearch engineด้วยการขาดความน่าเชื่อถือ
Web Search Engine คือ เครื่องมือที่ออกแบบมาเพื่อสืบค้นข้อมูลบน World wide web ผลการสืบค้นจะแสดงจำนวนรายการผลลัพธ์ที่พบหรือที่เรียกว่า Hits รายการผลลัพธ์อาจประกอบไปด้วย web pages, images และไฟล์ชนิดต่างๆ
การแสวงหาข้อมูลบนเว็บ (Web Crawling) เป็นกระบวนการแรกของSearch engineที่จะได้มาซึ่งข้อมูลเนื่องจากเว็บหรือเครือข่ายสื่อสารมีการเชื่อมโยงแบบสลับซับซ้อนทั้งเป็นระเบียบและไม่เป็นระเบียบคล้ายตะข่ายแมงมุม จึงมีการตั้งชื่อตัวเสาะแสวงหาข้อมูลที่ท่องเที่ยวไปตามเครือข่ายสื่อสารว่า ตัวแมงมุม (spider) หรือตัวเลื้อยบนเว็บ (Web Crawler) ตัวแมงมุม หรือ ครอเลอร์ จะท่องไปบนเว็บและเสาะหาข้อมูลของแต่ละเว็บไซต์ตาม URL โดยเก็บเป็นสำเนาของหน้า (web pages) ต่างๆ ที่ได้เยี่ยมเยือน นำข้อมูลในหน้าเหล่านั้นมาทำการวิเคราะห์ ถ้าเป็นข้อมูลหรือตัวกำกับข้อมูล (Metadata) จะจัดเก็บไว้ในฟาร์มเก็บข้อมูลโดยโครงสร้างเป็นดรรชนี เพื่อการสืบค้นที่รวดเร็วในโอกาสต่อไป หลักการของวิธีการเสาะหาข้อมูลบนเว็บ แบ่งได้ดังนี้ 1.วิธีการคัดสรร (Selection) อันจะเป็นการเลือกว่าหน้าที่ใดจะทำการคัดสำเนา 2.วิธีการเยือนซ้ำ (Re-visit) อันจะเป็นการตรวจความสดใหม่และอายุของหน้าเว็บ 3.วิธีการเยือนแบบมีมารยาท (Politeness) อันจะเป็นการไม่รบกวนเว็บไซต์มากจนเกินเป็นภาระหนักเกิน (Overload) 4.วิธีการเยือนแบบคู่ขนาน(Parallelization) อันจะเป็นการแบ่งงานกันทำด้วยรอเลอร์หลายๆตัวพร้อมกันไปทำหน้าที่
วิธีการคัดสรร วิธีการคัดสรรเว็บไซต์ตาม URLที่ได้มา จะให้เลือกโดยเรียงตามแนวกว้างก่อน(Breadth-first) ตามแนวดิ่งก่อน(Depth-first) หรือตามลำดับที่กำหนดขึ้นเองในภายหลัง ย่อมจะมีการเปลี่ยนแปลงอยู่ตลอดเวลา อีกทั้งยังมีการเกิดใหม่ และขณะเดียวกันก็มีการตายจากไปอีกจำนวนนับไม่ถ้วนการที่จะรักษาความทันสมัยของข้อมูล จึงเป็นเรื่องที่ทำได้ไม่ง่ายนัก แม้ว่าปัจจุบันมีการเพิ่มศักยภาพของการประมวลผลของ CPU อีกหลายเท่าตัวในทุกขณะ และความจุของหน่วยความจำอีกเป็น TB และต่อไปเป็น PB ในไม่ช้านี้แต่การเพิ่มความเร็วของเครือข่ายแทบจะเทียบทันกันไม่ได้เลย อันเป็นข้อจำกัดหนึ่งในการแสวงหาข้อมูลที่ไม่อาจเร็วตามทันกันได้
วิธีการคัดสรร มีหลายแบบ ดังนี้ • การเรียงลำดับเส้นทางการเลื้อย (Path-ascending Crawling) • ครอเลอร์ของ Search engineอาจต้องการคัดสำเนาข้อมูลให้มากที่สุดเท่าที่เป็นไปได้จากเว็บไซต์เฉพาะแหล่ง ด้วยวิธีการเรียงลำดับเส้นทางการเลื้อยไปยังทุกเส้นทางใน URL ที่ตั้งใจไปถึง ตัวอย่างเช่น เมื่อกำหนด URL เริ่มต้นที่ http://abc.edu/x/y/yours.htmlครอเลอร์จะพยายามที่จะเสาะหาข้อมูลตาม /x/y/,/x/,และ/ เราพบว่าด้วยวิธีนี้จะให้ประสิทธิผลมากในการค้นหาข้อมูลที่ถูกแยกตัวออกไป หรือขาดเส้นเชื่มโยงภายใน ซึ่งไม่อาจพบได้ในการแสวงหาข้อมูลตามปกติ
2.การจำกัดเส้นทางการเชือมโยง(Restricting Followed Links) ครอเลอร์ของ Search engineอาจต้องการแสวงหาเฉพาะหน้า HTML และไม่เอาประเภท MIME เพื่อที่จะเอาเฉพาะแหล่ง HTML เพื่อหาผลจากแหล่งข้อมูลประเภท MIME ก่อนที่จะสอบถามแหล่งข้อมูลทั้งหมด ด้วยคำสั่ง GET ในการนี้เพื่อหลีกเลี่ยงการสอบถามด้วยคำสั่ง HEAD เป็นจำนวนมาก ครอเลอร์อาจตรวจสอบ URL เป็นการสลับและสอบถามแหล่งข้อมูลสำหรับ URLที่ปิดท้ายด้วย .html,.htm หรือตัว / อย่างไรก็ตาม วิธีนี้อาจจะทำให้แหล่งข้อมูล HTML หลายแห่งถูกก้าวข้ามไป โดยไม่ได้มีการเยือน 3.การคำนวณความสำคัญของหน้าเว็บ(Online Page Importance Computation, OPIC ) ในที่นี้ แต่ละหน้าเว็บจะกำหนดให้ค่าเบื้องต้นเป็นตัวเลขหนึ่ง สมมุติว่าเป็น C ค่า C จะกระจายไปทั่วทุกหน้าเว็บที่มีเส้นเชื่อมโยงไปถึง วิธีนี้คล้ายกับการคำนวณ Page Rank ที่ทำใน Google แต่ทำได้เร็วกว่าด้วยการคำนวณเพียงขั้นเดียว เริ่มจากหน้าเว็บหนึ่ง ครอเลอร์ของSearch engineจะกำหนดลำดับของการคัดสำเนาหน้าเว็บตามค่า C ที่เป็นอยู่ การจัดคิวของวิธีการค้นหาตามแนวกว้าง(Breadth-first) ขึ้นอยู่กับค่า C ของหน้าเว็บ ค่า C ที่สูงกว่าจะจัดอยู่ก่อนหน้าเว็บที่มีค่า C ต่ำ
4. การแสวงหาชนิดมุ่งเป้า (Focused Crawling) ความสำคัญของหน้าเว็บ สามารถคำนวณค่าได้ตามค่าของความคล้าย(Similarity) ของหน้าเว็บสำหรับแต่ละคำถาม (Query) ที่กำหนด ครอเลอร์ของSearch engineพยายามจะคัดสำเนาหน้าเว็บเฉพาะที่คล้ายคลึงกัน เรียกว่า ครอเลอร์ชนิดมุ่งเป้า (Focused Crawling) หรือ ครอเลอร์เฉพาะเรื่อง (Topical Crawler) คำสำคัญที่เป็นไปได้ในการสอบถามได้มาจากข้อความในหน้าเว็บของเส้นเชื่อมโยงที่ชี้เป้าครอเลอร์เฉพาะเรื่องจะขึ้นอยู่กัน Search engineที่จะกำหนดจุดเริ่มต้น
วิธีการเยือนซ้ำ วัตถุประสงค์ของครอเลอร์ คือการรักษาค่าเฉลี่ยความสดใหม่ของหน้าเว็บที่รวบรวมไว้ให้ได้ค่าสูงที่ทำได้หรือการรักษาค่าเฉลี่ยความเก่าแก่ของหน้าเว็บให้ค่าต่ำเท่าที่ทำได้ สองวัตถุประสงค์นี้ ดูจะเหมือนกันในเบื้องต้น แต่ในความเป็นจริงแล้วไม่เหมือนกัน ในกรณีแรก ครอเลอร์เพียงสนใจว่ามีหน้าเว็บที่ล้าสมัยแล้วกี่มากน้อย ส่วนใหญ่กรณีหลัง ครอเลอร์จะสนใจหน้าเว็บที่คัดลอกมามีความเก่าแก่เพียงใด การเยือนซ้ำได้มีการศึกษาในสองแนวทางด้วยกัน ดังนี้ 1.การเยือนซ้ำด้วยความถี่เท่ากัน 2.การเยือนซ้ำด้วยความถี่แปรผันตามสัดส่วนของการเปลี่ยนแปลงหน้าเว็บ
วิธีการเยือนแบบมีมารยาทวิธีการเยือนแบบมีมารยาท การเยือนแบบมีมารยาท หมายถึง ครอเลอร์ไม่ได้รบกวนเว็บไซต์ที่ไปเยือนบ่อยครั้งและยาวนานเกินไปในการคัดลอก อันเป็นการสร้างภาระให้แก่เว็บเซิร์ฟเวอร์ นอกจากนี้ผลกระทบอีกเรื่องหนึ่ง คือสร้างปัญหาให้แก่เครือข่าย เนื่องจากครอเลอร์ต้องใช้ทรัพยากรของของช่องกว้าง (Bandwidth) เครือข่ายค่อนข้างสูง เพื่อการเยือนที่บ่อยครั้งและการคัดลอกแฟ้มข้อมูลที่ใหญ่ ได้มีงานการศึกษาช่วงความถี่ของการเยือนเป็น 10 วินาที ถึง 3-4 นาที เพื่อเป็นการไม่รบกวนเว็บไซต์และเป็นภาระของเซิร์ฟเวอร์ แต่ยังไม่ได้ข้อสรุปที่ชัดเจน ด้วยไม่ว่าได้ค่าต่ำหรือสูง ก็จะได้รับคำเตือนที่ไม่พอใจจากผู้บริหารระบบที่ถูกเยือนเพื่อแสวงหาข้อมูล เพราะมีครอเลอร์หลายตัวจากหลายแหล่ง และแต่ละตัวยังส่งกันหลายคำขอ เป็นการเพิ่มภาระของเซิร์ฟเวอร์ที่ต้องให้บริการ
วิธีการเยือนแบบคู่ขนานวิธีการเยือนแบบคู่ขนาน วิธีการนี้หมายถึง ครอเลอร์ของ Search engineวิ่งหลายกระบวนการพร้อมๆกัน จุดมุ่งหมายคือ เพิ่มประสิทธิภาพในการคัดลอกและในขณะเดียวกันก็ลดความสิ้นเปลืองของการคัดลอก และในขณะเดียวกันก็ลดความสิ้นเปลืองของการคัดลอกหน้าเว็บที่เหมือนกัน เพื่อลดความซ้ำซากในการคัดลอกหน้าเว็บที่ไม่ก่อให้เกิดประโยชน์ การระบุตัวครอเลอร์ ครอเลอร์ของSearch engineโดยทั่วไปจะแสดงตัวเองต่อเว็บเซิร์ฟเวอร์ โดยการใช้ User Agent ของคำร้อง HTTP ผู้บริหารเว็บเซิร์ฟเวอร์ จะตรวจสอบการเข้ามา Log-in และใช้ User Agent เพื่อที่จะกำหนดว่ารอเลอร์ใดได้เข้ามาเยือนเซิร์ฟเวอร์และบ่อยเพียงใด ข้อมูลใน User Agent Field อาจได้แก่ URL ซึ่งผู้บริหารเว็บไซต์จะได้ข้อมูลเกี่ยวกับ ครอเลอร์มากขึ้น และพวก Spam bots หรือครอเลอร์ที่มุ่งร้ายอื่นๆไม่น่าจะแสดงการระบุข้อมูลใน User Agent Field ได้ แต่อาจซ่อนชื่อของพวกมันในลักษณะอื่น
การสร้างดรรชนี (Indexing) หลังจากครอเลอร์ได้คัดลอกสำเนาข้อมูลของหน้าเว็บมาที่ Search engineขั้นต่อไปคือการสร้างดรรชนีของข้อมูลอันจะทำให้การค้นหาในช่วงการบริการมีประสิทธิภาพและมีคุณภาพ กล่าวคือ ในประการแรกต้องสามารถค้นหาได้อย่างรวดเร็ว ไม่ว่าจะค้นหาในคำสำคัญอะไรก็ตาม การที่ได้ผลการแสดงผลเป็นจำนวนมากมายของเว็บไซต์ที่ปรากฏไม่ได้แปลว่าได้ผลดี แต่ต้องให้สารสนเทศที่มีความเกี่ยวพันธ์สูงจึงจะเป็นความต้องการอย่างยิ่งยวด นอกจากนี้ ผลของสารสนเทศที่แสดงไม่ควรจะจัดเรียงอย่างไรก็ได้ แต่ควรเรียงลำดับเว็บไซต์ก่อนหลังตามความเกี่ยวพันธ์ ค่าสูงของความเกี่ยวพันธ์ไว้หน้า ค่าต่ำไว้หลัง การวัดค่าของความเกี่ยวพันธ์ มีหลายวิธี เช่น Page Rank วิธีการสร้างดรรชนีบนเว็บในหลักการใหญ่ประกอบด้วย 2 ขั้นตอน ดังนี้ 1.การวิเคราะห์คำศัพท์ (Parsing) 2.การสร้างดรรชนีของเอกสารและจัดเก็บ (Indexing Document Barrels)
การจัดอันดับด้วย PageRank Page Rank เป็นเครื่องหมายการค้าของ Google ที่มีการจดทะเบียนสิทธิบัตร โดยมหาวิทยาลัย Stanford ถือว่าเป็นวิธีการสำคัญ วิธีหนึ่งที่ Google ใช้วัดลำดับความสำคัญของหน้าเว็บต่างๆ บนอินเทอร์เน็ต โดยมีค่าเป็นตัวเลขตั้งแต่ 1-10 ซึ่งในมุมมองของ Google หน้าเว็บที่มีค่า PageRank สูงจะมีความสำคัญมากกว่าหน้าเว็บที่มีค่า PageRank ต่ำ Page Rank เป็นการให้ลำดับความสำคัญของหน้าเว็บเพื่อการเปรียบเทียบโดยอาศัยหลักการคล้ายการลงคะแนนเสียงเลือกตั้ง ในสังคมประชาธิปไตย หน้าเว็บใดที่มีหน้าเว็บอื่นชี้เข้ามามากรายคล้ายกับการลงคะแนนให้มาก ย่อมจะแสดงถึงความสำคัญมากกว่าเมื่อเปรียบเทียบกัน นอกจากนี้ น้ำหนักของคะแนนเสียงจากหน้าเว็บแต่ละรายการก็ไม่เทากัน หน้าเว็บที่สำคัญกว่าย่อมจะมีน้ำหนักของคะแนนมากกว่า เมื่อชี้ไปหน้าเว็บใดย่อมทำให้หน้าเว็บนั้นสำคัญไปด้วย
ตัวอย่าง แสดง การตรวจสอบค่า PageRank
การท่องเว็บ ( Web Browsing ) อินเตอร์เน็ตในช่วงต้นเป็นการเชื่อมโยงเฉพาะด้านการศึกษาโดยไม่ยุ่งเกี่ยวกับธุรกิจ แต่ในปัจจุบันกลายเป็นเครือข่ายที่สำคัญทางธุรกิจ เครื่องมือการท่องเว็บ จึงเป็นส่วนสำคัญในการเข้าถึงอินเตอร์เน็ต ซึ่งโดยทั่วไปโปรแกรมคอมพิวเตอร์ทางธุรกิจทุกชุดต้องจัดซื้อจัดหา และเสียเงิน แต่ด้วยเหตุผลของการแข่งขันที่สูง จึงทำให้ตัวท่องเว็บหรือ เว็บบราวเซอร์หลายค่ายที่ผลิตออกมาแจกจ่ายให้ฟรี ไม่ว่าจะเป็น Internet Explorer ของค่าย Microsoft ,Firefoxของ Mozilla , Netscapeและ Operaรวมทั้งการประยุกต์งานด้านอื่นก็ให้ฟรีด้วยโดยไม่คิดมูลค่า เช่น การให้บริการสืบค้นของค่ายSearch engineการบริการสื่อสารด้วยภาพและเสียงของค่าย Skype , MSNเป็นต้น
ผู้กำกับการสืบค้น (Meta searchers) ผู้กำกับการสืบค้น โดยทั่วไปหมายถึง เว็บเซิร์ฟเวอร์ที่ทำหน้าที่เป็นตัวกลางของ Search engine ที่โดดเด่น โดนส่งคำถามจากผู้ใช้บริการไปยัง Search engineหลายแห่งตามแต่จะเลือก หรือไปแหล่งข้อมูลอื่นที่ให้บริการ เมื่อได้ตอบคำถามกลับมา จะทำหน้าที่รวบรวมคำตอบอย่างเป็นระบบ และส่งต่อไปยังผู้ใช้บริการที่ถามนั้น ผู้กำกับการสืบค้นอาจจะวิ่งอยู่บนเครื่องลูกข่ายได้ ไม่จำเป็นต้องเป็นเว็บเซิร์ฟเวอร์เสมอไป
การสืบค้นความรู้ (Knowledge Search Engine) ความรู้จะมีความหมายลึกซึ้งกว่าสารสนเทศมากถ้าจะให้เข้าใจได้อย่างง่าย คือ ความรู้ได้จากการประมวลสารสนเทศ จากชนิดเดียวหลายเหตุการณ์หรือหลายชนิดในเหตุการณ์เดียวหรือหลายชนิดหลายเหตุการณ์ และจากแหล่งทั้งทางตรงและทางอ้อม หรือถ้าจะอธิบายความแตกต่างในข้อมูลสารสนเทศและองค์ความรู้ จะให้เป็นตัวอย่าง เช่น ข้อมูลของผู้ใช้บริการที่เข้าเครือข่ายสื่อสารคอมพิวเตอร์ในแต่ละวันแต่ละเวลา เป็นข้อมูลเมื่อประมวลการใช้งานของเครือข่ายทั้งระบบมีผู้ใช้บริการมากน้อยทั้งวันทั้งเดือนรวมทั้งปีเป็นสารสนเทศ ส่วนเหตุการณ์ที่เครือข่ายมีการติดขัดบ่อย โดยดูจากสถิติของการใช้งาน และทำการแก้ปัญหา จนทราบถึงสาเหตุของปัญหามาจากการออกแบบ และการกำหนดค่าเป็นความรู้