บทที่ 3 การสืบค้นข้อมูลบนอินเทอร์เน็ต
1. ความรู้เบื้องต้นเกี่ยวกับอินเตอร์เน็ต
1.1 ประวัติความเป็นมาของอินเทอร์เน็ต
ในปี พ.ศ. ๒๕๐๐
ประเทศรัสเซียส่งดาวเทียมขึ้นสู่อวกาศได้สำเร็จ
กระทรวงกลาโหมของสหรัฐอเมริกาจึงได้รับรู้ว่า
เทคโนโลยีชั้นสูงของประเทศยังล้าหลังกว่าของรัสเซีย ซึ่งส่งผลให้เกิดการตื่นตัว
ที่จะพัฒนาเทคโนโลยีชั้นสูง รัฐบาลสหรัฐอเมริกาโดยกระทรวงกลาโหม จึงก่อตั้งหน่วยงานวิจัยชั้นสูงที่ชื่อว่า
Advanced Research Projects Agency หรือที่รู้จักกันในนามของ ARPA
ต่อมา ในปี พ.ศ. ๒๕๐๘ ARPA ได้ให้ทุนแก่มหาวิทยาลัยของสหรัฐอเมริกา
เพื่อการทำวิจัยในหัวข้อเรื่อง เครือข่ายการทำงานร่วมกันของคอมพิวเตอร์แบบแบ่งเวลา
(Cooperative network of Time-Shared Computers) หลังจากนั้นอีก
๓ ปี กระทรวงกลาโหมก็ได้สนับสนุนโครงการวิจัยเครือข่ายคอมพิวเตอร์ ที่ชื่อว่า ARPANET
จนกระทั่งในปี พ.ศ. ๒๕๑๒ โครงการ ARPANET ได้เชื่อมโยงคอมพิวเตอร์ของมหาวิทยาลัย
๔ แห่ง เข้าด้วยกัน
ในปี พ.ศ. ๒๕๑๔ เครือข่าย ARPANET ขยายใหญ่ขึ้น
และสามารถเชื่อมโยงคอมพิวเตอร์ของมหาวิทยาลัยต่างๆ ได้ถึง ๒๓ เครื่อง
จากการศึกษาเรื่องเครือข่ายคอมพิวเตอร์
จนถึงระยะเวลานั้น ผู้พัฒนาเครือข่ายหลายคน
เริ่มเห็นปัญหาของการเชื่อมโยงระบบคอมพิวเตอร์ที่มีหลากหลายชนิด
และหลากหลายผลิตภัณฑ์ จึงทำให้เกิดปัญหายุ่งยากในการเชื่อมโยง
แนวความคิดที่จะสร้างระบบเปิดจึงเกิดขึ้น กล่าวคือ
กำหนดมาตรฐานกลางที่ผลิตภัณฑ์ทุกยี่ห้อสามารถจะเชื่อมโยงเข้าสู่มาตรฐานนี้ได้
แนวคิดในการเชื่อมโยงเครือข่ายเข้าด้วยกัน
และเชื่อมโยงในลักษณะวงกว้าง เป็นสิ่งที่เป็นไปได้ ดังนั้น ในปี พ.ศ. ๒๕๑๕
ผู้พัฒนาเครือข่ายจึงสร้างโปรโตคอลใหม่ และให้ชื่อว่า TCP/IP (Transmission Control
Protocol / Internet Protocol) และให้ชื่อเครือข่ายที่เชื่อมโยงโดยใช้โปรโตคอลนี้ว่า
อินเทอร์เน็ต หลังจากนั้น โครงการ ARPANET ได้นำโปรโตคอล TCP/IP
ไปใช้
การพัฒนาเครือข่ายคอมพิวเตอร์ได้ดำเนินการต่อมา
ถึงแม้ว่าในช่วงหลัง กระทรวงกลาโหมของสหรัฐอเมริกาได้ยกเลิกการสนับสนุน
และหันกลับไปทำวิจัย และพัฒนาเอง เครือข่ายนี้ก็เติบโตขึ้นอย่างรวดเร็ว
และมีการพัฒนามาตรฐานต่างๆ เข้ามาใช้ประกอบร่วมกันอย่างต่อเนื่อง
จนในที่สุดได้กลายเป็นมาตรฐานการสื่อสารที่ชื่อว่า TCP/IP และใช้ชื่อเครือข่ายว่า
อินเทอร์เน็ต (Internet)
ต่อมาการบริหาร และดำเนินงานเครือข่าย
ได้รับการสนับสนุน จากมูลนิธิการศึกษาวิทยาศาสตร์แห่งชาติสหรัฐอเมริกา
หรือที่ใช้ชื่อย่อว่า NSF
(National Science Foundation) มีการตั้งคณะกรรมการเข้ามาบริหารเครือข่ายกลาง
ที่เปิดโอกาสให้ผู้อื่นเข้ามาเชื่อมโยง และได้ดำเนินการ
จนอินเทอร์เน็ตกลายเป็นเครือข่ายคอมพิวเตอร์ที่ยิ่งใหญ่ของโลก
สำหรับในประเทศไทย
เริ่มเชื่อมโยงเข้าสู่ระบบอินเทอร์เน็ต ตั้งแต่กลางปี พ.ศ. ๒๕๓๐
โดยมหาวิทยาลัยสงขลานครินทร์ได้ทำการเชื่อมโยง
เพื่อส่งอิเล็กทรอนิกส์เมลกับประเทศออสเตรเลีย
ซึ่งทำให้มีระบบอิเล็กทรอนิกส์เมลเชื่อมต่อกับอินเทอร์เน็ตเป็นครั้งแรก
ต่อมาในวันที่ ๒๗ กรกฎาคม พ.ศ. ๒๕๓๕ จุฬาลงกรณ์มหาวิทยาลัย
ได้เช่าสายวงจรเชื่อมต่อกับอินเทอร์เน็ตเป็นครั้งแรก ในช่วงระยะเวลาเดียวกันนี้
กระทรวงวิทยาศาสตร์ฯ โดยศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ
ก็ได้มีโครงการที่จะเชื่อมโยงเครือข่ายคอมพิวเตอร์ระหว่างมหาวิทยาลัยขึ้น
เครือข่ายคอมพิวเตอร์ระหว่างมหาวิทยาลัยในประเทศไทย ได้พัฒนาก้าวหน้าขึ้นเป็นลำดับ
จนทำให้มีสถาบันออนไลน์กับอินเทอร์เน็ตเป็นกลุ่มแรก ได้แก่ จุฬาลงกรณ์มหาวิทยาลับ
มหาวิทยาลับธรรมศาสตร์ สถาบันเทคโนโลยีแห่งเอเซีย มหาวิทยาลัยสงขลานครินทร์
มหาวิทยาลัยเกษตรศาสตร์ และศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ
การพัฒนาเครือข่ายจึงเป็นไปตามกระแส
การเชื่อมโยงเข้าสู่ระบบสากล มาตรฐานการเชื่อมโยงเป็นแบบโพรโทคอล TCP/IP ตามมาตรฐานนี้
มีการกำหนดหมายเลขแอดเดรส ให้แก่เครือข่าย และเครื่องคอมพิวเตอร์
โดยมีการสร้างเป็นลำดับชั้น เพื่อให้การเชื่อมโยงเครือข่ายเป็นระบบ แอดเดรสนี้จึงมีชื่อว่า
ไอพีแอดเดรส (IP address)
ไอพีแอดเดรสทุกตัว จะต้องได้รับการลงทะเบียน
เพื่อจะได้มีหมายเลขไม่ซ้ำกันทั่วโลก การกำหนดแอดเดรสจะเป็นการกำหนดหมายเลข
ให้แก่เครือข่าย
ผู้ใช้เครือข่ายย่อยในเครือข่ายที่เชื่อมต่อกับอินเทอร์เน็ต
จะเป็นสมาชิกของอินเทอร์เน็ต โดยปริยาย เพราะเครื่องคอมพิวเตอร์ของตน
สามารถเชื่อมโยงกับเครื่องอื่นๆ ได้ทั่วโลก ผู้ใช้งานอยู่ที่บ้าน
สามารถใช้คอมพิวเตอร์จากบ้าน ต่อผ่านโมเด็ม มาที่เครื่องหลัก หลังจากนั้น
ก็จะเชื่อมโยงเข้าสู่เครือข่ายต่างๆ ได้ นิสิตนักศึกษาซึ่งอยู่ที่บ้าน จะสามารถติดต่อกับอาจารย์ผู้สอนในมหาวิทยาลัย
หรือติดต่อกับเพื่อนๆ ได้ ทั้งในมหาวิทยาลัย และต่างมหาวิทยาลัย หรือในต่างประเทศ
อินเทอร์เน็ตจึงเป็นเครือข่ายคอมพิวเตอร์
มีอัตราการขยายตัวอย่างรวดเร็ว จนคาดกันว่า ในอนาคต
เครือข่ายอินเทอร์เน็ตจะเชื่อมโยงคนทั้งโลกเข้าด้วยกัน
เครือข่ายคอมพิวเตอร์ในประเทศไทย
สามารถเชื่อมโยงได้ทุกมหาวิทยาลัย โดยมีการเชื่อมโยงเข้าสู่อินเทอร์เน็ต
ที่เชื่อมโยงกันในประเทศ ซึ่งจัดการโดยหน่วยบริการอินเทอร์เน็ต หรือที่เรียกว่า ISP (Internet Service Provider) หน่วยบริการ ISP จะมีสายเชื่อมโยงไปยังต่างประเทศเข้าสู่อินเทอร์เน็ต
ในปี พ.ศ. ๒๕๓๕
เครือข่ายระหว่างมหาวิทยาลัยได้เชื่อมโยงกัน โดยมีแกนกลางคือ
ศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่ง ชาติ และให้ชื่อเครือข่ายนี้ว่า
เครือข่ายไทยสาร (THAISARN
- THAI Social / Scientific, Academic and Research Network) การเชื่อมโยงภายในประเทศ
ทำให้ทุกเครือข่ายย่อย สามารถเชื่อมโยงเป็นอินเทอร์เน็ตสากลได้
1.2 ความสามารถของอินเตอร์เน็ต
1.ไปรษณีย์อิเล็กทรอนิกส์(Electronic mail=E-mail) ไปรษณีย์อิเล็กทรอนิกส์
หรือ E-mail
เป็นการส่งจดหมายผ่านเครือข่ายอินเตอร์เน็ตโดยผู้ส่งสสามารถส่งข้อความไปยังที่อยู่ของผู้รับ
ในรูปแบบของอีเมล์ เมื่อผู้ส่งเขียนจดหมาย แล้วส่งไปยังผู้รับ
ผู้รับจะได้รับจดหมายภายในเวลาไม่กี่วินาที แม้จะอยู่ห่างกันคนละซีกโลกก็ตาม
นอกจากนี้ยังสามารถส่งแฟ้มข้อมูลหรือไฟล์แนบไปกับอีเมล์ได้ด้วย
2.กรขอเข้าระบบจากระยะไกลหรือเทลเน็ต(Telnet)
เป็นบริการอินเน็ตรูปแบบหนึ่งโดยที่เราสามารถเข้าไปใช้งานคอมพิวเตอร์อีกเครื่องหนึ่งที่อยู่ไกลๆได้ด้วยตนเอง
เช่น ถ้าเราอยู่ที่โรงเรียนทำงานโดยใช้อินเตอร์เน็ตของโรงเรียนแล้วกลับไปที่บ้าน
เรามีคอมพิวเตอร์ที่บ้านและต่ออินเตอร์เน็ตไว้เราสามารถเรียกข้อมูลจากที่โรงเรียนมาทำที่บ้านได้
เสมือนกับเราทำงานที่โรงเรียนนั่นเอง
3.การโอนถ่ายข้อมูล(File Transfer Protocol
หรือ FTP) เป็นบริการอีกรูปแบบหนึ่งของระบบอินเตอร์เน็ต
เราสามารถค้นหาและเรียกข้อมูลจากแหล่งต่างๆมาเก็บไว้ในเครื่องของเราได้ ทั้งข้อมูลประเภทตัวหนังสือ
รูปภาพและเสียง
4.การสืบค้นข้อมูล(Gopher,Archie,World
wide Web) หมายถึง
การใช้เครื่อข่ายอินเตอร์เน็ตในการค้นหาข่าวสารที่มีอยู่มากมายแล้วช่วยจัดเรียงข้อมูลข่าวสารหัวข้ออย่างมีระบบ
เป็นเมนู ทำให้เราหาข็อมูลได้ง่ายหรือสะดวกมากขึ้น
5.การแลกเปลี่ยนข่าวสารและความคิดเห็น(Usenet)
เป็นการให้บริการแลกเปลี่ยนข่าวสารและแสดงความคิดเห็นที่ผู้ใช้บริการอินเตอร์เน็ตทั่วโลกสามารถพบปะกัน
แสดงความคิดเห็นของตน โดยมีการจัดการผู้ใช้เป็นกลุ่มข่าวหรือนิวกรุ๊ป(Newgroup)แลกเปลี่ยนความคิดเห็นกันเป็นหัวข้อต่างๆ
เช่น เรื่องหนังสือ เรื่องการเลี้ยงสัตว์ ต้นไม้ คอมพิวเตอร์และการเมือง เป็นต้น
ปัจจุบันมี Usenet มากกว่า15,000กลุ่ม
นับเป็นเวทีขนาดใหญ่ให้ทุกคนจากทั่วมุมโลกแสดงความคิดเห็นอย่างกว้างขวาง
6.การสื่อสารด้วยข้อความ(Chat,IRC-Internet Relay chat)
เป็นการพูดคุยกันระหว่างผู้ใช้อินเตอร์เน็ต
โดยพิมพ์ข้อความตอบกัน ซึ่งเป็นวิธีการสื่อสารที่ไดัรับความนิยมมากอีกวิธีหนึ่ง
การสนทนากันผ่านอินเตอร์เน็ตเปรียบเสมือนเรานั่งอยู่ในห้องสนทนาเดียวกัน
แต่ละคนก็พิมพ์ข้อความโต้ตอบกันไปมาได้ในเวลาเดียวกัน
แม้จะอยู่คนละประเทศหรือคนละซีกโลกก็ตาม
7.การซื้อขายสินค้าและบริการ(E-Commerce = Eletronic Commerce)
เป็นการจับจ่ายซื้อ – สินค้าและบริการ เช่น
ขายหนังสือ คอมพิวเตอร์ การท่องเที่ยว เป็นต้น ปัจจุบันมีบริษัทใช้อินเตอร์เน็ตในการทำธุรกิจและให้บริการลูกค้าตลอด24ชั่วโมง
ในปี2540 การค้าขายบนอินเตอร์เน็ตมีมูลค่าสูงถึง1แสนล้านบาท
และจะเพิ่มเป็น1ล้านล้านบาทในอีก5ปีข้างหน้า
ซึ่งเป็นโอกาสทางธุรกิจแบบใหม่ที่น่าสนใจและเปิดทางให้ทุกคนเข้ามาทำธุรกิจได้โดยใช้ทุรไม่มากนัก
8.การให้ความบันเทิง(Entertain)
ในอินเตอร์เน็ตมีบริการด้านความบันเทิงในทุกรูปแบบต่างๆ
เช่น เกมส์ เพลง รายการโทรทัศน์ รายการวิทยุ เป็นต้น
เราสามารถเลือกใช้บริการเพื่อความบันเทิงได้ตลอด24ชั่วโมงและจากแหล่งต่างๆทั่วทุกมุมโลก
ทั้งประเทศไทย อเมริกา ยุโรปและออสเตรเลีย เป็นต้น
2. เว็บไซต์และโปรแกรมเว็บเบราเซอร์
2.1
โปรแกรมเวบบราวเซอร์ Web Browser
โปรแกรม Web Browser นั้นมีมากมายจากหลายค่ายหลายบริษัท
แม้จะมีรูปแบบการใช้อาจจะแตกต่างกันไปบ้าง แต่มีจุดประสงค์เดียวกันคือ
ไว้ใช้สำหรับท่องอินเทอร์เน็ต แสดงผลข้อมูลภายในเว็บเพจ สามารถจัดการไฟล์วิดีโอ
เสียง รูปภาพ หรือแม้กระทั่งการเชื่อมโยงข้อมูลต่างๆ ก็สามารถกระทำได้
สำหรับโปรแกรม Web Browser ที่ได้รับความนิยมทั้งในอดีตและในปัจจุบันเช่น
Internet Explorer Mozilla Firefox และ Google Chrome
เราจะมาศึกษากัน
1. Internet Explorer หรือเรียกสั้นๆ ว่า IE
โปรแกรมเว็บบราวเซอร์ Internet Explorer ของบริษัทยักษ์ใหญ่อย่างไมโครซอร์ฟ
เป็นที่นิยมอย่างมากหลักจากได้มาพร้อมกับระบบปฏิบัติการ Windows98 ซึ่งเวอร์ชั่นในขณะนั้นคือ เวอร์ชั่น 3
แต่เดิมทีนั้นในโลกของอินเทอร์เน็ต บริษัทที่ครองตลาดโปรแกรมเว็บบราวเซอร์ก็คือ Netscape
navigator ซึ่งได้รับความนิยมสูงในขณะนั้น
แต่ด้วยความเป็นโปรแกรมที่ต้องเสียค่าใช้จ่าย ผนวกกับทางไมโครซอต์ฟ ได้เปิดตัว Windows98 ซึ่งได้แถมInternet Explorer เวอร์ชั่น 3 มาด้วย
ทำให้เป็นฟรีแวร์ ไม่เสียค่าใช้จ่าย ผู้ใช้จึงหันมาใช้ IE กันมากขึ้นตามลำดับ
และครองตลาดไปโดยปริยาย ปัจจุบันในพัฒนามาจนถึงเวอร์ชั่น 7 ในยุคของ WindowsXP
และ เวอร์ชั่น 8 ในยุคของ Windows7
ระบบปฏิบัติใหม่ล่าสุด
IE เป็นโปรแกรมประเภทฟรีแวร์
ไม่เสียค่าใช้จ่าย ผู้ใช้ทั่วไปสามารถดาว์นโหลดโปรแกรมได้ทาง http://www.microsoft.com
อีกประการหนึ่งโปรแกรมนี้จะแถมมากับระบบปฏิบัติการ Windows ทุกเวอร์ชั่น ซึ่งหากได้ติดตั้งแล้วก็สามารถใช้งานได้เลย
คุณสมบัติของโปรแกรมเว็บบราวเซอร์ Internet Explorer V.7
- อ่านเอกสารแบบออฟไลน์ได้
- โอนไฟล์ข้อมูลได้ด้วย FTP
- ใช้แถบเครื่องมือในการลิงค์ได้
- อับเดต Windows
- ปลอดภัยจากการโจรกรรมด้วย ActiveX
- ตั้งค่าความเร็วในการแสดงผลข้อมูล
- ปรับแต่งหน้าเอกสารก่อนพิมพ์หน้าเว็บเพจ
ถัดไปจะเป็นส่วนประกอบของหน้าจอใช้งานหลักและปุ่มที่สำคัญๆ
ส่วนประกอบของหน้าจอหลักของ Internet Explorer
1. แถบชื่อโปรแกรมหรือ Title bar แสดงชื่อเว็บเพจที่เรียกดู
และชื่อโปรแกรม
2. แถบคำสั่ง หรือ Menu รวมรวมคำสั่งทั้งหมดของโปรแกรม
ในรูปแบบคำสั่งย่อยในคำสั่งหลัก
3. แถบเครื่องมือมาตรฐานหรือ Tool bar แสดงคำสั่งที่ใช้งานกันบ่อยๆ
4. แถบชื่อเอกสารหรือ Address bar ใช้พิมพ์ที่อยู่หรือตำแหน่งของเว็บเพจที่ต้องการ
เช่น
www.google.co.th
เป็นต้น
5. ปุ่ม Go ใช้คลิกเพื่อไปยังเว็บไซต์ตามที่อยู่ในข้อ
4 หรือใช้กดปุ่ม เอ็นเตอร์ (Enter) ก็ได้
6. พื้นที่แสดงเว็บเพจ
แสดงผลข้อมูลต่างภายในเว็บเพจ
7. แถบสถานะ แสดงสถานะของหน้าเว็บเพจ ณ ขณะนั้น
ปุ่มทีสำคัญๆ
ในการใช้งานของ Internet
Explorer
1.
ปุ่ม Back หรือ ปุ่มย้อนกลับไปยังหน้าที่ผ่านมา
2.
ปุ่ม Forward หรือ
ปุ่มไปยังหน้าถัดไป
3.
ปุ่ม Stop หรือ
ปุ่มหยุดการแสดงผลข้อมูลภายในเว็บเพจ
4.
ปุ่ม Refresh หรือ
ปุ่มให้แสดงผลข้อมูลภายในเว็บเพจใหม่
ปัจจุบันบริษัท Microsoft ได้พัฒนา
โปรแกรมเว็บบราวเซอร์ Internet Explorer มาจนถึงเวอร์ชั่น 8
แล้วซึ่งมาพร้อมกับระบบปฏิบัติการตัวใหม่ Windows 7 หรือ seven
2. Mozilla Firefox หรือเรียกสั้นๆ
ว่า Firefox
ผู้คนส่วนใหญ่ที่เล่นอินเทอร์เน็ต
เป็นเปิดเว็บไซต์เป็นประจำคงจะรู้จักกับคำว่าเว็บบราวเซอร์ หรือโปรแกรมท่องเว็บ
ส่วนใหญ่แล้วเราคงจะรู้จักกันแต่เว็บบราวเซอร์ Internet Explorer ของ Microsoft
แต่รู้หรือไม่ว่า IE ที่ใช้อยู่นั้น
ปัจจุบันมันยังไม่ปลอดภัย เพราะว่าทางทีมงานไม่ได้พัฒนามานานแล้ว
ฉะนั้นจึงเสี่ยงเรื่องของความปลอดภัย ซึ่ง Firefox นั้นเป็นอินเทอร์เน็ตบราวเซอร์ตัวใหม่ที่จะเข้ามาแข่งกับ
IE Internet Explorer นำทีมการสร้างโดย Mozilla โดยมีนักพัฒนาต่อยอดอยู่ทั่วทุกมุมโลก คุณสมบัติของ Firefox ที่เด่นกว่า IE คือ
โปรแกรมมีขนาดเล็กกว่าทำให้การโหลดข้อมูล ทางหน้าเว็บเพจทำได้รวดเร็ว ใช้งานได้สะดวก
แท็บด้านบนทำให้ทำให้เข้าได้หลายเว็บไซด์พร้อมๆกันโดยไม่ ต้องเปิด window ใหม่ อีกทั้งยังมีการอำนวยความสะดวกแก่นักท่องอินเทอร์เน็ต เช่น เมนูของGoogle สำหรับการค้นหาข้อมูล
Firefox เป็น Browser
ที่มีกระแสการตอบรับอย่างรวดเร็วเมื่อต้นปี 2006 ซึ่งขณะนี้มีผู้ใช้
Browser ตัวนี้เพิ่มมากขึ้นทุกวัน มียอดการ download ไปใช้งานเกือบ 300 ล้านครั้งแล้ว นั่นแสดงให้เห็นว่า Firefox ต้องมีอะไรสักอย่างที่ดึงดูดนักท่องเว็บเหล่านั้น จุดเด่นที่สำคัญของ Mozilla
Firefox ที่น่ากล่าวถึงเป็นอย่างแรกคือ ความเป็นโปรแกรม open
source แจกฟรีให้กับผู้ใช้ทั่วไปที่พัฒนาโดยองค์การที่ไม่หวังผลกำไรและคน
ทั่วไปนั่นเอง
คุณสมบัติที่น่าสนใจของ Firefox
1.ความรวดเร็ว
Firefox จะทำให้คุณสามารถเข้าถึงเว็บไซต์ต่างๆ
ได้รวดเร็วกว่า ด้วยการทำงานของโปรแกรมที่มีประสิทธิภาพ
และยังสามารถปรับแต่งเพื่อเร่งการทำงานให้เร็วได้สูงสุด
2.ความปลอดภัย
หากโดนบุกรุกจากเหล่าสปายแวร์ โทรจัน
ไวรัส จากโลกไซเบอร์บ่อยๆ รับรองว่าถ้าหากได้ใช้ Firefox ปัญหาต่างๆที่เคยประสบจะลดลงอย่างแน่นอน
ด้วยระบบการรักษาความปลอดภัยที่เหนียวแน่นและระบบการอัพเดตของ Firefox จะช่วยอุดช่องโหว่ใหม่ๆได้อย่างทันท่วงที
3.ฟรีแวร์ 100%
แน่นอนที่สุด
คือโปรแกรมนี้เป็นโปรแกรมฟรี แถมยังเป็นโปรแกรมเปิด หรือ OpenSource เพื่อให้เหล่านักพัฒนาซอฟต์แวร์
หรือผู้ใช้ที่พบเห็นข้อบกพร่องในการใช้งาน ได้ส่งข้อบกพร่องหรือทางแก้ไขนั้นๆ
ทำให้ Firefox มีการพัฒนาอย่างต่อเนื่อง
และกระแสตอบรับดีเสมอมา
หลายหลายคุณสมบัติในการท่องเว็บไซต์หากคุณนักท่องโลกไซเบอร์
ถ้าได้ลองสัมผัสคุณสมบัติต่างๆของ Firefox
รูปร่างหน้าตาของ
Mozilla Firefox หน้าเริ่มต้น
ปกติ
Mozilla Firefox จะมีปลั๊กอินสำหรับช่วยในค้นหาของ
Google ให้สะดวกยิ่งขึ้น
สรุปจุดเด่นของ
Mozilla Firefox
1. เป็นโปรแกรม Open source จุดเด่นของ
open source คือ จริงใจ ไม่ปิดบัง
โดยทุกคนเห็นข้อมูลทุกอย่าง และส่งเสริมการพัฒนาต่อโดยประชาคม Open source หมายความว่า ทุกคนรู้ทุกอย่างในโปรแกรมที่เป็น open source ได้ ผู้คนเหล่านี้ รวมทั้ง ผู้ชำนาญด้านความปลอดภัย และนักพัฒนาโปรแกรม
ที่กระจายอยู่ทั่วโลก Firefox มีความเป็น open source
มาโดยตลอด ทำให้ใครก็ตามทั่วโลก ที่มีความรู้ด้านภาษาคอมพิวเตอร์นี้
สามารถมองทุกอย่างที่อยากรู้ได้ในโปรแกรม มองออกได้ว่ามีจุดบกพร่องใด
พร้อมที่สามารถแจ้งให้ผู้เกี่ยวข้องทราบได้ถึงปัญหา และสิ่งอื่นใด
อีกทั้งสามารถพัฒนาสร้างโปรแกรมเสริมต่อการใช้งานของ Firefox ได้ ซึ่งเรียกว่า add-ons กรณีมีการโจมตีจาก virus,worm,malware,spyware
หรือที่ไม่ดีอื่นใด ผู้รู้จัก open source โดยเฉพาะผู้หลงไหลใน
open source จำนวนมากทั่วโลก สามารถแก้ไขขึ้นได้ด้วยตัวเอง
หรืออย่างน้อยก็บอกต่อกัน ทำให้ Firefox ปรับตัวได้เร็วมาก
จึงมี safety ที่ดี แม้เพียงมีความผิดปกติขึ้นเพียงเล็กน้อย
ก็อาจตรวจพบได้แล้ว การเป็น open source จึงอาจถูกมองได้ว่าเป็นปัญหา
เพราะผู้ไม่หวังดี รู้ข้อมูลทั้งหมดในการสร้างโปรแกรมไม่ดีมารบกวน
แต่ในความเป็นจริงแล้ว ไม่เป็นเช่นนั้น. ดังเห็นได้ว่า พลังของชาว Firefox แข็งแกร่งกว่า และพร้อมกว่า และที่สำคัญคือ
ผู้มีความรู้มักสร้างประโยชน์ขึ้นกับตนเอง และกลุ่มมากกว่า ไปสร้างความเสียหาย
และกลายเป็นส่วนหนึ่งของชุมชนที่คอยดูแล ปกป้อง Firefox
2. ความปลอดภัยหรือ Security บนโลกของอินเทอร์เน็ต
ยังไม่มีความปลอดภัย 100% เพราะเหตุการณ์ และปัจจัยเปลี่ยนแปลง
และเกิดขึ้นใหม่ตลอดเวลา อย่างไรก็ตาม Firefox ให้ความปลอดภัยกว่าจากปัจจัยลบ
เช่น spyware,hackers,scammers และspammers Phishing
protection จาก Firefox ให้ความปกป้องทางการเงินและความเป็นส่วนตัว
3. Google Chrome เว็บบราวเซอร์ตัวใหม่ล่าสุด
Google Chrome คือเว็บเบราว์เซอร์ที่พัฒนาโดยบริษัทเสิร์ชเอนจิ้นยักษ์ใหญ่ของโลกอย่างกู
เกิล (Google) คู่แข่งสำคัญของบริษัท Microsoft ซึ่งเป็นเว็บบราวเซอร์ที่มีความเร็ว มีธีมและหน้าตาที่สวยงามน่า ใช้
ซึ่งปัจจุบันนี้ได้พัฒนามาจนถึงเวอชั่น 4 แล้ว ด้วยการใช้งานที่ง่าย เป็นฟรีแวร์
และสามารถติดตั้งได้อย่างรวดเร็วภายในเวลาไม่กี่วินาที
เปิดตัวพร้อมกับระบบปฏิบัติการ Google Chrome OS แบบเดียวกับ
Microsoft ซึ่งบราวเซอร์ตัวนี้มีคุณสมบัติที่น่าสนใจมากมาย
คุณลักษณะต่างๆ ของ Google Chrome
- ช่องแท็บสำหรับใส่ที่อยู่หรือ Address สามารถใช้เป็นช่องค้นหาได้
-
สามารถตั้งเลือกค่าให้บุ๊คมาร์คในแต่ละเครื่องปรับตรงกันได้โดยอัตโนมัติ
-
สามารถลากแท็บออกจากเบราว์เซอร์เพื่อสร้างหน้าต่างใหม่และรวมหลายๆ
แท็บไว้ในหน้าต่างเดียว
- แท็บทุกแท็บที่กำลังใช้
ทำงานอย่างอิสระในเบราว์เซอร์
- มีโหมดไม่ระบุตัวตนสำหรับการเข้าชมแบบส่วนตัว
-
มีส่วนขยายให้เลือกติดตั้งเพิ่มลงไปตามต้องการ
โดยสามารถติดตั้ง
Google Chrome ซึ่งเป็นฟรีแวร์ได้ที่
http://www.google.com/chrome
Google
Chrome เว็บบราวเซอร์ที่มีการทำงานที่รวดเร็วและมีประสิทธิภาพ
คุณลักษณะใหม่ล่าสุด
ส่วนขยายของ Google Chrome คือ
โปรแกรมขนาดเล็กที่ช่วย เพิ่มคุณลักษณะต่างๆ ที่เป็นประโยชน์ให้กับบราวเซอร์ของคุณ
ส่วนขยายมีทั้งการแจ้งข่าวและการแจ้งเตือนที่เป็นประโยชน์ พร้อมกันนี้คุณยัง
สามารถเข้าถึงเว็บแอปพลิเคชันโปรดหรือแหล่งข่าวสาร และปรับปรุงการทำงาน ออนไลน์
เช่น การเรียกดูภาพถ่าย การรับเส้นทาง หรือช็อปปิ้งได้อย่างง่ายดายยิ่ง
ขึ้นอีกด้วย
การแปลในเบราว์เซอร์ Chrome เป็นเบราว์เซอร์แรกที่รวมเอาการแปลจากคอมพิวเตอร์เข้าไว้ใน
เบราว์เซอร์โดยไม่ต้องมีปลั๊กอินหรือส่วนขยายเพิ่มเติม
เมื่อภาษาบนหน้าเว็บไม่ตรงกับการตั้งค่าภาษาที่กำหนดไว้ในเบราว์เซอร์ Chrome
จะถามโดยอัตโนมัติว่าต้องการให้แปลหน้าเว็บเป็นภาษาที่คุณตั้งค่าไว้หรือไม่
และคุณลักษณะที่ได้รับความนิยมมาก
ที่สุดจากคือ Chrome
ธีม ซึ่งสามารถตกแต่งบราวเซอร์ของคุณด้วยธีมจากศิลปินทั่วโลก
หน้าแท็บใหม่ ไปที่เว็บไซต์โปรดของคุณได้ง่ายๆ จากหน้าแท็บใหม่ เมื่อคุณเปิด
แท็บใหม่ ไซต์ที่คุณเข้าชมบ่อยที่สุดจะพร้อมให้คุณใช้งานทันที แถบอเนกประสงค์
ใช้แถบอเนกประสงค์เพื่อพิมพ์ทั้งที่อยู่เว็บและข้อความค้นหา
3. วิธีการสืบค้นข้อมูลบนเว็บไซต์
การสืบค้นข้อมูลด้วย Search Engine
เสิร์ชเอนจิน (search engine) หรือ
โปรแกรมค้นหาและคือ โปรแกรมที่ช่วยในการสืบค้นหาข้อมูล
โดยเฉพาะข้อมูลบนอินเทอร์เน็ต โดยครอบคลุมทั้งข้อความ รูปภาพ ภาพเคลื่อนไหว เพลง
ซอฟต์แวร์ แผนที่ ข้อมูลบุคคล กลุ่มข่าว และอื่น ๆ
ซึ่งแตกต่างกันไปแล้วแต่โปรแกรมหรือผู้ให้บริการแต่ละราย
เสิร์ชเอนจินส่วนใหญ่จะค้นหาข้อมูลจากคำสำคัญ (คีย์เวิร์ด) ที่ผู้ใช้ป้อนเข้าไป
จากนั้นก็จะแสดงรายการผลลัพธ์ที่มันคิดว่าผู้ใช้น่าจะต้องการขึ้นมา ในปัจจุบัน
เสิร์ชเอนจินบางตัว เช่น กูเกิลจะบันทึกประวัติการค้นหาและการเลือกผลลัพธ์ของผู้ใช้ไว้ด้วย
และจะนำประวัติที่บันทึกไว้นั้น มาช่วยกรองผลลัพธ์ในการค้นหาครั้งต่อ ๆ ไป
ตัวอย่าง Web Search Engine
1. http://www.google.co.th/
2. http://www.youtube.com/
3. http://dict.longdo.com
การสืบค้นเว็บไซต์ข้อมูลด้วย Search Engine
ขั้นตอนการสืบค้นเว็บไซต์ข้อมูลด้วย Search Engine
1. ทำการเปิดเว็บไซต์ที่ให้บริการ
http://www.google.co.th/
2. เลือกหัวข้อที่ต้องการค้น
ในที่นี้จะเลือกหัวข้อ “เว็บ”
3. พิมพ์ keyword (ข้อความ)
ที่ต้องการสืบค้นลงในช่อง text box
4. กดที่ปุ่ม “ค้นหา”
5.
ระบบจะทำการค้นหาเว็บไซต์ที่ตรงกับ keyword ที่ต้องการ
และแสดงออกมาในรูปแบบของลิ้งค์พร้อมคำอธิบายประกอบ
การสืบค้นรูปภาพด้วย Search Engine
ขั้นตอนการสืบค้นรูปภาพด้วย Search Engine
1. ทำการเปิดเว็บไซต์ที่ให้บริการ
http://www.google.co.th/
2. เลือกหัวข้อที่ต้องการค้น
ในที่นี้จะเลือกหัวข้อ “รูปภาพ”
3. พิมพ์ keyword (ข้อความ)
ที่ต้องการสืบค้นลงในช่อง text box
4. กดที่ปุ่ม “ค้นหา”
5.
ระบบจะทำการค้นหารูปภาพที่ตรงกับ keyword ที่ต้องการ และแสดงรูปภาพที่ค้นหาพบ
การสืบค้นแผนที่ด้วย Search Engine
ขั้นตอนการสืบค้นแผนที่ด้วย Search Engine
1. ทำการเปิดเว็บไซต์ที่ให้บริการ
http://www.google.co.th/
2. เลือกหัวข้อที่ต้องการค้น
ในที่นี้จะเลือกหัวข้อ “แผนที่”
3. พิมพ์ keyword (ข้อความ)
สถานที่ที่ต้องการสืบค้นลงในช่อง text box
4. กดที่ปุ่ม “ค้นหา Maps”
5.
ระบบจะทำการค้นหาสถานที่ที่ต้องการ แล้วแสดงออกมาในรูปแบบของแผนที่
รวมไปถึงลิ้งค์ข้อมูลเพิ่มเติมเกี่ยวกับสถานที่นั้นๆ อีกด้วย
การสืบค้นวีดิโอด้วย Search Engine
ขั้นตอนการสืบค้นวีดิโอด้วย Search Engine
1. ทำการเปิดเว็บไซต์ที่ให้บริการ http://www.youtube.com/
2. พิมพ์ keyword (ข้อความ)
ที่ต้องการสืบค้นลงในช่อง text box
3. กดที่ปุ่ม “search”
4.
ระบบจะทำการค้นหาวีดิโอที่ตรงกับ keyword ที่ต้องการ และแสดงวีดิโอที่ค้นหาพบ
การสืบค้นคำศัพท์ด้วย Search Engine
ขั้นตอนการสืบค้นคำศัพท์ด้วย Search Engine
1. ทำการเปิดเว็บไซต์ที่ให้บริการ
http://dict.longdo.com
2.
พิมพ์คำศัพท์ที่ต้องการสืบค้นลงในช่อง text box
3. เลือกบริการ “dictionary”
4. กดที่ปุ่ม “submit”
5.
ระบบจะทำการค้นหาคำศัพท์ที่ต้องการพร้อมคำแปล
4. วิธีการสืบค้นข้อมูลโดยใช้เครื่องมือช่วยค้น
ปัจจุบันการใช้อินเทอร์เน็ตเข้ามามีบทบาทในชีวิตประจำวันมากขึ้น
เพื่อใช้เป็นช่องทางในการติดต่อสื่อสารและแพร่กระจายข่าวสารข้อมูลต่างๆ
เมื่อความนิยมในการใช้อินเทอร์เน็ตเป็นไปอย่างแพร่หลาย
ทำให้ปริมาณข้อมูลมีมากขึ้นการสืบค้นข้อมูลจึงเป็นเรื่องยากลำบากในการค้นหา
จึงมีบริการสืบค้นข้อมูล (Search
Engine) เกิดขึ้นเพื่อเข้ามาช่วยในการสืบค้นข้อมูลให้ง่ายสะดวกและรวดเร็วมากยิ่งขึ้น
4.1
ความหมายของ Search Engine
Search Engine คือ
เครื่องมือการค้นหาข้อมูลผ่านอินเตอร์เน็ต
ที่ทุกคนสามารถเข้าไปค้นหาข้อมูลผ่านอินเตอร์เน็ต
การที่เราจะค้นหาข้อมูลให้พบอย่างรวดเร็วจะต้องใช้เว็บไซต์สำหรับการค้นหาข้อมูลที่เรียกว่า
Seaech Engine Site ซึ่งจะทำหน้าที่รวบรวมรายชื่อเว็บไซต์ต่างๆ
เอาไว้ โดยจัดแยกเป็นหมวดหมู่ ผู้ใช้งานเพียงแต่ทราบหัวข้อที่ต้องการค้นหาแล้วป้อน
คำหรือข้อความของหัวข้อนั้นๆ โดย กรอก ข้อมูลที่ต้องการค้นหา หรือ Keyword เข้าไปที่ช่องที่กำหนด แล้วกด Enter ข้อมูลที่เราค้นหาก็จะถูกแสดงออกมา
เพื่อให้เราเลือกข้อมูลที่ต้องการเอามาใช้ งาน โดยลักษณะการแสดงผลของ Search
Engine นั้นจะทำการแสดงผลแบบ เรียงอันดับ Search Results ผ่านหน้าจอคอมพิวเตอร์ของเรา
Search Engine แต่ละแห่งมีวิธีการและการจัดเก็บฐานข้อมูลที่แตกต่างกันไปตามประเภทของ
Search Engine ที่แต่ละเว็บไซต์นำมาใช้เก็บรวบรวมข้อมูล
ดังนั้นการที่คุณจะเข้าไปหาข้อมูลหรือเว็บไซต์ โดยวิธีการ Search นั้น อย่างน้อยคุณจะต้องทราบว่า เว็บไซต์ที่คุณเข้าไปใช้บริการ
ใช้วิธีการหรือ ประเภทของ Search Engine อะไร เนื่องจากแต่ละประเภทมีความละเอียดในการจัดเก็บข้อมูลต่างกันไป
เครื่องมือสืบค้นอาจแบ่งเป็น
4 ประเภท ดังนี้
1. Crawler Based Search Engine
2. Meta Search Engine
3. Classified Directory
4. Subject Gateway
1. Crawler Based Search Engine
Crawler Based Search Engine คือเครื่องมือที่ใช้ในการรวบรวมดัชนีของเว็บเพจ
หรือเว็บไซต์ในโลกนี้โดยใช้โปรแกรมตัวเล็กๆ ที่เราๆ ทุกคนอาจรู้จักในชื่อว่า Robot
หรือ Spider ทำหน้าที่ในการตรวจหา และ
ทำการจัดเก็บข้อมูล หน้าเพจ หรือ เว็บไซต์ต่าง ๆ
โครงสร้างของ
Crawler Based Search Engine จะประกอบไปด้วย 3 ส่วนหลักๆ คือ
1. Spider หรือ Web Robot
Spider หรืออาจเรียกในชื่ออื่นว่า Web
Robot หรือ ครอเลอร์ (Crawler) Search Engine ทุกตัว
จะส่ง robot ของตัวเอง เช่น หากเป็น Google จะเรียกว่า Google bot , MSN จะเรียกของตัวเองว่า MSN
bot หรือแม้แต่ Yahoo หรือ Search
Engine ตัวอื่น ๆ ก็จะเรียกชื่อที่ต่างกันออกไป
เพื่อจุดประสงค์ไปไต่ (Craw) ตามเว็บ Link ต่างๆ เช่น และเก็บเอาเนื้อหา หรือ Content ต่างๆ
กลับมาวิเคราะห์ที่ Server ของตัวเอง เพื่อหาว่า เนื้อหาใน Web
ที่ไปเก็บมานั้น มีเนื้อหาเกี่ยวกับอะไร เช่น กีฬา , ข่าว , Blog หรือเนื้อหาอื่น ๆ
โดยจะใช้กรรมวิธีในการคิด วิเคราะห์ (Algorithm) ที่แตกต่างกันออกไป
เพื่อวิเคราะห์ให้ได้ว่า Web นั้น มีเนื้อหาด้านนั้นจริงๆ
และนำมาจัดเก็บใน Index Server เพื่อให้ผู้ที่ต้องการค้นหาคำที่ต้องการ
มาค้นหาจาก Index Server เพื่อจะได้ค้นหา Website ที่เขาต้องการได้รวดเร็ว และตรงตามใจที่สุด
นอกจาก Spider จะทำงานหาลิงค์เพิ่มโดยอัตโนมัติแล้ว Search
Engine ส่วนใหญ่อนุญาตให้ส่ง URL เพื่อกำหนดให้
Spider มาทำดัชนีที่เว็บไซต์ใดๆได้
ในปัจจุบันมีบริการที่จะส่ง URL ไป Search Engine หลายๆแห่งพร้อมกันในคราวเดียวเช่นที่ www.submit-it.com Spider หรือ Web Robot จะมีโปรแกรมคำสั่งที่เรียกว่า robots.txt
คือการคำสั่งให้ Web Robot ของแต่ละ search
engine นั้น ทำตามเก็บ index แต่ละอย่างที่เว็บไซต์ที่อนุญาติ
โดยบางเว็บไซต์อาจไม่ต้องการให้ search engine เข้าไปในเว็บบางอย่าง
ก็จะเขียนกำหนดได้บน Robot.txt นี้เอง robots.txt เป็น fileที่บอก Search engine ว่า ไม่ต้องมาเก็บเว็บไซต์นี้ หรือเว็บเพจบางหน้า หรือไฟล์บางไฟล์ Robot
เป็นโปรแกรมเก็บข้อมูลในอินเตอร์เน็ต ซึ่งบางครั้ง เรียกว่า Spider
หรือ ครอว์เลอร์(Crawler) จะทําหน้าที่รวบรวมไฟล์
HTML เพื่อมาเป็นข้อมูล สําหรับสร้างดัชนีค้นหา ให้กับ Search
Engine โดยทั่วไปแล้ว โรบอตจะกลับมาที่เว็บไซต์ที่อ่านไปแล้ว
เพื่อตรวจสอบ การเปลี่ยนแปลง ตามระยะเวลาที่กําหนด
2. indexer
Indexer ( อินเด็กเซอร์ ) หรือบางครั้งเรียก catalogue
( แคตตาล็อก ) จะรับข้อมูลจาก Spider มาทำดัชนี
เทคนิคการทำดัชนีมักใช้การจัดเก็บแบบแฮชชิง
เพื่อที่ช่วยให้ค้นหาข้อมูลได้สามารถค้นหาได้อย่างรวดเร็ว ขั้นตอนการทำงานของ index
( อินเด็กซ์ ) แบ่งออกได้เป็น 3 ขั้นตอน คือ
- กรองคำด้วยฟิลเตอร์
เนื่องจากไฟล์ที่ทำดัชนีอาจไม่เป็น HTML หรือไฟล์แอสกี
ดังนั้นฟิลเตอร์จะตรวจสอบไฟล์ที่ได้ว่าเป็นไฟล์ชนิดใดสามารถนำมาทำดัชนีได้หรือไม่
ถ้าได้ก็จะส่งต่อสู่ภาคการแยกคำต่อไป Search Engine บางตัวสามารถ
ทำดัชนีไฟล์อื่นๆนอกเหนือจากไฟล์ HTML ได้ด้วยเช่น Index
Server ของไมโครซอฟต์สามารถทำดัชนีคำของแฟ้มเวิร์ดหรือเอกเซลได้
- แยกคำ ขั้นตอนนี้จะรับสายอักขระมาจากฟิลเตอร์
แล้วตัดแบ่งสายอักขระนั้นๆออกเป็นคำๆ
และเพื่อตรวจสอบต่อไปว่าควรจะนำคำนั้นมาทำดัชนีหรือไม่
- จัดทำดัชนี ขั้นตอนนี้จะทำหน้าที่ตรวจสอบคำศัพท์แต่ละคำที่ได้มาจากการแยกคำ
แล้วพิจารณาว่าคำศัพท์คำนั้นสมควรที่จะนำมาทำดัชนีหรือไม่
เช่นคัดทิ้งคำบางคำที่ไม่ได้ใช้ประโยชน์ในการค้นหา คำสิ้นเปลืองและคำหยุด (Common word หรือ stop
word) ออกไปจากหน้าเอกสาร เช่น a, the, is, on, of, it เป็นต้น
เพื่อลดอัตราการสิ้นเปลืองในการประมวลผลแต่ละครั้งให้เหลือน้อยที่สุด
3. Search Engine software
เป็นส่วนของโปรแกรมที่รับคำศัพท์ที่ต้องการให้ค้นหา
แล้วค้นหาในดัชนี
หลังจากนั้นจะนำข้อมูลที่ค้นหามาจัดลำดับตามความสำคัญก่อนหลังเพื่อแสดงกลับไปบนหน้าจอ
โปรแกรมส่วนนี้มักเป็นโปรแกรม cgi ที่เขียนเชื่อมโยงเข้ากับเว็บเพจที่รอให้ผู้ใช้ป้อนคำศัพท์
Google ซึ่งเป็น Search Engine ที่ได้รับความนิยมอย่างมากในขณะนี้ มี Spider ที่มีความเร็วในการเก็บข้อมูลโดยที่ความเร็วสูงสุด
Spider 4 ตัวสามารถรวบรวมข้อมูลได้มากกว่า 100
เว็บเพจต่อวินาที หรือได้ข้อมูลประมาณ 600 Kต่อวินาที
เวลาปรกติประสิทธิภาพของ Spider และ indexer ทำให้ Google ดาวน์โหลดข้อมูลล่าสุด 11
ล้านหน้าในเวลาเพียง 63 ชั่วโมงเฉลี่ยเพียง 4 ล้านหน้าต่อวันหรือ 48.5
หน้าต่อวินาทีเพราะ indexer ทำงานเร็วกว่า Spider จีงมีเวลาพอเพียงเพิ่มประสิทธิภาพการทำ indexer เพื่อให้มันไม่คั่งค้าง
ตัวอย่างสถาปัตยกรรม ของ Google ดังรูป
ตัวอย่าง
Crawler Based Search Engine อื่น ๆ
http://www.excite.com/
http://www.altavista.com/
http://www.lycos.com/
http://www.bing.com/
4.2 Meta Search Engine
Meta Search Engine คือ Search Engine
ที่ใช้การค้นหาโดยอาศัย Meta Tag ในภาษา HTML
ซึ่งมีการประกาศชุดคำสั่งต่าง ๆ เป็นรูปแบบของ Tex Editor ด้วยภาษา HTML โดยค้นหาจากฐานข้อมูลของ Search
Engine หลาย ๆ แห่ง แล้วแสดงผลลัพธ์ออกมาในมาตรฐานเดียวกัน เพราะ Meta
Search Engine ไม่มีฐานข้อมูลของตนเอง
จุดเด่นของการค้นหาด้วยวิธีการนี้ คือ สามารถเชื่อมโยงไปยัง Search Engine ประเภทอื่นๆ และยังมีความหลากหลายของข้อมูล จุดด้อยคือ ผลการค้นหาของ Meta
Search Engine นี้มักไม่แม่นยำอย่างที่คิด
เนื่องจากบางครั้งผู้ให้บริการหรือ ผู้ออกแบบเว็บจะใส่ ประโยค หรือถ้อยคำ (Keywords)
ต่างๆเข้าไปมากมายเพื่อเวลาใครมาSearch จะได้พบเว็บ
หรือ บล็อกของตนเองซึ่งประโยค
หรือถ้อยคำต่างๆนั้นอาจไม่ตรงหรือเกี่ยวกับเว็บไซต์นั้นเลยก็ได้ และ อีกประการหนึ่งก็คือ
มีการอาศัย Search Engine Index Server หลายๆ
แห่งมาประมวลผลรวมกัน จึงทำให้ผลการค้นหาข้อมูลต่าง ๆ อาจไม่เที่ยงตรง
ตัวอย่าง
Meta Search Engine
http://www.ixquick.com/
http://www.dogpile.com/
http://www.metacrawler.com/
http://www.mamma.com/
4.3 Classified Directory
Classified Directory คือสารบัญเว็บไซต์ที่ให้สามารถค้นหาข่าวสารข้อมูล
จัดทำโดยมนุษย์ โดยนำข้อมูลที่ปรากฏใน Web ต่างๆ
มาจัดเป็นหมวดหมู่ เป็นเรื่องๆ โครงสร้างของการจัดหมวดหมู่จะถูกเตรียมไว้ก่อน
ภายใต้แต่ละเรื่องจะทำการแบ่งเป็นเรื่องย่อยๆ ตามลำดับจากเรื่องทั่วไป
ไปสู่เรื่องที่มีความเฉพาะเจาะจงมากขึ้น จากนั้นจึงนำเว็บไซต์ต่างๆ
ที่รวบรวมมาไปจัดเก็บตามหมวดหมู่ที่จัดทำไว้
ข้อดีของ Classified Directory คือการแบ่งหมวดหมู่ที่ชัดเจนช่วยนำทางในการเข้าถึงข้อมูลจากประเด็นกว้างๆ
ที่ยังไม่ชัดเจนไปสู่ประเด็นเรื่องที่ชัดเจนทำให้ในการค้นผู้ใช้ไม่จำเป็นต้องมีความรู้ในเรื่องที่ค้นหรือคำศัพท์เฉพาะในเรื่องที่ค้นมาก่อน
ข้อด้อยของ Classified Directory คือขนาดของฐานข้อมูลจะมีขนาดเล็กกว่า
Search Engines ทั่วไปเนื่องจาก Classified Directory
จัดทำดรรชนีโดยมนุษย์ความรู้ของผู้จัดทำ และผู้ใช้
แตกต่างกันไปปัญหาอาจเกิดจากการจัดทำหมวดหมู่ เช่น
-
การกำหนดโครงสร้างความสัมพันธ์ของหมวดหมู่ไม่ชัดเจน ไม่สมเหตุสมผล
- โครงสร้างหมวดใหญ่ หมวดย่อยมีความซ้ำซ้อน
หรือคาบเกี่ยวกัน
- เรื่องเดียวกันแต่อยู่ได้หลายที่หลายระดับ
อาจสร้างความสับสนให้กับผู้ค้นได้
การเพิ่มชื่อเว็บไซต์เข้าสู่เว็บ
Classified Directory
ในอดีตการเพิ่มชื่อเว็บไซต์เข้าสู่เว็บ
Classified Directory สามารถทำได้ฟรี ไม่มีค่าใช้จ่าย
แต่ปัจจุบันมีการทำการตลาดเพื่อให้เว็บไซต์เป็นที่รู้จัก
การนำเว็บไซต์เข้าสู่ระบบฐานข้อมูลของ Classified Directory สามารถทำได้ดังนี้
1. Free Submission คือ Classified
Directory ที่ยอมให้เพิ่มชื่อเว็บไซต์เข้าสู่ระบบฐานข้อมูลโดยไม่มีค่าใช้จ่าย
2. Reciprocal Link คือ Classified
Directory ที่ต้องทำ Link กลับมาก่อนจึงจะสามารถเพิ่มชื่อเว็บไซต์เข้าสู่ระบบฐานข้อมูลได้
3. Paid Submissions คือ Classified
Directory ที่ต้องจ่ายค่าธรรมเนียมในการเพิ่มชื่อเว็บไซต์เข้าสู่ฐานข้อมูลเว็บไดเรคทอรี่
ตัวอย่าง
Classified Directory
http://www.dmoz.org/
http://www.galaxy.com/
http://www.yahoo.com/
http://www.sanook.com/
4.4 Subject Gateway
Subject Gateway คือ Classified
Directory จัดทำขึ้นเพื่อใช้ค้นหาข้อมูลในเรื่องใดเรื่องหนึ่งโดยเฉพาะ
เช่นกฎหมาย ศาสนา ศิลปะ การศึกษา สุขภาพ
มีการแบ่งหมวดและแยกหัวเรื่องโดยบรรณารักษ์ เน้นการรวบรวมทั้งในระดับกว้างและลึกของสาขาวิชาที่รับผิดชอบ
ตัวอย่าง Subject Gateway ที่น่าสนใจคือ
1. http://scholar.google.com/ เป็นการร่วมมือกันทั้งจากองค์กรการศึกษา
นักวิชาการ และทีมงานด้านเทคนิค เพื่อร่วมกันจัดการกับดัชนีต่างๆ
ที่จำเป็นต้องเข้าถึงเนื้อหาข้อมูล รวมถึงการพัฒนาในส่วนของเทคนิคต่าง
ๆข้อมูลบางชนิดไม่สามารถจะนำมาเชื่อมโยงได้โดยบริการค้นหาข้อมูลแบบธรรมดา ทำให้ Search
Engine ไม่อาจค้นหาข้อมูลเหล่านั้นได้ บริการ Google Scholar
มีข้อดีก็คือทำให้ผู้ที่ต้องการค้นหาข้อมูลแบบเฉพาะทางได้พบเจอข้อมูลเหล่านั้นให้ผู้ใช้สามารถค้นหาหรือทางสำเนาดิจิตอลของบทความว่าออนไลน์หรือในห้องสมุดโดยอาจเป็นข้อมูลวิชาการซึ่งปรากฏโดยอ้างอิงจาก'ข้อความเต็มของบทความ,วารสารรายงานทางเทคนิค,
วิทยานิพนธ์ หนังสือและเอกสารอื่น ๆ
ที่คิดว่าน่าจะเป็นเรื่องที่เกี่ยวข้อง หรือน่าสนใจ
2. http://www.hw.ac.uk/libwww/irn/pinakes/pinakes.html เป็น Subject Gateway เฉพาะที่เรียกตัวเองว่า Multi-Subject
Gateways คือรวบรวมเอา Subject Gateway หลายๆที่มารวมที่เว็บไซต์ของตนเอง
5. ตัวอย่างเว็บไชต์ที่ให้บริการสืบค้นข้อมูลทั้งของไทยและของต่างประเทศ
5.1
ตัวอย่างเว็บไชต์ของประเทศไทย
·
Google.co.th
·
Facebook.com
·
Live.com
·
Youtube.com
·
Sanook.com
·
Yahoo.com
·
Hi5.com
·
Blogger.com
·
MSN.com
·
pantip.com
5.2
ตัวอย่างเว็บไชต์ของต่างประเทศ
·
starwars.com
·
warnerbros.com
·
techweb.com
·
cnn.com
·
webopaedia.com





ความคิดเห็น
แสดงความคิดเห็น