18/09/2018, 16:42

Web crawler là gì?

Web crawler là gì? Web crawler có chức năng lấy thông tin từ website , trích xuất ra những thông tin người sử dụng cần, đồng thời cũng tìm những link có trong trang web đó và tự động truy cập vào những link đó. Các tên gọi khác của crawler là robot, bot, spider, worm, ant. Nhưng gần đây tên gọi ...

Web crawler là gì? Web crawler có chức năng lấy thông tin từ website , trích xuất ra những thông tin người sử dụng cần, đồng thời cũng tìm những link có trong trang web đó và tự động truy cập vào những link đó. Các tên gọi khác của crawler là robot, bot, spider, worm, ant. Nhưng gần đây tên gọi crawler là thông dụng nhất.

Mô hình crawler đơn giản:

Chọn URL khởi đầu Sử dụng HTML protocol để lấy trang web Trích xuất ra các link. Lưu lại trong queue Lặp đi lặp lại bước 2,3 Cụ thể hơn, các module quan trọng của 1 crawler:

URL Frontier: chứa danh sách các URl chưa được lấy Fetch module lấy các trang web DNS resolution module xác định địa chỉ của server của trang web đã lấy Parsing module trích xuất text và link từ trang web đã lấy Duplicate elimination module loại bỏ các URL trùng lặp Xây dựng web crawler với rails và mechanize Ví dụ minh họa về việc lấy thông tin nhà đất từ trang https://nhadathoangha.vn/ Cài đặt:

gem "mechanize" bundle install Crawl data: Khởi tạo đối tượng

agent = Mechanize.new Lấy thông tin trang, trong trang này chúng ta sẽ có 1 danh sách các nhà đang được bán và cho thuê:

page = agent.get "https://nhadathoangha.vn/nha-dat-ban-quan-tan-binh/nha-ban-quan-tan-binh/" + "/#{page_number}" Để lấy được thông tin từ từng page, chúng ta cần có được cấu trúc của trang: Như các bạn có thể thấy, chúng ta có id của từng trường, vậy chúng ta có thể lấy như sau:

crawled_page = Mechanize.new.get room_url

#get price crawled_page.at("#ContentPlaceHolder2_lbGiaTien").try :text

#get area crawled_page.at("#ContentPlaceHolder2_lbDienTich").try :text Lấy thông tin chi tiết, chúng ta sẽ truy cập vào từng trang đã lấy ở trên để lấy thông tin chi tiết từng nhà: Vậy là chúng ta đã hoàn thành việc crawl.

Chú ý: Thông thường, chúng ta sẽ lưu trữ số lượng khổng lồ thông tin sau khi crawl, vậy để có tốc độ đọc ghi cao, hiệu suất lớn và dễ mở rộng, chúng ta nên sử dụng MongoDB. Để tìm hiểu thêm về MongoDB các bạn có thể tham khảo tại: https://viblo.asia/tags/mongodb

Demo Demo project về crawl thông tin nhà đất từ trang https://nhadathoangha.vn/

0