Evolving strategies for web crawler
dc.contributor.advisor | Perdahçı, Nazım Ziya | en_US |
dc.contributor.author | Küçük, Kamil | en_US |
dc.contributor.other | Işık Üniversitesi, Fen Bilimleri Enstitüsü, Enformasyon Teknolojileri Yüksek Lisans Programı | en_US |
dc.date.accessioned | 2016-06-07T07:07:57Z | |
dc.date.available | 2016-06-07T07:07:57Z | |
dc.date.issued | 2009-05-06 | |
dc.department | Işık Üniversitesi, Fen Bilimleri Enstitüsü, Enformasyon Teknolojileri Yüksek Lisans Programı | en_US |
dc.description | Text in English ; Abstract: English and Turkish | en_US |
dc.description | Includes bibliographical references (leaves 47-49) | en_US |
dc.description | viii, 49 leaves | en_US |
dc.description.abstract | With the rapid growth of Internet and Internet-based information, it becomes the largest and publicly accessible data source in the world. Every day millions of information available so to achieve information becomes harder. To get the correct information trusted web sites and search engines are used. Trusted web sites have links between themselves, and users can reach correct and relevant information. Search engines are using crawler to follow links between pages. The context available to such crawlers can guide the navigation of links with the goal of efficiently locating highly relevant target pages. Crawler takes seed pages from search engines and follows these links using multi-agents. After first search, the results are inserted to database and they are used for seed pages for another search. The aim is the get access more reliable information using more seed pages in a short time. | en_US |
dc.description.abstract | İnternet ve internet temelli bilgilerin süratli büyümesi, internet dünyada en fazla kullanılan kaynak haline getirmiştir. Her gün milyonlarca bilginin girmesi ile büyüyen internette bilgiye ulaşmakta zorlaşmıştır. Doğru bilgiye ulaşmak için güvenilen siteler veya arama motorları kullanılmakatdır. İnternette güvenilen sayfalar birbiri arasında bağ oluşturarak, kullanıcıların doğru ve ölçeklenebilir bilgiye ulaşmasını sağlamaktadır. Arama motorlarında alınan başlangıç sayfalarında bulunan linkleri çoklu ajanlar kullanarak takip edilmiş ve ölçeklendirilmeye çalışılmıştır.İlk arama yapıldıktan sonra bunlar veritabanına kaydedilmiş başka aramalar için başlangıç sayfası olarak kullanılmıştır. Böylece daha once ulaşılan bilgiye daha kısa sürede ulaşmak, daha fazla sayfa üzerinde arama yapmak ve daha güvenilir bilgiye ulaşmak amaçlanmıştır. | en_US |
dc.description.tableofcontents | WEB MINING | en_US |
dc.description.tableofcontents | Web mining Pre-processing | en_US |
dc.description.tableofcontents | Stopword Removal | en_US |
dc.description.tableofcontents | Stemming | en_US |
dc.description.tableofcontents | Pre-Processing Tasks for Text | en_US |
dc.description.tableofcontents | Pre-Processing Task for Web Page | en_US |
dc.description.tableofcontents | Duplicate Detection | en_US |
dc.description.tableofcontents | Data Fusion and Cleaning | en_US |
dc.description.tableofcontents | Pageview Identification | en_US |
dc.description.tableofcontents | User Identification | en_US |
dc.description.tableofcontents | Sessionization | en_US |
dc.description.tableofcontents | Path Completion | en_US |
dc.description.tableofcontents | Data Integration | en_US |
dc.description.tableofcontents | Web Structure Mining | en_US |
dc.description.tableofcontents | HITS concept and PageRank Method | en_US |
dc.description.tableofcontents | HITS: Computing Hubs and Authorities | en_US |
dc.description.tableofcontents | PageRank Model | en_US |
dc.description.tableofcontents | HITS Concept and PageRank Method Applications | en_US |
dc.description.tableofcontents | Web Content Mining | en_US |
dc.description.tableofcontents | Web Usage Mining | en_US |
dc.description.tableofcontents | The Usage Mining on the Web | en_US |
dc.description.tableofcontents | Preprocessing | en_US |
dc.description.tableofcontents | Web Usage Mining Log Analysis | en_US |
dc.description.tableofcontents | Tools for Web Usage Mining | en_US |
dc.description.tableofcontents | INTELLIGENT AGENT | en_US |
dc.description.tableofcontents | Search agents | en_US |
dc.description.tableofcontents | A Basic Crawler Algorithm | en_US |
dc.description.tableofcontents | Multi-threaded Crawlers | en_US |
dc.description.tableofcontents | Crawling Algorithms | en_US |
dc.description.tableofcontents | Naïve Best-First Crawler | en_US |
dc.description.tableofcontents | SharkSearch | en_US |
dc.description.tableofcontents | Focused Crawler | en_US |
dc.description.tableofcontents | Context Focused Crawler | en_US |
dc.description.tableofcontents | InfoSpiders | en_US |
dc.description.tableofcontents | DEVELOPING NEW STRATEGY TO CRAWLER | en_US |
dc.description.tableofcontents | Properties of Crawler | en_US |
dc.description.tableofcontents | Crawler Evaluation | en_US |
dc.identifier.citation | Küçük, K., (2009). Evolving strategies for web crawler. İstanbul: Işık Üniversitesi Fen Bilimleri Enstitüsü. | en_US |
dc.identifier.uri | https://hdl.handle.net/11729/944 | |
dc.institutionauthor | Küçük, Kamil | en_US |
dc.language.iso | en | en_US |
dc.publisher | Işık Üniversitesi | en_US |
dc.relation.publicationcategory | Tez | en_US |
dc.rights | info:eu-repo/semantics/openAccess | en_US |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | * |
dc.subject.lcc | ZA4230 .K83 2009 | |
dc.subject.lcsh | Database searching. | en_US |
dc.subject.lcsh | Internet searching. | en_US |
dc.subject.lcsh | Web search engines. | en_US |
dc.title | Evolving strategies for web crawler | en_US |
dc.title.alternative | Tarayıcılar için strateji geliştirme | en_US |
dc.type | Master Thesis | en_US |
dspace.entity.type | Publication |