Use este identificador para citar ou linkar para este item: https://ri.ufs.br/jspui/handle/riufs/18822
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.authorIé, Ocante António-
dc.date.accessioned2023-12-20T14:48:05Z-
dc.date.available2023-12-20T14:48:05Z-
dc.date.issued2023-
dc.identifier.urihttps://ri.ufs.br/jspui/handle/riufs/18822-
dc.languageporpt_BR
dc.relation.ispartofAparato dos algoritmos na ciência da informação : compreendendo os processos de automação dos motores de busca (Dissertação)pt_BR
dc.subjectAutomação de motores de buscapor
dc.subjectAlgoritmospor
dc.subjectCiência da informaçãopor
dc.subjectAcesso à informaçãopor
dc.titleWeb crawlerpt_BR
dc.typeOutropt_BR
dc.identifier.licenseCreative Commons Atribuição-CompartilhaIgual 4.0 Internacional (CC BY-SA 4.0 DEED). Disponível em: https://creativecommons.org/licenses/by-sa/4.0/ .pt_BR
dc.contributor.advisor1Araújo, Alessandra dos Santos-
dc.description.resumoPara atender à necessidade de compreensão mais ampla dos mecanismos de busca na web, desenvolvemos um Web Crawler como uma peça central deste estudo. O Web Crawler, construído usando a linguagem de programação Python, é uma ferramenta projetada para automatizar a coleta de dados na web de maneira precisa e eficaz. Para explicar em termos mais acessíveis, um Web Crawler é como um "robô" da internet que percorre páginas da web em busca de informações específicas. Imagine-o como um explorador digital que segue links entre páginas da web, extrai dados relevantes e os organiza para análise. O funcionamento básico envolve três etapas: - Identificação de Páginas para Exploração: O processo de identificação de páginas para exploração inicia-se com o Web Crawler visitando uma ou mais páginas iniciais, servindo como ponto de partida. Nesse estágio, o Crawler identifica os links contidos nessas páginas e coleta esses links para acessar outras páginas. Para ilustrar esse procedimento, utilizamos como exemplo o estudo que visa coletar informações da Base de Dados Referencial de Artigos de Periódicos em Ciência da Informação (Brapci). O link específico dessa base foi configurado no Crawler para a extração de informações durante o processo. - Exploração e Coleta de Dados: O Crawler segue os links identificados, acessa as páginas correspondentes e extrai as informações relevantes. Essas informações podem incluir texto, imagens, links, entre outros, dependendo dos objetivos da pesquisa. - Organização e Armazenamento: Após coletar os dados, o Web Crawler os organiza de maneira estruturada para facilitar a análise subsequente. Os dados podem ser armazenados em um formato adequado para análise, como um banco de dados ou arquivo.pt_BR
dc.publisher.programPós-Graduação em Ciência da Informaçãopt_BR
dc.publisher.initialsUniversidade Federal de Sergipe (UFS)pt_BR
dc.contributor.advisor-co1Nunes, Martha Suzana Cabral-
dc.description.localSão Cristóvãopt_BR
Aparece nas coleções:Ciência da Informação (recursos educacionais e técnicos)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
OCANTE_ANTONIO_IE-WebCrawler.zip80,87 MBZIPVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.