Use este identificador para citar ou linkar para este item:
https://ri.ufs.br/jspui/handle/riufs/18822
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.author | Ié, Ocante António | - |
dc.date.accessioned | 2023-12-20T14:48:05Z | - |
dc.date.available | 2023-12-20T14:48:05Z | - |
dc.date.issued | 2023 | - |
dc.identifier.uri | https://ri.ufs.br/jspui/handle/riufs/18822 | - |
dc.language | por | pt_BR |
dc.relation.ispartof | Aparato dos algoritmos na ciência da informação : compreendendo os processos de automação dos motores de busca (Dissertação) | pt_BR |
dc.subject | Automação de motores de busca | por |
dc.subject | Algoritmos | por |
dc.subject | Ciência da informação | por |
dc.subject | Acesso à informação | por |
dc.title | Web crawler | pt_BR |
dc.type | Outro | pt_BR |
dc.identifier.license | Creative Commons Atribuição-CompartilhaIgual 4.0 Internacional (CC BY-SA 4.0 DEED). Disponível em: https://creativecommons.org/licenses/by-sa/4.0/ . | pt_BR |
dc.contributor.advisor1 | Araújo, Alessandra dos Santos | - |
dc.description.resumo | Para atender à necessidade de compreensão mais ampla dos mecanismos de busca na web, desenvolvemos um Web Crawler como uma peça central deste estudo. O Web Crawler, construído usando a linguagem de programação Python, é uma ferramenta projetada para automatizar a coleta de dados na web de maneira precisa e eficaz. Para explicar em termos mais acessíveis, um Web Crawler é como um "robô" da internet que percorre páginas da web em busca de informações específicas. Imagine-o como um explorador digital que segue links entre páginas da web, extrai dados relevantes e os organiza para análise. O funcionamento básico envolve três etapas: - Identificação de Páginas para Exploração: O processo de identificação de páginas para exploração inicia-se com o Web Crawler visitando uma ou mais páginas iniciais, servindo como ponto de partida. Nesse estágio, o Crawler identifica os links contidos nessas páginas e coleta esses links para acessar outras páginas. Para ilustrar esse procedimento, utilizamos como exemplo o estudo que visa coletar informações da Base de Dados Referencial de Artigos de Periódicos em Ciência da Informação (Brapci). O link específico dessa base foi configurado no Crawler para a extração de informações durante o processo. - Exploração e Coleta de Dados: O Crawler segue os links identificados, acessa as páginas correspondentes e extrai as informações relevantes. Essas informações podem incluir texto, imagens, links, entre outros, dependendo dos objetivos da pesquisa. - Organização e Armazenamento: Após coletar os dados, o Web Crawler os organiza de maneira estruturada para facilitar a análise subsequente. Os dados podem ser armazenados em um formato adequado para análise, como um banco de dados ou arquivo. | pt_BR |
dc.publisher.program | Pós-Graduação em Ciência da Informação | pt_BR |
dc.publisher.initials | Universidade Federal de Sergipe (UFS) | pt_BR |
dc.contributor.advisor-co1 | Nunes, Martha Suzana Cabral | - |
dc.description.local | São Cristóvão | pt_BR |
Aparece nas coleções: | Ciência da Informação (recursos educacionais e técnicos) |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
OCANTE_ANTONIO_IE-WebCrawler.zip | 80,87 MB | ZIP | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.