<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
  <channel>
    <title>DSpace Coleção:</title>
    <link>https://ri.ufs.br/jspui/handle/riufs/111</link>
    <description />
    <pubDate>Tue, 05 May 2026 01:53:18 GMT</pubDate>
    <dc:date>2026-05-05T01:53:18Z</dc:date>
    <item>
      <title>Método de análise de componentes dependentes para o processamento, caracterização e extração de componentes de sinais biomédicos</title>
      <link>https://ri.ufs.br/jspui/handle/riufs/1777</link>
      <description>Título: Método de análise de componentes dependentes para o processamento, caracterização e extração de componentes de sinais biomédicos
Autor(es): Estombelo Montesco, Carlos Alberto
Abstract: Na área de processamento de sinais biomédicos a extração de informação, baseada em um conjunto de medidas adquiridas no tempo, é considerada de suma importância. A qualidade desta informação extraída permite avaliar o funcionamento dos diversos órgãos. Objetivos: (1) propor o método de análise de componentes dependentes para auxiliar a extração de componentes de interesse, a partir de medidas multivariadas; (2) caraterizar as componentes extraídas através de representações em termos de tempo e freqüência, e espectro de potência; e, (3) aplicar o método e avaliar as componentes de interesse extraídas no contexto real MCGf, MGG e fMRI. A proposta para a extração fundamenta-se no método chamado de Análise de Componentes Dependentes ACD. As medidas a serem processadas são multivariadas a partir de sensores distribuídos, espacialmente, no corpo humano dando origem a um conjunto de dados correlacionados no tempo e/ou no espaço. Observa-se que os sinais de interesse raramente são registrados de forma isolada, e sim misturados com outros sinais superpostos, ruído e artefatos fisiológicos ou ambientais, onde a relação sinal-ruído é geralmente baixa. Nesse contexto, a estratégia a ser utilizada baseia-se na ACD, que permitirá extrair um pequeno número de fontes, de potencial interesse, com informações úteis. A estratégia ACD para extração de informação é aplicada em três importantes problemas, na área de processamento de sinais biomédicos: (1) detecção do sinal do feto em magnetocardiografia fetal (MCGf); (2) detecção da atividade de resposta elétrica do estômago em magnetogastrografia (MGG); e, (3) detecção de regiões ativas do cérebro em experimentos de imagens por ressonância magnética funcional (Functional Magnetic Resonance Imaging, fMRI). Os resultados, nos três casos estudados, mostraram que o método utilizado, como estratégia, é efetivo e computacionalmente eficiente para extração de sinais de interesse. Concluímos, baseados nas aplicações, que o método proposto é eficaz, mostrando seu potencial para futuras pesquisas clínicas._________________________________________________________________________________________ ABSTRACT: An important goal in biomedical signal processing is the extraction of information based on a set of physiological measurements made along time. Generally, biomedical signals are electromagnetic measurements. Those measurements (usually made with multichannel equipment) are registered using spatially distributed sensors around some areas of the human body, originating a set of time and/or space correlated data. The signals of interest are rarely registered alone, being usually observed as a mixture of other spurious, noisy signals (sometimes superimposed) and environmental or physiological artifacts. More over, the signal-to-noise ratio is generally low. In many applications, a big number of sensors are available, but just a few sources are of interest and the remainder can be considered noise. For such kind of applications, it is necessary to develop trustful, robust and effective learning algorithms that allow the extraction of only a few sources potentially of interest and that hold useful information. The strategy used here for extraction of sources is applied in three important problems in biomedical signal processing: (1) detection of the fetal magnetocardiogram signal (fMCG); (2) detection of the electrical activity of the stomach in magnetogastrograms (MGG); and (3) detection of active regions of the brain in experiments in functional Magnetic Resonance Imaging (fMRI). The results, within the three cases of study, showed that the DCA method used as strategy is effective and computationally efficient on extraction of desired signals.</description>
      <pubDate>Mon, 01 Jan 2007 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://ri.ufs.br/jspui/handle/riufs/1777</guid>
      <dc:date>2007-01-01T00:00:00Z</dc:date>
    </item>
    <item>
      <title>HdSC: modelagem de alto nível para simulação nativa de plataformas com suporte ao desenvolvimento de HdS</title>
      <link>https://ri.ufs.br/jspui/handle/riufs/1673</link>
      <description>Título: HdSC: modelagem de alto nível para simulação nativa de plataformas com suporte ao desenvolvimento de HdS
Autor(es): Prado, Bruno Otávio Piedade
Abstract: Com os grandes avanços recentes dos sistemas computacionais, houve&#xD;
a possibilidade de ascensão de dispositivos inovadores, como os modernos&#xD;
telefones celulares e tablets com telas sensíveis ao toque. Para gerenciar adequadamente&#xD;
estas diversas interfaces é necessário utilizar o software dependente&#xD;
do hardware (HdS), que é responsável pelo controle e acesso a estes&#xD;
dispositivos. Além deste complexo arranjo de componentes, para atender a&#xD;
crescente demanda por mais funcionalidades integradas, o paradigma de&#xD;
multiprocessamento vem sendo adotado para aumentar o desempenho das&#xD;
plataformas.&#xD;
Devido à lacuna de produtividade de sistemas, tanto a indústria como a&#xD;
academia têm pesquisado processos mais eficientes para construir e simular&#xD;
sistemas cada vez mais complexos. A premissa dos trabalhos do estado da&#xD;
arte está em trabalhar com modelos com alto nível de abstração e de precisão&#xD;
que permitam ao projetista avaliar rapidamente o sistema, sem ter que&#xD;
depender de lentos e complexos modelos baseados em ISS.&#xD;
Neste trabalho é definido um conjunto de construtores para modelagem&#xD;
de plataformas baseadas em processadores, com suporte para desenvolvimento&#xD;
de HdS e reusabilidade dos componentes, técnicas para estimativa&#xD;
estática de tempo simulado em ambiente nativo de simulação e suporte para&#xD;
plataformas multiprocessadas. Foram realizados experimentos com aplica-&#xD;
ções de entrada e saída intensiva, computação intensiva e multiprocessada,&#xD;
com ganho médio de desempenho da ordem de 1.000 vezes e precisão de estimativas&#xD;
com erro médio inferior a 3%, em comparação com uma plataforma&#xD;
de referência baseada em ISS._________________________________________________________________________________________ ABSTRACT: The amazing advances of computer systems technology enabled the rise of&#xD;
innovative devices, such as modern touch sensitive cell phones and tablets. To&#xD;
properly manage these various interfaces, it is required the use of the Hardwaredependent&#xD;
Software (HdS) that is responsible for these devices control and access.&#xD;
Besides this complex arrangement of components, to meet the growing&#xD;
demand for more integrated features, the multiprocessing paradigm has been&#xD;
adopted to increase the platforms performance.&#xD;
Due to the system design gap, both industry and academia have been researching&#xD;
for more efficient processes to build and simulate systems with this&#xD;
increasingly complexity. The premise of the state of art works is the development&#xD;
of high level of abstraction and precise models to enable the designer&#xD;
to quickly evaluate the system, without having to rely on slow and complex&#xD;
models based on instruction set simulators (ISS).&#xD;
This work defined a set of constructors for processor-based platforms modeling,&#xD;
supporting HdS development and components reusability, techniques for&#xD;
static simulation timing estimation in native environment and support for multiprocessor&#xD;
platforms. Experiments were carried out with input and output intensive,&#xD;
compute intensive and multiprocessed applications leading to an average&#xD;
performance speed up of about 1,000 times and average timing estimation&#xD;
accuracy of less than 3%, when compared with a reference platform&#xD;
based on ISS.</description>
      <pubDate>Fri, 01 Aug 2014 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://ri.ufs.br/jspui/handle/riufs/1673</guid>
      <dc:date>2014-08-01T00:00:00Z</dc:date>
    </item>
    <item>
      <title>IVM: uma metodologia de verificação funcional interoperável, iterativa e incremental</title>
      <link>https://ri.ufs.br/jspui/handle/riufs/1672</link>
      <description>Título: IVM: uma metodologia de verificação funcional interoperável, iterativa e incremental
Autor(es): Prado, Bruno Otávio Piedade
Abstract: A crescente demanda por produtos eletrônicos e a capacidade cada vez maior de integração&#xD;
criaram sistemas extremamente complexos em chips, conhecidos como Systemon-Chip&#xD;
ou SoC. Seguindo em sentido oposto a esta tendência, os prazos (time-to-market)&#xD;
para que estes sistemas sejam construídos vem continuamente sendo reduzidos, obrigando&#xD;
que muito mais funcionalidades sejam implementadas em períodos cada vez&#xD;
menores de tempo. A necessidade de um maior controle de qualidade do produto&#xD;
final demanda a atividade de Verificação Funcional que consiste em utilizar um conjuntos&#xD;
de técnicas para estimular o sistema em busca de falhas. Esta atividade é a extremamente&#xD;
dispendiosa e necessária, consumindo até cerca de 80% do custo final do&#xD;
produto. É neste contexto que se insere este trabalho, propondo uma metodologia de&#xD;
Verificação Funcional chamada IVM que irá fornecer todos os subsídios para garantir&#xD;
a entrega de sistemas de alta qualidade, e ainda atingindo as rígidas restrições temporais&#xD;
impostas pelo mercado. Sendo baseado em metodologias já bastante difundidas&#xD;
e acreditadas, como o OVM e o VeriSC, o IVM definiu uma organização arquitetural e&#xD;
um fluxo de atividades que incorporou as principais características de ambas as abordagens&#xD;
que antes estavam disjuntas. Esta integração de técnicas e conceitos resulta em&#xD;
um fluxo de verificação mais eficiente, permitindo que sistemas atinjam o custo, prazo&#xD;
e qualidade esperados._________________________________________________________________________________________ ABSTRACT: The growing demand for electronic devices and its even higher integration capability&#xD;
created extremely complex systems in chips, known as System-on-Chip or SoC.&#xD;
In a opposite way to this tendency, the time-to-market for these systems be built have&#xD;
been continually reduced, forcing much more functionalities be implemented in even&#xD;
shorten time periods. The final product quality control is assured by the Functional&#xD;
Verification activity that consists in a set of techniques to stimulate a system in order&#xD;
to find bugs. This activity is extremely expensive and necessary, responding to around&#xD;
80% of final product cost. In this context this work is inserted on, proposing a Functional&#xD;
Verification methodology called IVM that will provide all conditions to deliver&#xD;
high quality systems, while keeping the hard time restrictions imposed by the market.&#xD;
Based in well known and trusted methodologies, as OVM and VeriSC, the IVM&#xD;
defined an architectural organization and an activity flow that incorporates features of&#xD;
both approaches that were separated from each other. This techniques and concepts&#xD;
integration resulted in a more efficient verification flow, allowing systems to meet the&#xD;
desired budget, schedule and quality.</description>
      <pubDate>Sun, 01 Mar 2009 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://ri.ufs.br/jspui/handle/riufs/1672</guid>
      <dc:date>2009-03-01T00:00:00Z</dc:date>
    </item>
    <item>
      <title>Estudo poliedral do problema do máximo subgrafo induzido comum</title>
      <link>https://ri.ufs.br/jspui/handle/riufs/1654</link>
      <description>Título: Estudo poliedral do problema do máximo subgrafo induzido comum
Autor(es): Piva, Breno
Abstract: O problema do Máximo Subgrafo Induzido Comum (MSIC) pertence a classe NP-difícil e possui aplicações em diversas áreas. Apesar de sua complexidade, ainda é importante conhecer soluções exatas para instâncias deste problema. Os algoritmos exatos encontrados na literatura buscam resolvê-lo através de técnicas de backtracking ou através de sua redução para o problema da Clique Máxima. Neste trabalho procuramos dar uma solução exata para o MSIC, tratando-o diretamente através da utilização de modelos de Programação Linear Inteira (PLI) e técnicas de combinatória poliédrica. Assim, realizamos um estudo teórico do poliedro do MSIC e fomos capazes de encontrar algumas desigualdades válidas fortes, inclusive com provas de que algumas delas representam facetas daquele poliedro. Adicionalmente, provamos que existe uma equivalâencia entre o modelo PLI aqui apresentado para o MSIC e uma formulação bem conhecida para o problema da Clique Máxima. Posteriormente, foram implementados algoritmos de Branch-and-Bound (B&amp;B) e Branch-and-Cut (B&amp;C) utilizando as desigualdades encontradas e algumas técnicas para tentar tornar os algoritmos mais eficientes. Experimentos foram executados com os algoritmos implementados neste trabalho e, também, com um algoritmo já existente para resolver o problema da Clique, chamado Cliquer. Os resultados foram comparados e, dentre os algoritmos de PLI, constatamos que o mais eficiente foi aquele que utilizou uma formulação para o MSIC que chamamos de Clique-IS, utilizando B&amp;B e técnicas mais básicas que outros algoritmos. Este algoritmo mostrou-se mais eficiente, inclusive, que um algoritmo PLI com um modelo baseado no problema da Clique Máaxima. Este fato sugere que para uma abordagem baseada em PLI, vale a pena utilizar uma formulação do MSIC diretamente, ao invés de uma que se apóie na redução deste para o problema da Clique Máxima. Ja a comparaçao do melhor algoritmo desenvolvido neste trabalho com o Cliquer, mostrou que este último é mais eficiente. Para que um algoritmo baseado em PLI (utilizando uma formulação com as mesmas variáveis usadas por nós) tivesse alguma chance de vencer um algoritmo combinatório como o Cliquer, seria necessário conhecer mais desigualdades que estivessem ativas na solução ótima do problema._________________________________________________________________________________________ ABSTRACT: The Maximum Common Subgraph problem (MSIC) is in MV-hard and has applications in several fields. Despite its complexity, it is still important to know exact solutions for instances of this problem. The exact algorithms found in literature try to solve it through backtracking techniques or through its reduction to the Maximum Clique problem. In this work we try to give an exact solution to MSIC by addressing it directly, using Linear Integer Programming (PLI) and polyhedral combinatorics techniques. So, we performed a study of the MSIC polyhedron and we were able to find some strong valid inequalities, including some that were proven to define facets of that polyhedron. Additionally, we proved that an equivalence between the PLI model presented here for MSIC and a well known formulation for the Maximum Clique problem exists. Later, Branch-and-Bound (B&amp;B) and Branch-and-Cut (B&amp;C) algorithms were implemented using the inequalities found and some techniques to try to render the algorithms more efficient. Experiments were performed with the algorithms implemented in this work and, also, with an already existing algorithm to solve the Maximum Clique problem, called Cliquer. The results were compared and, among the PLI algorithms, we found that the most efficient was the one that used the formulation which we called Clique-IS, using B&amp;B and more basic techniques than other algorithms. This algorithm was even more efficient than a PLI algorithm with a Clique-based model. This fact suggests that for a PLI approach it is worth to use a formulation based on the MSIC polyhedron instead of one based on its reduction to the Maximum Clique problem. The comparison of the best algorithm developed in this work with Cliquer, though, showed that the latest is more efficient. In order to some PLI-based algorithm (using a formulation with the same variables used by us) to have any chance of outperforming a combinatorial algorithm like Cliquer, it would be necessary to know more inequalities that are active in the problem's optimal solution.</description>
      <pubDate>Sun, 01 Nov 2009 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://ri.ufs.br/jspui/handle/riufs/1654</guid>
      <dc:date>2009-11-01T00:00:00Z</dc:date>
    </item>
  </channel>
</rss>

