Fechar
Metadados

@InProceedings{PereiraPetr:2011:AsDaUt,
               author = "Pereira, Andr{\'e} Grahl and Petry, Adriano",
          affiliation = "{} and {Instituto Nacional de Pesquisas Espaciais (INPE)}",
                title = "Assimila{\c{c}}{\~a}o de dados utilizando 
                         neuroevolu{\c{c}}{\~a}o ao modelo do atrator de lorenz",
                 year = "2011",
         organization = "Semin{\'a}rio Inicia{\c{c}}{\~a}o Cientifica do CRS, 
                         (SICCRS).",
             keywords = "t{\'e}cnicas neuroevolutivas.",
             abstract = "Este trabalho teve como objetivo realizar um estudo da viabilidade 
                         do uso de t{\'e}cnicas neuroevolutivas para a 
                         assimila{\c{c}}{\~a}o de dados com uma qualidade equivalente a 
                         das t{\'e}cnicas cl{\'a}ssicas. Redes Neurais v{\^e}m sendo 
                         propostas muito recentemente como m{\'e}todos para 
                         emula{\c{c}}{\~a}o de t{\'e}cnicas de assimila{\c{c}}{\~a}o 
                         de dados, apresentando resultados consistentes, sendo 
                         computacionalmente eficientes. A neuroevolu{\c{c}}{\~a}o faz 
                         analogia {\`a} teoria evolucionista, em que as redes neurais 
                         s{\~a}o os fen{\'o}tipos a serem alcan{\c{c}}ados e os 
                         algoritmos gen{\'e}ticos s{\~a}o a maneira que permite que a 
                         evolu{\c{c}}{\~a}o ocorra, atrav{\'e}s de operadores de 
                         crossover e muta{\c{c}}{\~a}o. Os cromossomos na 
                         neuroevolu{\c{c}}{\~a}o podem representar qualquer componente da 
                         rede, em casos mais comuns eles definem os pesos sin{\'a}pticos, 
                         podendo tamb{\'e}m definir topologias. Neuro-Evolution of 
                         Augmenting Topologies (NEAT) {\'e} um m{\'e}todo Topology and 
                         Weight Evolving Neural Networks (TWEANNs). Nesta classe de 
                         algoritmos de aprendizagem, o genoma codifica a topologia, bem 
                         como os pesos de conex{\~a}o, que possuem a propriedade de 
                         descobrir de forma aut{\^o}noma a topologia mais adequada {\`a} 
                         rede. Assim, a evolu{\c{c}}{\~a}o da topologia pode ser usada 
                         para aumentar a efici{\^e}ncia, deixando a rede com o menor 
                         n{\'u}mero poss{\'{\i}}vel de neur{\^o}nios na camada oculta. 
                         O modelo utilizado para os testes do projeto foi o atrator de 
                         Lorenz, e consiste de um mapa ca{\'o}tico que mostra o estado de 
                         um sistema din{\^a}mico evoluindo no tempo, em um padr{\~a}o 
                         complexo e n{\~a}o repetitivo, sendo este modelo refer{\^e}ncia 
                         em testes de novas t{\'e}cnicas de assimila{\c{c}}{\~a}o de 
                         dados. O projeto consistiu da implementa{\c{c}}{\~a}o do atrator 
                         de Lorenz, da t{\'e}cnica de assimila{\c{c}}{\~a}o de dados de 
                         interpola{\c{c}}{\~a}o {\'o}tima, bem como das redes neurais 
                         treinadas por backpropagation, algoritmos gen{\'e}ticos e NEAT. A 
                         partir do atrator de Lorenz foram gerados dois conjuntos de dados 
                         com mil itera{\c{c}}{\~o}es cada, sendo que um foi definido como 
                         background e o outro como truth. Com os dados do truth foram 
                         geradas observa{\c{c}}{\~o}es com uma pequena aleatoriedade, 
                         esses tr{\^e}s conjuntos foram utilizados no m{\'e}todo de 
                         interpola{\c{c}}{\~a}o {\'o}tima para a gera{\c{c}}{\~a}o do 
                         conjunto de an{\'a}lise. Dessa forma o conjunto para o 
                         treinamento das redes neurais foi obtido, sendo o background e as 
                         observa{\c{c}}{\~o}es usados como input e a an{\'a}lise como 
                         output. 20% desse conjunto foi empregado na fase de treinamento e 
                         80% na fase de valida{\c{c}}{\~a}o. Ap{\'o}s os testes, foi 
                         observado que redes neurais treinadas por backpropagation 
                         apresentam o menor erro para o conjunto de treinamento e as 
                         treinadas por NEAT apresentam um erro menor que redes treinadas 
                         por algoritmos gen{\'e}ticos. No conjunto de 
                         valida{\c{c}}{\~a}o as redes treinadas por NEAT apresentam uma 
                         capacidade de generaliza{\c{c}}{\~a}o superior e assim um erro 
                         inferior as redes treinadas por algoritmos gen{\'e}ticos e 
                         backpropagation. Dessa forma, a neuroevolu{\c{c}}{\~a}o 
                         apresenta-se como uma alternativa aos m{\'e}todos cl{\'a}ssicos 
                         de assimila{\c{c}}{\~a}o de dados, bem como para as abordagens 
                         tradicionais do uso de redes neurais treinadas por 
                         backpropagation.",
  conference-location = "Santa Maria-RS",
      conference-year = "15 a 16 de junho de 2011",
             language = "pt",
        urlaccessdate = "14 dez. 2019"
}


Fechar