Método subgradiente incremental para otimização convexa não diferenciável

dc.contributor.advisor1Melo, Jefferson Divino Gonçalves de
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/8296171010616435por
dc.contributor.referee1Melo, Jefferson Divino Gonçalves de
dc.contributor.referee2Gonçalves, Max Leandro Nobre
dc.contributor.referee3Haeser, Gabriel
dc.contributor.referee4Ginart, Jorge Barrios
dc.creatorAdona, Vando Antônio
dc.creator.Latteshttp://lattes.cnpq.br/5115225898624770por
dc.date.accessioned2015-03-27T10:48:07Z
dc.date.issued2014-12-18
dc.description.abstractWe consider an optimization problem for which the objective function is the sum of convex functions, not necessarily differentiable. We study a subgradient method that executes the iterations incrementally selecting each component function sequentially and processing the subgradient iteration individually. We analyze different alternatives for choosing the step length, highlighting the convergence properties for each case. We also analyze the incremental model in other methods, considering proximal iteration and combinations of subgradient and proximal iterations. This incremental approach has been very successful when the number of component functions is large.eng
dc.description.provenanceSubmitted by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-26T12:20:46Z No. of bitstreams: 2 Dissertação - Vando Antônio Adona - 2014.pdf: 1128475 bytes, checksum: a2d00afcaef383726904cf6e6fd3527d (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)eng
dc.description.provenanceApproved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-27T10:48:07Z (GMT) No. of bitstreams: 2 Dissertação - Vando Antônio Adona - 2014.pdf: 1128475 bytes, checksum: a2d00afcaef383726904cf6e6fd3527d (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)eng
dc.description.provenanceMade available in DSpace on 2015-03-27T10:48:07Z (GMT). No. of bitstreams: 2 Dissertação - Vando Antônio Adona - 2014.pdf: 1128475 bytes, checksum: a2d00afcaef383726904cf6e6fd3527d (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-12-18eng
dc.description.resumoConsideramos um problema de otimização cuja função objetivo consiste na soma de funções convexas, não necessariamente diferenciáveis. Estudamos um método subgradiente que executa a iteração de forma incremental, selecionando cada função componente de maneira sequencial e processando a iteração subgradiente individualmente. Analisamos diferentes alternativas para a escolha do comprimento de passo, destacando as propriedades de convergência para cada caso. Abordamos também o modelo incremental em outros métodos, considerando iteração proximal e combinações de iterações subgradiente e proximal. Esta abordagem incremental tem sido muito bem sucedida quando o número de funções componentes é grande.por
dc.description.sponsorshipConselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPqpor
dc.formatapplication/pdf*
dc.identifier.citationADONA, V. A. Método subgradiente incremental para otimização convexa não diferenciável. 2014. 66 f. Dissertação (Mestrado em Matemática) - Universidade Federal de Goiás, Goiânia, 2014.por
dc.identifier.urihttp://repositorio.bc.ufg.br/tede/handle/tede/4367
dc.languageporpor
dc.publisherUniversidade Federal de Goiáspor
dc.publisher.countryBrasilpor
dc.publisher.departmentInstituto de Matemática e Estatística - IME (RG)por
dc.publisher.initialsUFGpor
dc.publisher.programPrograma de Pós-graduação em Matemática (IME)por
dc.rightsAcesso Abertopor
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectMétodo subgradiente incrementalpor
dc.subjectOtimização convexapor
dc.subjectOtimização não diferenciávelpor
dc.subjectIncremental subgradient methodpor
dc.subjectConvex optimizationpor
dc.subject.cnpqCIENCIAS EXATAS E DA TERRA::MATEMATICApor
dc.thumbnail.urlhttp://repositorio.bc.ufg.br/tede/retrieve/18538/Disserta%c3%a7%c3%a3o%20-%20Vando%20Ant%c3%b4nio%20Adona%20-%202014.pdf.jpg*
dc.titleMétodo subgradiente incremental para otimização convexa não diferenciávelpor
dc.title.alternativeIncremental subgradient method for nondifferentiable convex optimizationeng
dc.typeDissertaçãopor

Arquivos

Pacote Original
Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Dissertação - Vando Antônio Adona - 2014.pdf
Tamanho:
1.08 MB
Formato:
Adobe Portable Document Format
Descrição:
Licença do Pacote
Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
license.txt
Tamanho:
2.11 KB
Formato:
Item-specific license agreed upon to submission
Descrição: