Programa de Pós-graduação em Matemática
URI Permanente desta comunidade
Navegar
Navegando Programa de Pós-graduação em Matemática por Por Orientador "Ferreira, Orizon Pereira"
Agora exibindo 1 - 12 de 12
Resultados por página
Opções de Ordenação
Item Subgradient and gradient methods with feasible inexact projections for constrained convex optimization problems(Universidade Federal de Goiás, 2021-04-30) Aguiar, Ademir Alves; Prudente, Leandro da Fonseca; http://lattes.cnpq.br/4573611419840935; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Prudente, Leandro da Fonseca; Melo, Jefferson Divino Gonçalves de; Bento, Glaydston de Carvalho; Andreani, RobertoO método subgradiente com uma projeção inexata viável é proposto na presente tese para resolver problemas de otimização convexa com restrições não diferenciáveis. Para realizar a projeção inexata proposta em um conjunto restrito, uma tolerância de erro relativa é introduzida. Além do mais, em cada iteração, o algoritmo requer o cálculo de um subgradiente aproximado da função. Limitantes para a complexidade na iteração e resultados de convergência assintótica para a sequência gerada pelo método empregando os conhecidos tamanhos de passo exógeno, Polyak e dinâmico são estabelecidos. Finalmente, relatamos alguns resultados numéricos a fim de ilustrar o comportamento prático do algoritmo quando o conjunto de restrição é convexo e compacto. Aqui também consideramos um novo método gradiente com projeção inexata usando tolerância de erro relativa. Convergência assintótica e limitantes para a complexidade na iteração do método empregando tamanho de passo constante e de Armijo são apresentados. Resultados numéricos são relatados ilustrando as vantagens potenciais de considerar projeções inexatas em vez de exatas em alguns exemplos de média escala em problemas de mı́ nimos quadrados sobre o espectraedro.Item Conditional gradient methods for multiobjective optimization(Universidade Federal de Goiás, 2021-08-06) Assunção Filho, Pedro Bonfim de; Prudente, Leandro da Fonseca; http://lattes.cnpq.br/4573611419840935; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Prudente, Leandro da Fonseca; Melo, Jefferson Divino Gonçalves de; Bento, Glaydston de Carvalho; Souza, João Carlos de OliveiraNeste trabalho, analisamos o método do gradiente condicional, também conhecido como método de Frank-Wolfe, para resolver problemas de otimização multiobjetivo restrita. Também propomos e analisamos uma versão generalizada deste método para resolver problemas de otimização composta multiobjetivo que consistem em minimizar simultaneamente várias funções objetivo. Cada função objetiva é a soma de duas funções, uma é considerada continuamente diferenciável e a outra não é necessariamente diferenciável. Ambos os métodos são analisados com três estratégias de obtenção dos tamanhos dos passos, a saber: tipo Armijo, adaptativos e tamanhos decrescentes dos passos. Propriedades de convergência assintótica e limites de complexidade de iteração com e sem suposições de convexidade na função objetivo são estabelecidas. Experimentos numéricos para o método do gradiente condicional são fornecidos para ilustrar a eficácia do método e certificar os resultados teóricos obtidos.Item Generalized vector equilibrium problems and algorithms for variational inequality in hadamard manifolds(Universidade Federal de Goiás, 2016-10-20) Batista, Edvaldo Elias de Almeida; Bento, Glaydston de Carvalho; http://lattes.cnpq.br/1089906772427394; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Bento, Glaydston de Carvalho; http://lattes.cnpq.br/1089906772427394; Cruz Neto, João Xavier da; Peréz, Luís Román Lucambio; Alves, Maicon MarquesIn this thesis, we study variational inequalities and generalized vector equilibrium problems. In Chapter 1, several results and basic definitions of Riemannian geometry are listed; we present the concept of the monotone vector field in Hadamard manifolds and many of their properties, besides, we introduce the concept of enlargement of a monotone vector field, and we display its properties in a Riemannian context. In Chapter 2, an inexact proximal point method for variational inequalities in Hadamard manifolds is introduced, and its convergence properties are studied; see [7]. To present our method, we generalize the concept of enlargement of monotone operators, from a linear setting to the Riemannian context. As an application, an inexact proximal point method for constrained optimization problems is obtained. In Chapter 3, we present an extragradient algorithm for variational inequality associated with the point-to-set vector field in Hadamard manifolds and study its convergence properties; see [8]. In order to present our method, the concept of enlargement of maximal monotone vector fields is used and its lower-semicontinuity is established to obtain the convergence of the method in this new context. In Chapter 4, we present a sufficient condition for the existence of a solution to the generalized vector equilibrium problem on Hadamard manifolds using a version of the KnasterKuratowski-Mazurkiewicz Lemma; see [6]. In particular, the existence of solutions to optimization, vector optimization, Nash equilibria, complementarity, and variational inequality is a special case of the existence result for the generalized vector equilibrium problem.Item Unificando o análise local do método de Newton em variedades Riemannianas(Universidade Federal de Goiás, 2017-03-08) Guevara, Stefan Alberto Gómez; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Gonçalves, Max Leandro Nobre; Santos, Paulo Sergio Marques dosIn this work we consider the problem of finding a singularity of a field of differentiable vectors X on a Riemannian manifold. We present a local analysis of the convergence of Newton's method to find a singularity of field X on an increasing condition. The analysis shows a relationship between the major function and the vector field X. We also present a semi-local Kantorovich type analysis in the Riemannian context under a major condition. The two results allow to unify some previously unrelated results.Item Método de Newton para encontrar zeros de uma classe especial de funções semi-suaves(Universidade Federal de Goiás, 2016-03-04) Louzeiro, Mauricio Silva; Ferreira, Orizon Pereira; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4785356U8; Ferreira, Orizon Pereira; Cruz, José Yunier Bello; Ribeiro, Ademir Alves; Prudente, Leandro da FonsecaIn this work, we will study a new strategy to minimize a convex function on a simplicial cone. This method consists in to obtain the solution of a minimization problem through the root of a semi-smooth equation associated to its optimality conditions. To nd this root, we use the semi-smooth version of the Newton's method, where the derivative of the function that de nes the semi-smooth equation is replaced by a convenient Clarke subgradient. For the case that the function is quadratic, we will see that it allows us to have weaker conditions for the convergence of the sequence generated by the semi-smooth Newton's method. Motivated by this new minimization strategy we will also use the semi-smooth Newton's method to nd roots of two special semi-smooth equations, one associated to x+ and the another one associated to jxj.Item Optimization methods on Riemannian manifolds with lower bound curvature: gradient for scalar and multi-objective functions and subgradient for scalar functions(Universidade Federal de Goiás, 2019-02-26) Louzeiro, Maurício Silva; Prudente, Leandro da Fonseca; http://lattes.cnpq.br/4573611419840935; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Bento, Glaydston de Carvalho; Cruz Neto, João Xavier da; Santos, Paulo Sérgio Marques dos; Perez, Luis Roman LucambioLet M a Riemannian manifolds with lower bounded curvature. In this thesis, we consider first-order iterative methods to solve optimization problems on M. The gradient method to solve the problem min{f(p) : p M}, where f : M → R is a continuously differentiable convex function is presented with Lipschitz step-size, adaptive step-size and Armijo’s step-size. The first procedure requires that the objective function has Lipschitz continuous gradient, which is not necessary for the other approaches. Convergence of the whole sequence to a minimizer, without any level set boundedness assumption, is proved. Iteration-complexity bound for functions with Lipschitz continuous gradient is also presented. In addition, all these approaches are considered in the multiobjective setting. Here we also consider the subgradient method to solve the problem min{f(p) : p M}, where f : M → R is a convex function. Iteration-complexity bounds of the subgradient method with exogenous step-size and Polyak’s step size are stablished, completing and improving recent results on the subject. Finally, some examples and numerical experiments are presented.Item Newton's methods under the majorant principle on Riemannian manifolds(Universidade Federal de Goiás, 2015-06-26) Martins, Tiberio Bittencourt de Oliveira; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Yun, Yuan Jin; Andreani, Roberto; Bello , José Yunier; Bento, Glaydston de CarvalhoApresentamos, nesta tese, uma an álise da convergência do m étodo de Newton inexato com tolerância de erro residual relativa e uma an alise semi-local de m etodos de Newton robustos exato e inexato, objetivando encontrar uma singularidade de um campo de vetores diferenci avel de nido em uma variedade Riemanniana completa, baseados no princ pio majorante a m invariante. Sob hip oteses locais e considerando uma fun ção majorante geral, a Q-convergância linear do m etodo de Newton inexato com uma tolerância de erro residual relativa xa e provada. Na ausência dos erros, a an alise apresentada reobtem o teorema local cl assico sobre o m etodo de Newton no contexto Riemanniano. Na an alise semi-local dos m etodos exato e inexato de Newton apresentada, a cl assica condi ção de Lipschitz tamb em e relaxada usando uma fun ção majorante geral, permitindo estabelecer existência e unicidade local da solu ção, uni cando previamente resultados pertencentes ao m etodo de Newton. A an alise enfatiza a robustez, a saber, e dada uma bola prescrita em torno do ponto inicial que satifaz as hip oteses de Kantorovich, garantindo a convergência do m etodo para qualquer ponto inicial nesta bola. Al em disso, limitantes que dependem da função majorante para a taxa de convergência Q-quadr atica do m étodo exato e para a taxa de convergência Q-linear para o m etodo inexato são obtidos.Item Newton method with feasible inexact projections for constrained equations and nonsmooth Newton method in Riemannian manifolds(Universidade Federal de Goiás, 2019-03-27) Oliveira, Fabiana Rodrigues de; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Prudente, Leandro da Fonseca; Gonçalves, Max Leandro Nobre; Andreani, Roberto; Haeser, Gabriel; Gonçalves, Douglas SoaresIn this thesis, we will study three versions of the Newton method for solving problems in two contexts, namely Euclidean and Riemannian. In the Euclidean context, we will present the Newton method with feasible inexact projections for solving generalized equations subject to a set of constraints. Under local assumptions, the linear or superlinear convergence of a sequence generated by the proposed method is established. Next, a version of the inexact Newton method with feasible inexact projections for solving constrained smooth and nonsmooth equations is presented. Using suitable assumptions, the linear or superlinear convergence of a sequence generated by the method is proved. Furthermore, to illustrate the practical behavior of the proposed method, some numerical experiments are reported. Under another perspective, the last version of the Newton method to be investigated is an extension of the nonsmooth Newton method itself from the Euclidean context to the Riemannian, objecting to find a singularity of a special class of locally Lipschitz continuous vector fields. In particular, this method retrieves the classical nonsmooth Newton method to solve a system of nonsmooth equations. The well-definedness of the sequence generated by the method is ensured and the convergence analysis of the method is made under local and semi-local assumptions.Item On some boosted methods for DC programming and the extension of the DCA to hadamard manifolds(Universidade Federal de Goiás, 2021-12-17) Santos, Elianderson Meneses; Souza, João Carlos de Oliveira; http://lattes.cnpq.br/5875678751294224; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Souza, João Carlos de Oliveira; Bento, Glaydston de Carvalho; Cruz Neto, João Xavier da; Prudente, Leandro da FonsecaNesta tese são apresentados alguns novos métodos para otimização de funções DC. O primeiro deles, denominado BSSM, é proposto para resolver problemas de otimização DC sobre Rn onde a primeira componente DC é diferenciável a a segunda é possivelmente não diferenciável. O segundo método, que será chamado de nmBDCA, é uma extensão não monótona do método BDCA para lidar com problemas de otimização DC em Rn onde ambas as componentes DC são não diferenciáveis. O terceiro método é uma combinação do BSSM com o nmBDCA para tratar de problemas de otimização DC sobre um conjunto convexo fechado C com restrições lineares, onde a primeira componente DC da função objetivo é a soma de uma função convexa suave com uma função convexa não diferenciável, e a segundo componente DC é não diferenciável. O último método apresentado nesta tese é uma extensão do DCA para o contexto da otimização de funções DC em variedades de Hadamard.Item Newton's method for solving strongly regular generalized equation(Universidade Federal de Goiás, 2017-03-13) Silva, Gilson do Nascimento; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Karas, Elizabeth Wegner; Silva, Paulo José da Silva e; Melo, Jefferson Divino Gonçalves de; Gonçalves, Max Leandro NobreWe consider Newton’s method for solving a generalized equation of the form f(x) + F(x) 3 0, where f : Ω → Y is continuously differentiable, X and Y are Banach spaces, Ω ⊆ X is open and F : X ⇒ Y has nonempty closed graph. Assuming strong regularity of the equation and that the starting point satisfies Kantorovich’s conditions, we show that the method is quadratically convergent to a solution, which is unique in a suitable neighborhood of the starting point. In addition, a local convergence analysis of this method is presented. Moreover, using convex optimization techniques introduced by S. M. Robinson (Numer. Math., Vol. 19, 1972, pp. 341-347), we prove a robust convergence theorem for inexact Newton’s method for solving nonlinear inclusion problems in Banach space, i.e., when F(x) = −C and C is a closed convex set. Our analysis, which is based on Kantorovich’s majorant technique, enables us to obtain convergence results under Lipschitz, Smale’s and Nesterov-Nemirovskii’s self-concordant conditions.Item Computing inexact K-steepest descent directions and a new line search procedure for vector optimization(Universidade Federal de Goiás, 2022-03-24) Vieira, Flávio Pinto; Pérez, Luis Román Lucambio; http://lattes.cnpq.br/6532280983965503; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Pérez, Luis Román Lucambio; Prudente, Leandro da Fonseca; Fukuda, Ellen Hidem; Iusem, Alfredo NoelNeste trabalho, propomos uma nova busca linear para otimização vetorial e uma forma de calcular a direção σ-aproximada de máxima descida. Yunda Dong, em 2010 e 2012, introduziu um procedimento de busca linear para o método de Gradiente Conjugado usando apenas informações de primeira ordem, ou seja, sem utilizar valores funcionais. Estenderemos seus trabalhos para Otimização Vetorial. Estudaremos o método de gradiente conjugado, mostrando a convergência quando são utilizados os seguintes βk's: Fletcher-Reeves, conjugate descent, Dai-Yuan, Polak-Ribière-Polyak e Hestenes-Stiefel. Também usamos essa mesma busca linear para o método tipo-gradiente, mostrando sua convergência. Em 2004, Iusem e Graña Drummond introduziram o conceito de σ-aproximada K-diereção de máxima descida. Eles mostraram que ao substituir a direção de Cauchy por essas direções, o resultado de convergência da sequência gerada é o mesmo: todo ponto de acumulação é crítico. Apresentaremos um procedimento eficiente para calcular essas direções quando o cone K for finitamente gerado.Item Quadratic programming on the positive orthant with a quasiconvex objective function(Universidade Federal de Goiás, 2019-07-31) Zuñiga, Ruby Yohana Cuero; Ferreira, Orizon Pereira; http://lattes.cnpq.br/0201145506453251; Ferreira, Orizon Pereira; Gonçalves, Jefferson Divino; Prudente, Leandro da Fonseca; Sandoval, Wilfredo SosaIn this work, we will study a class of real symmetric matrices that we will call subdefinite, these matrices include the positive semidefinites. For our purpose we will focus on the merely positive subdefinite matrices, that is, those matrices that are positive subdefinite but are not positive semidefinite. We will discuss the quadratic functions on Rn + and show that these functions are quasiconvex not convex, when their matrix representation is given by a merely positive subdefinite matrix. In addition, we will present a result of great importance in quadratic programming given that it allows to reduce the quasiconvexity of these nonconvex quadratic functions to the pseudoconvexity in the semipositive orthant. Finally, we will study the conditional gradient method to solve the quadratic programming problem, where the objective function is of this type.