oppure
Accedi per attivare gli ordini 1-Click.
oppure
Sì, voglio provare gratuitamente
Amazon Prime!
Altre opzioni di acquisto
Ne hai uno da vendere? Vendi i tuoi articoli qui
Ci dispiace. Questo articolo non è disponibile in
Immagine non disponibile per
Colore:

 
Dillo alla casa editrice.
Vorrei leggere questo libro su Kindle

Non hai un Kindle? Scopri Kindle, oppure scarica l'applicazione di lettura Kindle GRATUITA.

GRADIENT TYPE METHODS FOR LARGE SCALE OPTIMIZATION: MONOTONE DIAGONAL UPDATING SCHEMES FOR UNCONSTRAINED OPTIMIZATION [Copertina flessibile]

Mahboubeh Farid , Leong Wah June

Prezzo: EUR 47,15 Spedizione gratuita. Dettagli
  Tutti i prezzi includono l'IVA.
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
Disponibilità immediata.
Venduto e spedito da Amazon. Confezione regalo disponibile.
Vuoi riceverlo mercoledì 27 agosto? Ordina entro e scegli la spedizione 1 giorno. Dettagli

Descrizione del libro

5 maggio 2011
The focus of this book is on finding the unconstrained minimizer of a function. Specifically, we will focus on the Barzilai and Borwein (BB) method that is a famous two-point stepsize gradient method. Due to BB method's simplicity, low storage and numerical efficiency, the BB method has received a good deal of attention in the optimization community but despite all these advances, stepsize of BB method is computed by means of simple approximation of Hessian in the form of scalar multiple of identity and especially the BB method is not monotone, and it is not easy to generalize the method to general nonlinear functions. Due to the presence of these deficiencies, we introduce new gradient-type methods in the frame of BB method including a new gradient method via weak secant equation, improved Hessian approximation and scaling the diagonal updating. Our proposed methods consider approximation of Hessian in diagonal matrix. Incorporate with monotone strategies, the resulting algorithms belong to the class of monotone gradient methods with globally convergence. Numerical results suggest that for non-quadratic minimization problem, the new methods clearly outperform the BB method.

Descrizione prodotto

L'autore

Mahboubeh Farid, PhD: Postdoctoral fellow at Institute for Mathematical Research, studied PhD (University Putra Malaysia) in Nonlinear Optimization from 2006 to 2009. Leong Wah June: PhD (University Putra Malaysia) in Nonlinear Optimization. He is currently a Lecturer at University Putra Malaysia.

Dettagli prodotto


Vendi la versione digitale di questo libro nel Kindle Store

Se sei un editore o un autore e detieni i diritti digitali di un libro, puoi vendere la versione elettronica nel Kindle Store. Maggiori informazioni

Recensioni clienti

Non sono ancora presenti recensioni clienti.
5 stelle
4 stelle
3 stelle
2 stelle
1 stella

Ricerca articoli simili per categoria