Theory and Implementation of the Savvy Ball Method with application to machine learning / Peter Sly Manosalvas Holguín ; tutor Diego Hernán Peluffo Ordoñez
Tipo de material: TextoIdioma: Inglés Idioma del resumen: Español Fecha de copyright: Urcuquí, 2020Descripción: 57 hojas : ilustraciones (algunas a color) ; 30 cm + 1 CD-ROMTema(s): Recursos en línea: Nota de disertación: Trabajo de integración curricular (Matemático/a). Universidad de Investigación de Tecnología Experimental Yachay. Urcuquí, 2020 Resumen: Actualmente, científicos computacionales han considerado el estudio de ecuaciones diferenciales de segundo orden, para brindar una trayectoria de búsqueda dinámica al entrenamiento de re- des neuronales artificiales. Estas están basadas en el método de B.T. Polyak. Investigaciones pasadas se han enfocado en el uso de este método para acelerar la tasa de convergencia a un mínimo local comparado al método steepest descent. Esta tesis se enfoca en el aspecto de op-timizacion global y asume a la función objetivo como Lipschitz continua en vez de dos veces Lipschitz diferenciable. Analizamos teóricamente los casos no continuos y convexos donde la EDO se generaliza como una Inclusión Diferencial Ordinaria. Mostramos resultados númericos de la implementación de nuestro método Savvy Ball mencionado antes como TOAST a través de la región paralela dada por la librería OpenMP.Tipo de ítem | Biblioteca actual | Signatura | Copia número | Estado | Fecha de vencimiento | Código de barras | Reserva de ítems | |
---|---|---|---|---|---|---|---|---|
Tesis | Biblioteca Yachay Tech | ECMC0033 (Navegar estantería(Abre debajo)) | 1 | No para préstamo | T000065 |
Trabajo de integración curricular (Matemático/a). Universidad de Investigación de Tecnología Experimental Yachay. Urcuquí, 2020
Incluye referencia bibliográfica (35-53)
Trabajo de integración curricular con acceso abierto
Texto (Hypertexto Links)
Actualmente, científicos computacionales han considerado el estudio de ecuaciones diferenciales de segundo orden, para brindar una trayectoria de búsqueda dinámica al entrenamiento de re- des neuronales artificiales. Estas están basadas en el método de B.T. Polyak. Investigaciones pasadas se han enfocado en el uso de este método para acelerar la tasa de convergencia a un mínimo local comparado al método steepest descent. Esta tesis se enfoca en el aspecto de op-timizacion global y asume a la función objetivo como Lipschitz continua en vez de dos veces Lipschitz diferenciable. Analizamos teóricamente los casos no continuos y convexos donde la EDO se generaliza como una Inclusión Diferencial Ordinaria. Mostramos resultados númericos de la implementación de nuestro método Savvy Ball mencionado antes como TOAST a través de la región paralela dada por la librería OpenMP.
Textos en inglés con resúmenes en español e inglés
No hay comentarios en este titulo.