Algoritmo paralelo para ensamblados de máquinas de aprendizaje

Por: Saravia Stein, Francisco EnriqueColaborador(es): Allende Olivares, Héctor (Comisión de tesis) [, Prof. guía] | UTFSM. Departamento de Informática (1994-) Departamento de Informática (1994 -) | UTFSM. Dirección General de Investigación y Postgrado. Programas de MagísterTipo de material: TextoTextoDetalles de publicación: Valparaíso: UTFS, 2010Descripción: xi, 83h.: ilTema(s): ALGORITMOS COMPUTACIONALES | PROGRAMACION PARALELA (Ciencia de la computación)Clasificación CDD: M 005.275 Nota de disertación: Tesis(Ing. Civil Informática) -- (Magister en ciencias de la Ingenieria informatica) Prof. guía: Héctor Allende Olivares Tema: [Resumen del autor]Tema: Durante mucho tiempo, diversas aplicaciones han recolectado conjuntos de datos que pueden conformar una base histórica para predecir comportamientos futuros. Estas bases de datos han sido utilizadas para alimentar algoritmos de aprendizaje de máquinas, que permiten crear modelos matemáticos para generalizar a partir de estos datos. Una técnica ampliamente utilizada es la creación de Ensamblados de Máquinas de Aprendizaje, que permite mejorar la capacidad de generalización que tiene una máquina individual debido a la compensación que realiza el grupo de máquinas sobre los errores individuales de cada una. En esta Tesis se trabajará con el algoritmo Resampling Local Negative Correlation (RLNC), el cual usa comunicación local para generar diversidad al entrenar ensamblados en el contexto de regresión usando aprendizaje supervisado. Sin embargo, este proceso consume grandes cantidades de recursos computacionales debido tanto a la cantidad de máquinas como a la cantidad de datos. La computación paralela ha permitido reducir los tiempos de ejecución en diversas aplicaciones, o bien lograr mejores soluciones en un tiempo acotado mediante el uso de conjuntos o dusters de computadores, donde cada unidad de procesamiento realiza una parte de la tarea en forma simultánea, lo que plantea el desafío de realizar una implementacion paralela del algoritmo RLNC que permita obtener mejores soluciones en un menor tiempo. En esta Tesis se estudió la influencia del tamaño del vecindario y del factor de control de diversidad en el proceso de entrenamiento. También se realizó una comparación con algoritmos clásicos de ensamblados respecto de la capacidad de generalización y de los tiempos de ejecución, utilizando conjuntos de datos reales y sintéticos. Finalmente, se realizó un análisis del desempeño paralelo, con el objetivo de determinar la escalabilidad de la implementacion desarrollada
Etiquetas de esta biblioteca: No hay etiquetas de esta biblioteca para este título. Ingresar para agregar etiquetas.
Valoración
    Valoración media: 0.0 (0 votos)
Existencias
Tipo de ítem Biblioteca actual Colección número de clasificación Copia número Estado Fecha de vencimiento Código de barras
Memorias Memorias Biblioteca Central
Memorias M 005.275 S243 (Navegar estantería(Abre debajo)) 1 Disponible 3560900192488

[Resumen del autor]

Durante mucho tiempo, diversas aplicaciones han recolectado conjuntos de datos que pueden conformar una base histórica para predecir comportamientos futuros. Estas bases de datos han sido utilizadas para alimentar algoritmos de aprendizaje de máquinas, que permiten crear modelos matemáticos para generalizar a partir de estos datos. Una técnica ampliamente utilizada es la creación de Ensamblados de Máquinas de Aprendizaje, que permite mejorar la capacidad de generalización que tiene una máquina individual debido a la compensación que realiza el grupo de máquinas sobre los errores individuales de cada una. En esta Tesis se trabajará con el algoritmo Resampling Local Negative Correlation (RLNC), el cual usa comunicación local para generar diversidad al entrenar ensamblados en el contexto de regresión usando aprendizaje supervisado. Sin embargo, este proceso consume grandes cantidades de recursos computacionales debido tanto a la cantidad de máquinas como a la cantidad de datos. La computación paralela ha permitido reducir los tiempos de ejecución en diversas aplicaciones, o bien lograr mejores soluciones en un tiempo acotado mediante el uso de conjuntos o dusters de computadores, donde cada unidad de procesamiento realiza una parte de la tarea en forma simultánea, lo que plantea el desafío de realizar una implementacion paralela del algoritmo RLNC que permita obtener mejores soluciones en un menor tiempo. En esta Tesis se estudió la influencia del tamaño del vecindario y del factor de control de diversidad en el proceso de entrenamiento. También se realizó una comparación con algoritmos clásicos de ensamblados respecto de la capacidad de generalización y de los tiempos de ejecución, utilizando conjuntos de datos reales y sintéticos. Finalmente, se realizó un análisis del desempeño paralelo, con el objetivo de determinar la escalabilidad de la implementacion desarrollada

Incluye anexos

Tesis(Ing. Civil Informática) -- (Magister en ciencias de la Ingenieria informatica) Prof. guía: Héctor Allende Olivares

h. 83

2