Tesis doctoral de Dionisio Félix Yañez Avendaño
El tratamiento de señales digitales se ha convertido en los últimos años en una de las tareas más interesantes y de mayor recorrido para la investigación matemática. Hay aplicaciones directas en el campo de la informática, redes de comunicación, tratamientos médicos, tratamientos de recuperación de obras de arte, de fotografías. Aplicaciones en física, mecánica, desarrollos en películas animadas y otras muchas que se conocen y que se conocerán a lo largo del tiempo. el tratamiento de señales podemos decir que comienza en la época de fourier (1807), su aplicación en funciones periódicas y su transformada para señales discretas es utilizada aún hoy con éxito para la compresión y eliminación de ruido. Sin embargo la transformada de fourier está deslocalizada en tiempo frecuencia (tan sólo nos ofrece la frecuencia) lo que provocó en los años $80$ el desarrollo de las primeras bases wavelets. Estas bases tienen una localización tiempo frecuencia y gracias a los filtros que podemos obtener de ellas se pueden utilizar en el tratamiento de señales. los esquemas de subdivisión interpolatorios son reglas que nos permiten refinar un conjunto de datos interpolando los valores intermedios a los puntos dados utilizando combinaciones lineales de los valores vecinos. estas dos ideas junto a la resolución de ecuaciones en derivadas parciales es lo que indujo a harten a elaborar un marco general de multiresolución que permite por medio de dos operadores fundamentales: decimación y predicción establecer una conexión entre dos niveles de resolución. La idea de harten es sencilla pero a su vez está cargada de grandes posibilidades pues generaliza las bases wavelets permitiendo la introducción de elementos no lineales en sus operadores. ¿en qué consiste la idea de harten? En primer lugar, se dio cuenta de que si tenemos un conjunto de valores discretos en una determinado nivel de resolución k, éstos poseen una naturaleza, es decir, procedían de una cierta función continua f y habían sido discretizados dependiendo de la naturaleza de los datos, así pues generó un operador discretización. Por otra parte si deseamos tener mayor resolución, es decir determinar más puntos, necesitamos reconstruir primero esa señal continua que «perdimos» en la decimación por medio de un operador que llamó reconstrucción, y con estos operadores definió los ya mencionados. es en el operador donde se introduce toda la teoría interpolatoria y donde podemos utilizar interpolación no lineal como los métodos presentados en el contexto de solución de ecuaciones diferenciales para capturar las discontinuidades, métodos eno y weno. harten impone una serie de condiciones a estos operadores, la primera de ellas es que el operador sea lineal y sobreyectivo, para ello propone las distintas potencias de la función de haar. En la literatura sobre multiresolución podemos encontrar otros operadores decimación no splines. Nosotros no trabajaremos en este sentido, fijaremos varios operadores decimación y trabajaremos con ellos. La segunda es que estos operadores cumplan una condición de consistencia: si tenemos una señal y mejoramos su resolución, es decir, predecimos estos datos y después decimamos esta predicción entonces recuperaremos los datos iniciales. sin embargo en algunas aplicaciones (como compresión de imágenes digitales) no necesitamos esta propiedad, en esta memoria se presenta una alternativa para trabajar con operadores no consistentes que ofrece buenos resultados y que conserva las propiedades. Por tanto omitimos esta segunda propiedad que harten señaló en su marco general. en esta tesis introducimos otra alternativa al operador reconstrucción. En lugar de utilizar elementos únicamente interpolatorios usamos aproximación por medio de métodos de núcleo. Consisten en aproximar a un cierto valor dependiendo de la cercanía (o lejanía) de los valores de su entorno. Este método generaliza los métodos interpolatorios introduciendo posibles ventajas al poder utilizar gran cantidad de puntos sin subir el grado del polinomio interpolador. Son muchas las variables que componen un problema de aproximación por métodos de núcleo. En esta tesis estudiamos algunas posibilidades y las ventajas y desventajas que suscitan. nos planteamos la siguiente pregunta: conociendo la señal original, ¿por qué no utilizar esta información para generar un operador predictor más adaptativo? Respondemos a ésta utilizando técnicas estadísticas de aprendizaje y generamos predictores que se adaptan a los contornos de la imagen y al nivel de resolución que tenemos. Este tipo de resolución nos induce a redefinir algunos conceptos que aparecen en el contexto de multiresolución y que debemos rediseñar para este tipo específico de multiresolución. para ambas vías, tanto para multiresolución utilizando métodos de núcleo como para multiresolución de aprendizaje analizamos las distintas propiedades que tienen, las comparamos con los métodos clásicos y mostramos sus resultados. esta tesis presenta de manera sencilla dos operadores predicción de multiresolución distintos que abren las puertas a otro gran número de aplicaciones. Durante la realización de estos métodos han surgido diversos problemas. El desarrollo de esta tesis es la solución a dichos problemas.
Datos académicos de la tesis doctoral «Learning multiresolution: transformaciones multiescala derivadas de la teoría estadística de aprendizaje y aplicaciones«
- Título de la tesis: Learning multiresolution: transformaciones multiescala derivadas de la teoría estadística de aprendizaje y aplicaciones
- Autor: Dionisio Félix Yañez Avendaño
- Universidad: Universitat de valéncia (estudi general)
- Fecha de lectura de la tesis: 15/12/2010
Dirección y tribunal
- Director de la tesis
- Francesc ArÁ ndiga Llaudes
- Tribunal
- Presidente del tribunal: guillermo Ayala gallego
- coloma Ballester nicolau (vocal)
- eulalia Martínez molada (vocal)
- albert Cohen (vocal)