Fpfs: un sistema de ficheros paralelo basado en dispositivos osd+

Tesis doctoral de Ana Aviles Gonzalez

A medida que los supercomputadores aumentan su potencia, es posible ejecutar aplicaciones con mayor carga computacional y que procesan volúmenes de datos cada vez más grandes. Tradicionalmente, para proporcionar un rendimiento rápido y fiable, los sistemas de ficheros paralelos se centraban en la distribución escalable de los datos. Sin embargo, mayores cargas de trabajo presionan los servidores de metadatos todavía más, con un número de peticiones de metadatos cada vez mayor. Estas operaciones hacen un gran consumo de cpu, y, generalmente, un sólo servidor de metadatos ya no es suficiente. En esta tesis presentamos la arquitectura de un nuevo sistema de ficheros paralelo que proporciona un servicio de metadatos completamente distribuido. Creemos que esto es clave al enfrentarse a la era exabyte en los sistemas de ficheros paralelos. Nuestra primera propuesta es "fusion parallel file system" (fpfs). Fpfs es un sistema de ficheros paralelo donde todos los dispositivos trabajan como servidores tanto de datos como de metadatos. Con esta arquitectura sencilla incrementamos la capacidad del clúster de metadatos, que pasa a ser tan grande como el clúster de datos. Asimismo, incrementamos el rendimiento y escalabilidad de todo el sistema. Nuestra segunda contribución es el dispositivo osd+. Proponemos el uso de dispositivos osd mejorados para construir la arquitectura de fpfs. Los osd regulares sólo pueden manejar objetos de datos y sus operaciones; nuestra propuesta amplía los dispositivos osd, de manera que también puedan manejar metadatos a través de lo que hemos llamado "objetos de directorio". Nuestra tercera aportación es el diseño e implementación de un clúster de metadatos basado en dispositivos osd+ para fpfs. En el clúster distribuimos de forma uniforme los metadatos a través de los nodos del clúster por medio de los objetos de directorio. Nuestra distribución del espacio de nombres minimiza las migraciones en caso de renombramientos de directorios o de cambios dentro del clúster. Garantizamos la atomicidad por medio de un protocolo de compromiso en tres fases y de los sistemas de ficheros locales en cada osd+. Nuestra cuarta contribución es el diseño e implementación del manejo de directorios gigantes en fpfs. Estos directorios almacenan desde miles a millones de entradas que son accedidas por miles de clientes concurrentemente. Utilizamos los objetos de directorio para permitir a fpfs distribuir de forma dinámica esos directorios a través de varios servidores. A su vez, este diseño mejora el manejo que hacemos de los renombramientos, evitando gran parte de las migraciones de datos. Nuestra última contribución es el diseño e implementación de las operaciones por lotes. Estas operaciones juntan cientos o miles de entradas del mismo tipo de operación en un sólo paquete. Con ellas conseguimos hacer un mejor uso de los recursos existentes, desplazando, en muchos casos, el cuello de botella de la red a los servidores. Para evaluar el rendimiento de nuestra propuesta, hemos implementado un prototipo del servicio de metadatos en un entorno linux, y comparado su rendimiento con otros sistemas de ficheros paralelos como: lustre, orangefs y ceph. En las pruebas, se han usado distintos tipos de sistemas de ficheros, y distintos tipos de discos (discos duros y de estado sólido) en los servidores. Asimismo, se han usado benchmarks con distintos tipos de carga de trabajo de metadatos con el fin de evaluar el rendimiento de los metadatos. Los experimentos muestran que fpfs puede crear, stat, y borrar cientos de miles de ficheros vacíos por segundo con unos pocos osd+s. Los ratios obtenidos con fpfs son un orden de magnitud mayor que el rendimiento que obtiene lustre con un sólo servidor de metadatos, y que el rendimiento de orangefs y ceph con un clúster de metadatos. the growth in the number of nodes and computational power of supercomputers allow us to process not only larger and more compute-intensive workloads, but also data-intensive workloads that access and store vast amounts of data. Traditionally, to provide fast and reliable performance, parallel file systems have focused on scalable data distribution to share out the storage and management of large data volumes between several nodes. However, increasing workload is now pushing metadata servers to their limits, with not only greater volumes of data but also critically ever-greater numbers of metadata requests. Metadata operations are very cpu consuming, and a single metadata server is often no longer sufficient. In this thesis we define a new parallel file system architecture that provides a completely distributed metadata service. We believe this is key as we approach the exabyte scale-era in parallel file systems. The main contributions to reach this aim are the following. First, we introduce the fusion parallel file system (fpfs) that presents a novel architecture that merges the metadata cluster and the data cluster into one large cluster through the use of a single type of server. This enlarges the capacity of the metadata cluster because it becomes as large as the data cluster, also augmenting the overall system capacity. Second, we propose osd+ devices to support the fpfs architecture. Object-based storage devices (osds) have proved to be a perfect tool for parallel file systems, since their inherent intelligence allows file systems to delegate tasks to the devices themselves, such as the management of the device space. Osd+s are improved object-based storage devices that, in addition to handle data objects, as traditional osds do, can also manage "directory objects", a new type of object able to store and handle metadata. Third, we develop a scalable metadata cluster made up of hundreds to thousands of osd+ devices. The design takes into account essential aspects, like a balanced namespace distribution, able to adapt to cluster changes, and the atomicity of operations that involve several osd+s. Fourth, we enlarge the metadata service capabilities by including support for huge directories. Directories storing thousand to millions of files accessed by thousands of clients at the same time are becoming common in file systems, and present performance downgrades if not handled properly. We modify osd+ devices to dynamically distribute these directories among several objects in different osd+s in the cluster. Finally, we propose the use of batch operations, which embed several operations of the same type into a single network packet. This way, we optimize network resources, and significantly reduce network traffic on the system, reducing network delays and round-trips. To evaluate the performance of our proposal, we have implemented a prototype built on a linux environment, and compared its performance with other well-known parallel file systems as: lustre, orangefs, or ceph. In the tests, we have used different backend file systems, and different type of backend devices (hard disks, and solid state drives). We have run benchmarks with different types of metadata workloads, in order to evaluate the metadata performance. Experiments show that fpfs can create, stat and unlink hundreds of thousands of empty files per second with a few osd+s. The rates obtained by fpfs are an order of magnitude better than what lustre achieves when a single metadata server is used, and what orangefs and ceph achieve when a metadata cluster is deployed.

 

Datos académicos de la tesis doctoral «Fpfs: un sistema de ficheros paralelo basado en dispositivos osd+«

  • Título de la tesis:  Fpfs: un sistema de ficheros paralelo basado en dispositivos osd+
  • Autor:  Ana Aviles Gonzalez
  • Universidad:  Murcia
  • Fecha de lectura de la tesis:  16/12/2014

 

Dirección y tribunal

  • Director de la tesis
    • María Pilar Gonzalez Ferez
  • Tribunal
    • Presidente del tribunal: angelos Bilas
    • María de los santos Pérez hernández (vocal)
    • emmanouil Marazakis (vocal)
    • Antonio Cortés roselló (vocal)

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio