Contenidos
Charla «Anders Ynnerman: Visualización de la explosión de datos médicos» de TEDxGöteborg 2010 en español.
Hoy en día las exploraciones médicas producen miles de imágenes y terabytes de datos por paciente en cuestión de segundos, pero ¿cómo hacen los médicos para analizar esta información y determinar qué es lo útil? En TEDxGöteborg, Anders Ynnerman, experto en visualización científica, nos muestra novedosas y sofisticadas herramientas – como las autopsias virtuales- para analizar esta multiplicidad de datos y echa un vistazo a algunas tecnologías médicas que parecen de ciencia ficción. Esta charla contiene algunas imágenes médicas explícitas.
- Autor/a de la charla: Anders Ynnerman
- Fecha de grabación: 2010-11-20
- Fecha de publicación: 2011-01-20
- Duración de «Anders Ynnerman: Visualización de la explosión de datos médicos»: 996 segundos
Traducción de «Anders Ynnerman: Visualización de la explosión de datos médicos» en español.
Voy a empezar con un pequeño desafío, el desafío del tratamiento de datos de los datos que procesamos en cuestiones médicas.
Realmente es un desafío enorme.
Y este es nuestro caballo de batalla: el escáner de tomografías, el tomógrafo computado.
Es un dispositivo excepcional.
Usa rayos X, haces de rayos X, que giran muy rápido por todo el cuerpo humano.
Tarda unos 30 segundos en pasar por toda la máquina y genera como salida del proceso ingentes cantidades de información.
Por eso es una máquina excepcional que puede usarse para mejorar la asistencia sanitaria.
Pero, como dije, también representa un desafío.
Y en esta imagen de aquí puede verse bien el desafío.
Se trata de la explosión de datos médicos de hoy en día.
Tenemos este problema.
Retrocedamos en el tiempo.
Remontémonos unos años en el tiempo y veamos qué sucedía entonces.
Estas máquinas que salieron -empezaron a aparecer en los años 70- escaneaban cuerpos humanos generando unas 100 imágenes del cuerpo.
Me he tomado la libertad, por una cuestión de claridad, de traducir eso a magnitudes de datos.
Eso correspondería a unos 50 Mb de datos, algo pequeño si pensamos en los datos que podemos manejar hoy en nuestros dispositivos móviles.
Si lo comparamos con las guías telefónicas es como una pila de un metro de guías telefónicas.
Viendo lo que estamos haciendo hoy con estas máquinas que tenemos podemos, en pocos segundos, obtener 24.000 imágenes de un cuerpo.
Y eso equivaldría a unos 20 Gb de datos u 800 guías telefónicas.
La pila de guías telefónicas sería de 200 metros.
Lo que está por suceder -lo estamos viendo, está empezando- es una tendencia tecnológica que observamos ahora: se está comenzando a observar también la dimensión tiempo.
Así, estamos capturando también la dinámica del cuerpo.
Supongamos que vamos a recolectar datos durante 5 segundos y eso corresponde a 1 terabyte de datos.
Equivale a 800.000 guías, a una pila de 16 Km de guías, para un solo paciente, un conjunto de datos.
A esto es a lo que nos enfrentamos.
Este es el desafío enorme que tenemos.
Y ya hoy en día esto representa 25.000 imágenes.
Imaginen esos días en los que los radiólogos hacían la tarea.
Colocaban 25.000 imágenes hacían algo así como 25 mil veces «bien, bien, ¡ahí está el problema!» Ya no pueden hacer eso; resulta imposible.
Entonces tenemos que hacer algo un poquito más inteligente.
Lo que hacemos es consolidar todos estos cortes.
Imaginen que hacen cortes del cuerpo en todas estas direcciones y luego tratan de consolidar los cortes en una pila de datos, en un bloque de datos.
Esto es lo que estamos haciendo.
Colocamos este gibabyte o terabyte de datos en este bloque.
Pero, claro, el bloque de datos contiene los rayos X absorbidos por todos los puntos del cuerpo humano.
Tenemos que encontrar una manera de ver las cosas que queremos ver y hacer transparentes las cosas que no queremos ver.
Hay que transformar los datos en algo que se parezca a esto.
Y esto es un desafío.
Lograr esto es un desafío enorme.
El uso de computadoras, si bien son cada vez más rápidas y mejores, es un desafío tratar con gigabytes de datos, terabytes de datos, y extraer la información relevante.
Quiero ver el corazón, quiero ver los vasos sanguíneos, quiero ver el hígado, incluso quizá encontrar un tumor en algunos casos.
Y es ahí donde entra en juego mi pequeña.
Esta es mi hija.
Esto es de las 9 de esta mañana.
Está jugando con un videojuego, con tan sólo dos años está en la gloria.
Ella es la fuerza motriz que impulsa el desarrollo de unidades de procesamiento gráfico.
A medida que los niños juegan a los videojuegos los gráficos se vuelven cada vez mejores.
Así que, por favor, vuelvan a casa y díganle a los niños que jueguen más porque eso es lo que necesito.
Lo que está dentro de esta máquina me permite hacer las cosas que hago con los datos médicos.
En realidad estoy usando estos dispositivos, extraordinarios y pequeños.
Y, ya saben, me retrotraigo quizá 10 años en el tiempo a cuando conseguí los fondos para comprar mi primer equipo gráfico.
Era una máquina enorme.
Había gabinetes de procesadores, almacenamiento, etc.
Pagué cerca de un millón de dólares por esa máquina.
Esa máquina hoy es tan rápida como mi iPhone.
Todos los meses salen nuevas tarjetas gráficas.
Estas son algunas de las últimas versiones: NVIDIA, ATI, Intel está por ahí también.
Y, ya saben, por unos cientos de dólares se consiguen componentes para el equipo informático, y pueden hacerse cosas extraordinarias con estas tarjetas gráficas.
Esto es lo que nos está permitiendo manejar la explosión de datos médicos; esto y un trabajo muy ingenioso en materia de algoritmos, compresión de datos, y de extracción de información relevante para las investigaciones en curso.
Ahora les voy a mostrar unos ejemplos de lo que puede hacerse.
Estos son datos capturados con un tomógrafo.
Pueden ver que se trata de datos completos.
Es una mujer.
Se ve el cabello y las estructuras individuales de la mujer.
Pueden ver que hay dispersión de rayos X en los dientes, en el metal de los dientes.
De allí vienen todos estos artefactos.
De forma totalmente interactiva, con tarjetas gráficas comunes, en un equipo normal, puedo hacer un plano de video.
Y como, por supuesto, tiene todos los datos puedo rotarlo, verlo desde distintos ángulos, y ver que esta mujer tenía un problema.
Tenía una hemorragia cerebral que se había solucionado con un pequeño stent una espiral de metal que está sujetando el vaso.
Y con sólo cambiar las funciones puedo decidir qué cosa va a ser transparente y qué es lo que se va a ver.
Puedo ver la estructura del cráneo y que, bueno, este es el lugar donde abrieron el cráneo de la mujer y allí es donde intervinieron.
Son imágenes extraordinarias.
Son realmente de alta resolución y nos muestran lo que podemos hacer hoy en día con las tarjetas gráficas comunes.
Hemos hecho un uso intensivo de esto tratando de introducir gran cantidad de datos en el sistema.
Y una de las aplicaciones en las que hemos trabajado -esto atrajo la atención del mundo entero- es la aplicación de autopsias virtuales.
Así que, de nuevo, analizando ingentes cantidades de datos pueden verse esos barridos de cuerpo entero.
Pasamos todo el cuerpo por este tomógrafo y en unos segundos obtenemos un conjunto de datos de todo el cuerpo.
Esto es de una autopsia virtual.
Pueden ver que gradualmente quito capas de piel.
Primero se vio la bolsa que cubría el cuerpo después, al quitar la piel, se ven los músculos y finalmente puede verse la estructura ósea de la mujer.
En este momento me gustaría hacer hincapié en que, con el mayor de los respetos por las personas que van a ver, voy a mostrarles unos casos de autopsias virtuales así que con gran respeto por las personas que han muerto en circunstancias violentas voy a mostrarles estas imágenes.
En el caso forense ha habido aproximadamente 400 casos hasta el momento sólo en la parte de Suecia de la que provengo, que ha sido objeto de autopsias virtuales durante los últimos 4 años.
La dinámica típica de trabajo es así: la policía decide -en la tarde, cuando llega un caso- decide, bueno, este es un caso que requiere autopsia.
Por la mañana, entre las 6 y las 7 de la mañana, se transporta el cuerpo en la bolsa de plástico hasta nuestro centro y se pasa por uno de los tomógrafos.
Luego el radiólogo, junto con el patólogo y a veces con el científico forense, analizan los datos de salida y tienen una sesión conjunta.
Y entonces deciden qué hacer en la autopsia física real posterior.
Mirando algunos casos este es uno de los primeros casos que tuvimos.
Pueden ver los detalles del conjunto de datos; tiene resolución muy alta.
Y gracias a nuestros algoritmos podemos analizar todos los detalles.
Y, de nuevo, es totalmente interactivo así que puede rotarse para analizar cosas en tiempo real en estos sistemas de aquí.
Sin revelar mucho sobre este caso, se trata de un accidente de tráfico, un conductor ebrio que atropelló a una mujer.
Y es muy, muy fácil de ver los daños en la estructura ósea.
La causa de la muerte es la fractura del cuello.
Esta mujer terminó debajo del auto así que sufrió un fuerte impacto en esta lesión.
Aquí hay otro caso: un apuñalamiento.
De nuevo, nos está mostrando qué hacer.
Es muy fácil detectar artefactos metálicos dentro del cuerpo.
Pueden verse algunos de los artefactos de los dientes -en realidad, el relleno de los dientes- dado que configuré la función que me muestra metales haciendo transparente todo lo demás.
Este es otro caso violento.
Esto no mató realmente a la persona.
La persona murió a causa de las puñaladas en el corazón pero dejaron el cuchillo atravesado en los globos oculares.
Aquí hay otro caso.
Nos resulta muy interesante poder llegar a ver cosas como las puñaladas.
Aquí puede verse que el cuchillo atravesó el corazón.
Se ve muy fácilmente cómo el aire se había estado filtrando de un lado al otro, algo difícil de lograr en una autopsia física normal, común.
Así que es de gran ayuda en la investigación criminal para establecer la causa de la muerte y en algunos casos también dirige la investigación en la dirección correcta para descubrir la autoría del crimen.
Este es otro caso que creo es interesante.
Aquí pueden ver la bala alojada bien cerca de la columna vertebral de esta persona.
Y lo que hicimos fue transformar la bala en una fuente lumínica para que realmente brillara y esto facilitó la identificación de los fragmentos.
En una autopsia física si uno tiene que escarbar en el cuerpo en busca de estos fragmentos es algo muy difícil de hacer.
Una de las cosas que realmente me complace mucho poder mostrarles aquí hoy es nuestra mesa de autopsias virtuales.
Es un dispositivo táctil que hemos desarrollado en base a estos algoritmos que usan tarjetas gráficas comunes.
Esta es su apariencia, simplemente para darles una idea de su aspecto.
Funciona igual que un iPhone gigante.
Hemos implementado todos los gestos que pueden hacerse sobre la mesa y puede concebirse como una interfaz táctil enorme.
Así que si estaban pensando en comprar un iPad olvídenlo; lo que desean es esto.
Steve, espero que estés escuchando esto, correcto.
Es un pequeño dispositivo muy lindo.
Así que si tienen la oportunidad, por favor, pruébenlo.
Es realmente una experiencia práctica.
Ha suscitado mucha atención y estamos tratando de desarrollarlo y de usarlo con fines educativos pero también, quizá en el futuro, en un contexto más clínico.
Hay un video en YouTube que pueden bajar y mirar si quieren transmitir la información a otras personas sobre las autopsias virtuales.
Bueno, ya que estamos hablando de cosas táctiles, pasemos a datos que tocan, que conmueven.
Esto por el momento es ciencia ficción así que nos transportamos al futuro.
Esto no es algo que los médicos estén usando ahora mismo pero espero que suceda en el futuro.
Lo que ven a la izquierda es un dispositivo táctil.
Es un lapicito mecánico que tiene dentro motores muy, muy veloces.
Así puedo generar una reacción háptica .
De modo que cuando toco virtualmente los datos se generan fuerzas táctiles en el lápiz y así obtengo una respuesta.
En este caso particular se trata del barrido de una persona viva.
Tengo este lápiz, analizo los datos, muevo el lápiz hacia la cabeza y de repente siento una resistencia.
Así puedo sentir la piel.
Si presiono un poquito más voy a atravesar la piel y a sentir la estructura ósea del interior.
Si presiono aún más fuerte voy a atravesar la estructura ósea sobre todo cerca del oído donde el hueso es muy blando.
Y luego puedo sentir el interior del cerebro, como si fuera algo fangoso .
Así que está muy bien.
Y para ir incluso más lejos, esto es un corazón.
Y esto es posible también gracias a estos nuevos escáneres excepcionales que en apenas 0,3 segundo escanean todo el corazón con la secuencia de tiempo incluida.
Así que analizando este corazón aquí puedo reproducir un video.
Este es Karljohan, uno de mis estudiantes de posgrado que está trabajando en el proyecto.
Está sentado frente al dispositivo háptico, al sistema de respuesta háptica, está moviendo su lápiz hacia el corazón y ahora el corazón está latiendo frente a él así que puede ver cómo late el corazón.
Él toma el lápiz, lo mueve hacia el corazón, lo coloca sobre el corazón, y luego siente los latidos del paciente vivo real.
Luego puede examinar cómo se mueve el corazón.
Puede entrar, presionar dentro del corazón y sentir realmente cómo se mueven las válvulas.
Creo que este es el futuro de los cardiólogos.
Quiero decir, probablemente sea una fantasía para un cardiólogo poder meterse en el corazón del paciente antes de practicar la cirugía y hacerlo con datos de resolución de alta calidad.
Así que es realmente algo genial.
Ahora vamos aún más lejos en la ciencia ficción.
Hemos oído hablar de la resonancia magnética funcional.
Este es un proyecto realmente interesante.
La resonancia usa campos magnéticos y frecuencias de radio para escanear el cerebro, o cualquier parte del cuerpo.
Lo que obtenemos de esto es información sobre la estructura del cerebro pero también podemos medir la diferencia entre las propiedades magnéticas de la sangre oxigenada y las de la sangre con poco oxígeno.
Eso significa que es posible trazar un mapa de la actividad cerebral.
Es algo en lo que hemos estado trabajando.
Acaban de ver allí a Motts, el ingeniero de investigación, entrando al sistema de resonancia magnética y llevaba gafas.
Podía ver con las gafas.
Así que le pude mostrar cosas mientras estaba en el aparato.
Y esto es un poco raro porque allí Motts está viendo su propio cerebro.
Motts está haciendo algo, probablemente está haciendo así con la mano derecha, porque se activó el lado izquierdo en la corteza motora.
Y al mismo tiempo puede verlo.
Estas visualizaciones son completamente nuevas.
Es algo que hemos estado investigando durante mucho tiempo.
Esta es otra secuencia del cerebro de Motts.
Aquí le pedimos que cuente desde 100 hacia atrás.
Así que empezó «100, 97, 94» y luego va hacia atrás.
Pueden ver cómo trabaja el pequeño procesador matemático aquí arriba en su cerebro e ilumina todo el cerebro.
Bueno, esto es fantástico.
Podemos hacerlo en tiempo real.
Podemos investigar cosas.
Podemos pedirle hacer cosas.
Pueden ver también que su corteza visual está activa en la parte posterior de la cabeza, porque es ahí donde está viendo, viendo su propio cerebro.
Y también está escuchando nuestras instrucciones cuando le pedimos que haga cosas.
La señal también es muy profunda dentro del cerebro pero brilla todo porque todos los datos están dentro de este volumen.
Y en un segundo van a ver…
Motts, ahora mueve el pie izquierdo.
Él hace así.
Durante 20 segundos está haciendo así y de pronto se ilumina aquí arriba.
Se produce una activación de la corteza motora allí arriba.
Es genial.
Creo que es una gran herramienta.
Y relacionándolo con la charla previa esto es algo que podríamos usar como herramienta para entender realmente el funcionamiento de las neuronas y del cerebro y podemos hacerlo con una calidad visual muy alta y con una resolución muy rápida.
En el centro también nos divertimos un poco.
Esta es una TAC, tomografía asistida por computadora.
Esta es una leona del zoológico local de las afueras de Norrköping en Kolmarden, Elsa.
Elsa vino al centro y la sedaron para meterla en el escáner.
Luego, claro, obtuve todo el conjunto de datos de la leona.
Y puedo hacer imágenes muy lindas como esta.
Puedo quitar las capas de la leona.
Puedo ver dentro de ella.
Hemos estado experimentando con esto.
Creo que es una gran aplicación para el futuro de esta tecnología.
Porque se sabe muy poco de la anatomía animal.
Lo que conocen los veterinarios es información muy elemental.
Nosotros podemos escanear todo tipo de cosas, todo tipo de animales.
El único problema es meterlos en la máquina.
Aquí hay un oso.
Es un poco complicado meterlo allí.
El oso es un animal tierno y amistoso.
Y aquí está.
He aquí el hocico del oso.
Es posible que quisieran abrazarlo hasta que yo cambie la función y vean esto.
Así que tengan cuidado con el oso.
Para terminar quisiera agradecer a todas las personas que me han ayudado a generar estas imágenes.
Esto ha demandado un gran esfuerzo, recopilar los datos y desarrollar los algoritmos, codificar todo el software.
Son personas con mucho talento.
Mi lema es que siempre contrato personas más inteligentes que yo y la mayoría de ellos son más inteligente que yo.
Así que muchas gracias.
(Aplausos)
https://www.ted.com/talks/anders_ynnerman_visualizing_the_medical_data_explosion/