La computación en el borde (edge computing) ha emergido como una tecnología clave en el campo de la salud, proporcionando soluciones efectivas a los retos de latencia, seguridad, fiabilidad y ancho de banda que enfrentan las aplicaciones sanitarias modernas. Esta tecnología permite que dispositivos como teléfonos inteligentes y pasarelas compactas realicen preprocesamiento de datos y análisis de bajo nivel, lo que aligera la carga de los servidores en la nube y reduce el tiempo de respuesta.
En el contexto de la salud, la computación en el borde se utiliza para procesar datos provenientes de sensores de campo, como los dispositivos de monitoreo de salud que se conectan a sistemas de computación en la nube para tareas complejas. Esta arquitectura híbrida, con el borde manejando el preprocesamiento y la nube encargándose de las tareas de alto rendimiento y almacenamiento de datos, permite no solo mejorar la eficiencia operativa, sino también optimizar la experiencia tanto de pacientes como de médicos.
Uno de los avances más prometedores en este campo es la computación móvil en el borde (MEC), diseñada para lograr objetivos de latencia ultrabaja de 1 ms, acercando los recursos de procesamiento a las redes de acceso radio (RAN) en redes 4G y 5G. Este enfoque mejora la eficiencia al proporcionar un entorno de servicio de TI y capacidades de computación en la nube más cercanas a la red móvil, lo que facilita un acceso en tiempo real a la información de la red y permite aplicaciones más rápidas y seguras. Sin embargo, aunque los desafíos relacionados con la seguridad y la privacidad en la nube se abordan parcialmente mediante la computación en el borde, aún no existen soluciones infalibles en términos de protección de datos.
A medida que la computación en la nube se ve limitada en su capacidad para manejar grandes volúmenes de datos de IoT sin introducir latencia, la computación en el borde aparece como una alternativa crucial. Por ejemplo, un prototipo que utiliza un dispositivo personalizado para recolectar trazos de ECG y un teléfono inteligente como pasarela de niebla (fog) ha demostrado ser eficaz para permitir que los pacientes compartan sus datos con los médicos y reciban retroalimentación en tiempo real. Esta solución también permite a los pacientes monitorear su estado de salud de manera independiente y notificar inmediatamente a las autoridades en situaciones de emergencia. El sistema modular de este prototipo permite cambiar fácilmente los sensores para recolectar otros tipos de señales vitales, lo que amplía su versatilidad.
A pesar de las ventajas evidentes de la computación en el borde, la solución también presenta algunas limitaciones. El primero es la disponibilidad limitada de redes 5G en muchas regiones del mundo. Aunque países como China, EE. UU. y varias naciones de Europa han comenzado a implementar estas redes, todavía falta tiempo para que estén disponibles de manera universal y faciliten la recolección y transmisión de datos detallados. Otro desafío es la dificultad de comparar y optimizar los modelos y métricas de evaluación en la computación en el borde, debido a la relativa novedad de estas tecnologías. Los modelos en estudio aún no se pueden comparar de manera efectiva debido a las variaciones en sus capacidades computacionales y arquitecturas.
Además, el concepto de abstracción de datos representa un desafío significativo. Para evitar la sobrecarga de datos, la computación en el borde debe extraer solo las características más relevantes de los datos, enviando solo la información esencial a los clusters de computación externos. Sin embargo, la capacidad actual de la computación en el borde para extraer características importantes de grandes volúmenes de datos en tiempo real sigue siendo limitada. Para superar este obstáculo, se ha propuesto el uso de plataformas virtualizadas de computación en el borde multi-acceso (vMEC), que aprovechan las redes 5G en crecimiento y son altamente configurables con las arquitecturas de red existentes, como la virtualización de funciones de red (NFV). No obstante, esta metodología solo es viable en áreas donde ya se cuenta con la infraestructura de comunicación 5G.
En resumen, la computación en el borde está marcando el futuro del cuidado de la salud al proporcionar una infraestructura más eficiente, rápida y segura para el procesamiento de datos sensibles. Esta tecnología no solo optimiza la latencia y la eficiencia energética, sino que también mejora la calidad de vida de los pacientes al ofrecer retroalimentación inmediata sobre su estado de salud, lo que a su vez contribuye a una recuperación más rápida. Sin embargo, su implementación masiva depende de la expansión de las redes 5G, la mejora en los métodos de análisis de datos en tiempo real y la resolución de los desafíos relacionados con la seguridad y la privacidad.
¿Cómo la técnica de inpainting y el aprendizaje profundo están revolucionando las imágenes médicas?
El uso de técnicas avanzadas de inpainting en imágenes médicas se ha convertido en una herramienta esencial para mejorar la calidad y precisión de los diagnósticos. El inpainting, en su forma más básica, se refiere a la capacidad de restaurar áreas dañadas o faltantes de una imagen. Esta técnica, cuando se combina con el aprendizaje profundo, tiene un impacto significativo en diversas áreas de la medicina, incluyendo la mejora de imágenes endoscópicas, la reducción de artefactos metálicos en tomografías computarizadas y la corrección de defectos en radiografías planas.
Uno de los mayores retos en imágenes médicas es el manejo de los reflejos especulares en imágenes endoscópicas. Estos reflejos pueden distorsionar la visualización de estructuras internas, lo que dificulta una evaluación precisa. La aplicación de redes neuronales para la supresión de estos reflejos ha mostrado resultados notables, permitiendo una mejor visualización de las áreas de interés sin la interferencia de los reflejos molestos. Un ejemplo de ello se observa en trabajos como los de Guo et al. (2016), que desarrollaron un método eficaz para la eliminación de reflejos especulares, mejorando así la precisión diagnóstica en imágenes médicas.
El concepto de inpainting en sí mismo ha evolucionado en los últimos años, especialmente con el auge de las redes generativas adversariales (GANs). Estas redes han sido utilizadas para rellenar las áreas faltantes de las imágenes de manera más precisa y detallada, lo que se traduce en una mejora significativa de la calidad visual. En el caso de las imágenes de resonancia magnética cerebral, por ejemplo, el inpainting 3D basado en aprendizaje profundo ha permitido recuperar estructuras que de otro modo habrían quedado invisibles debido a la calidad de la imagen o a artefactos producidos por la máquina.
A través del uso de redes GAN y otras técnicas de aprendizaje profundo, se ha logrado una restauración de imágenes más realista, que no solo mejora la calidad visual, sino también la capacidad de los algoritmos de diagnóstico para reconocer patrones y características críticas. Esto ha abierto nuevas posibilidades en el análisis de imágenes médicas, especialmente en áreas como la detección de tumores en imágenes de tomografía computarizada o resonancia magnética, donde la precisión es crucial para tomar decisiones clínicas.
En el ámbito de la eliminación de artefactos metálicos en tomografías computarizadas, el uso de inpainting ha demostrado ser fundamental para reducir los efectos de la interferencia causada por objetos metálicos, como implantes o prótesis, que suelen distorsionar las imágenes. La técnica ha mejorado significativamente la capacidad para obtener imágenes claras y precisas, lo cual es esencial para evaluar correctamente la presencia de patologías subyacentes, como tumores o fracturas óseas.
Además, la técnica de inpainting se ha ampliado para abordar problemas de baja resolución en imágenes dermatoscópicas, donde se utilizan redes neuronales profundas para mejorar los detalles y eliminar defectos, como los cabellos que obstruyen la visión de lesiones cutáneas. Este tipo de avance es especialmente importante en la dermatología, donde una inspección precisa de las imágenes puede marcar la diferencia en el diagnóstico temprano de enfermedades como el melanoma.
El uso de estas tecnologías ha sido clave para la mejora de la precisión diagnóstica en hospitales y centros de salud. No solo permite una mejor visualización de los detalles anatómicos y patológicos, sino que también facilita la integración de imágenes de diferentes fuentes y modalidades, lo que mejora la eficacia general de los sistemas de diagnóstico asistidos por inteligencia artificial.
Es relevante señalar que estas técnicas no están exentas de desafíos. La necesidad de grandes volúmenes de datos etiquetados y el entrenamiento adecuado de las redes neuronales para mejorar la exactitud de las predicciones siguen siendo áreas de investigación activa. Sin embargo, los avances recientes en el aprendizaje profundo y el inpainting continúan abriendo nuevas posibilidades para aplicaciones clínicas.
Es importante destacar que, más allá de la mejora de la calidad visual y la restauración de imágenes, la integración de estas tecnologías en el ecosistema de la salud también plantea cuestiones sobre la ética, la privacidad y la responsabilidad en el uso de la inteligencia artificial en el diagnóstico médico. A medida que las herramientas basadas en aprendizaje automático se vuelven más precisas, la confianza de los pacientes y médicos en estos sistemas será un factor clave para su implementación exitosa.
¿Cómo se utiliza el algoritmo de Naïve Bayes para predecir la Enfermedad Renal Crónica (ERC)?
El algoritmo de Naïve Bayes (NB) se ha convertido en una herramienta útil para la predicción de la Enfermedad Renal Crónica (ERC), empleando variables de entrada como la edad, presión arterial, niveles de creatinina sérica, entre otras. Este modelo se basa en el teorema de Bayes y calcula la probabilidad posterior de que un paciente padezca ERC dadas las variables de entrada. La ecuación fundamental que se utiliza es la siguiente:
Donde representa la probabilidad posterior de que un paciente tenga ERC dado un conjunto de variables . es la probabilidad de las variables dadas que el paciente tiene ERC, mientras que es la probabilidad previa de que el paciente tenga ERC, y es la probabilidad de las variables de entrada.
Una de las suposiciones más importantes del modelo Naïve Bayes es la independencia condicional de las variables de entrada, lo que implica que, dado el estado de la enfermedad, las variables son independientes entre sí. Esta propiedad se expresa en la siguiente forma:
El cálculo de las probabilidades de las variables de entrada se realiza suponiendo que las variables están distribuidas de manera aleatoria en la población, lo que simplifica considerablemente el modelo, permitiendo que sea eficaz a pesar de las complejidades inherentes en los datos.
Para evaluar la efectividad del modelo, se utilizan métricas como la exactitud, precisión, sensibilidad y especificidad. Estas métricas permiten medir la proporción de pacientes correctamente clasificados, los verdaderos positivos, los verdaderos negativos, los falsos positivos y los falsos negativos. En el caso de un estudio realizado con un conjunto de datos de 400 pacientes (200 con ERC y 200 sin ERC), el algoritmo alcanzó una exactitud del 87,5%, una sensibilidad del 91% y una especificidad del 84%. Estos resultados indican que el algoritmo Naïve Bayes tiene un alto poder predictivo en el contexto de la ERC.
Aunque la independencia condicional entre las variables puede no ser completamente precisa en todos los casos, el algoritmo ha demostrado ser efectivo en situaciones del mundo real. Los resultados del modelo pueden ser evaluados usando varias métricas para entender mejor su desempeño y así asistir a los profesionales de la salud en la toma de decisiones sobre el diagnóstico y tratamiento de la ERC.
Para mejorar la precisión del modelo, es crucial la selección de características. Al analizar la importancia de diferentes variables, se puede observar que la edad, la presión arterial y la gravedad específica son las tres características más relevantes. La edad es fundamental para determinar la salud de un individuo, ya que afecta a varias funciones corporales, mientras que la presión arterial es un indicador clave del riesgo de enfermedades cardiovasculares y otras complicaciones. La gravedad específica, por otro lado, es un indicador de la concentración de partículas en la orina y puede señalar problemas renales o deshidratación.
La selección de estas variables permite construir un modelo más preciso que tenga en cuenta los factores más relevantes para la salud de un individuo. Además, la investigación continua sobre otras características potenciales podría permitir perfeccionar los modelos y ofrecer predicciones aún más precisas en el futuro.
El proceso de selección del modelo también implica entrenar iterativamente varios modelos de Naïve Bayes con diferentes configuraciones y seleccionar los mejores valores para los parámetros, como el parámetro de costo o la función núcleo. Sin embargo, es importante recordar que los parámetros óptimos pueden variar según el conjunto de datos y la tarea específica. Por lo tanto, es crucial evaluar cuidadosamente el desempeño de los modelos sobre un conjunto de validación antes de seleccionar el modelo final.
Aunque el modelo Naïve Bayes parece ser efectivo según su exactitud, hay áreas de mejora, especialmente en términos de la tasa de falsos negativos. El modelo tiende a clasificar erróneamente más instancias como negativas cuando deberían ser positivas, lo cual puede ser problemático en contextos donde los falsos negativos son costosos. Es importante seguir analizando los patrones de las instancias mal clasificadas para mejorar continuamente el rendimiento del modelo.
Además, en el análisis de modelos de predicción, la matriz de confusión muestra que el modelo clasifica correctamente 43 instancias de la clase “0” y 68 de la clase “1”, pero comete errores en algunas clasificaciones. La exactitud global del modelo es del 92,50%, lo que indica que el modelo está funcionando razonablemente bien, aunque sigue habiendo margen para ajustes y mejoras.
Por último, al evaluar el rendimiento del modelo, se deben analizar las curvas de evaluación, como la curva ROC, que visualiza el desempeño del modelo en relación con la tasa de verdaderos positivos y la tasa de falsos positivos. Esta herramienta es esencial para entender cómo se comporta el modelo ante diferentes umbrales y para identificar el mejor punto de corte para la predicción.
¿Cómo mejorar la predicción de enfermedades cardíacas mediante la selección de características y el uso de técnicas de aprendizaje automático?
La enfermedad cardíaca (EC) es una condición común que afecta a personas de todas las edades y es reconocida por la Organización Mundial de la Salud (OMS) como la principal causa de muerte en el mundo. El diagnóstico temprano de enfermedades cardíacas es crucial, y en los últimos años, el uso de técnicas de aprendizaje automático (ML) ha ganado relevancia para predecir y clasificar estas enfermedades. Diversos estudios, como los realizados por Park et al. (2011) y Rajeswari et al. (2012), han mostrado cómo los modelos de aprendizaje automático pueden ayudar en la clasificación de la enfermedad cardíaca, mientras que investigaciones más recientes, como la de Varatharajan et al. (2018), propusieron algoritmos avanzados, como el algoritmo genético con optimización de enjambre de partículas binarias (BPSO), para la predicción de la enfermedad de las arterias coronarias.
El uso de múltiples enfoques de clasificación y regresión ha permitido extraer valores ocultos e información significativa de los conjuntos de datos en el sector de la salud (Babaoglu et al., 2010). Sin embargo, la mayoría de los estudios sobre clasificación de enfermedades cardíacas se han centrado principalmente en el cálculo de la precisión, que a menudo se describe mediante valores predictivos, sensibilidad, especificidad y razones de probabilidad. Las curvas ROC (Receiver Operating Characteristic) son utilizadas para comparar la sensibilidad y la especificidad a lo largo de una gama de valores, proporcionando la capacidad de predecir resultados binarios, como la presencia o ausencia de enfermedad cardíaca.
Aunque la precisión es un indicador comúnmente utilizado, otros factores, como el valor predictivo positivo (para la investigación de “confirmación”) y el valor predictivo negativo (para la investigación de “exclusión”), también son esenciales para evaluar el rendimiento del modelo. Además, el valor kappa de Cohen mide la colaboración entre observadores, permitiendo comparar la clasificación diagnóstica entre diferentes pruebas. Este enfoque es considerado más riguroso que la simple evaluación de la precisión porcentual (Hazra & Gogtay, 2017). En conjunto, las métricas como la precisión, el kappa y el área bajo la curva ROC/AUC son esenciales para evaluar adecuadamente el rendimiento de los modelos.
A pesar de los avances en la clasificación, varios estudios han indicado que la precisión de las predicciones aún puede mejorarse (Khang et al., 2024). Una de las principales áreas de mejora es la selección de características. Muchos de los estudios previos no han eliminado características no relevantes, lo que podría estar afectando la capacidad predictiva de los modelos. La selección adecuada de características es crucial, ya que permite eliminar variables redundantes, obsoletas o indeseables, mejorando así la precisión y reduciendo la complejidad del modelo, lo que facilita su interpretación y explicación (Bashir et al., 2019; Chaudhuri et al., 2021).
En este contexto, el uso de técnicas de selección de características permite identificar las variables más relevantes para la predicción de la enfermedad cardíaca. Al reducir el número de características, el modelo se simplifica, haciendo más fácil su comprensión. Los enfoques de selección de características no solo aumentan la precisión del modelo, sino que también contribuyen a mejorar la eficiencia del proceso de predicción.
En cuanto a los métodos de aprendizaje automático utilizados en la predicción de enfermedades cardíacas, el trabajo compara varios modelos de minería de datos, como la regresión logística (LR), Naive Bayes (NB), máquinas de soporte vectorial (SVM), árboles de decisión (DT), bosques aleatorios (RF) y bosques aleatorios potenciados (BRF). Este estudio propone el uso del modelo BRF, que combina varias clasificaciones débiles para formar un clasificador robusto y preciso. El BRF mejora la precisión del modelo al agregar clasificadores de bosque aleatorio de forma secuencial, entrenando cada nuevo clasificador con los datos que no pudieron ser clasificados correctamente por los clasificadores anteriores. Este enfoque aumenta la capacidad de predicción y mejora la exactitud general del modelo.
El modelo SVM también ha sido ampliamente utilizado para la clasificación y la extracción de características. SVM es una técnica de aprendizaje supervisado que se puede aplicar tanto a la regresión como a la clasificación. Uno de sus puntos fuertes es la capacidad de realizar una clasificación no lineal mediante el truco del núcleo, lo que permite encontrar el mejor hiperplano que divide las características en diferentes clases. Además, la técnica de evaluación de características basada en SVM (SVMAttributeEval) permite ordenar las características según su relevancia, lo que contribuye a una mejor selección de las mismas.
El uso de un conjunto de datos extenso y diverso es fundamental para la validación de los modelos de predicción. En este estudio, se empleó el conjunto de datos Kaggle Heart Failure Prediction, que combina cinco conjuntos de datos de enfermedades cardíacas de diferentes fuentes. Este conjunto de datos, que contiene más de mil registros, es uno de los más grandes disponibles actualmente para la investigación sobre enfermedades cardíacas, y permite una evaluación más robusta de los modelos de aprendizaje automático.
En cuanto a la elección de las características relevantes para la predicción, el conjunto de datos incluye variables como la edad, el sexo, el tipo de dolor en el pecho, la presión arterial, los niveles de colesterol, el azúcar en sangre en ayunas, el electrocardiograma, la frecuencia cardíaca máxima, el ángulo inducido por el ejercicio, el número de vasos principales obstruidos, y la presencia o ausencia de enfermedad cardíaca. Cada una de estas características tiene un impacto diferente en la capacidad del modelo para predecir con precisión la enfermedad, lo que destaca la importancia de la correcta selección y evaluación de las características en el proceso de clasificación.
Para mejorar la precisión de los modelos, no solo se deben considerar las características más relevantes, sino también la interacción entre ellas. El uso de técnicas de selección de características y la aplicación de algoritmos avanzados como el BRF permiten mejorar la exactitud de la predicción, lo que es crucial en el diagnóstico y tratamiento temprano de enfermedades cardíacas.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский