La computación en el borde y en la niebla ha surgido como una alternativa prometedora a la computación en la nube en aplicaciones de monitoreo de la salud, superando varios de los desafíos asociados con la transmisión de grandes volúmenes de datos, la latencia y la percepción de ubicación. Según un estudio realizado por Dash et al. (2019), las aplicaciones de salud que operan sobre estos modelos son más efectivas, ya que permiten procesar los datos de forma local, minimizando la necesidad de grandes transmisiones hacia servidores remotos, como es el caso de la nube. Aunque la computación en la nube ofrece ventajas como el bajo costo y una capacidad casi ilimitada, presenta desventajas importantes en entornos de salud, donde la latencia y la velocidad de transmisión de los datos son factores críticos.
Los sensores empleados en los dispositivos médicos a menudo no tienen la potencia necesaria para realizar tareas de procesamiento intensivo. Sin embargo, la computación en el borde y en la niebla resuelve este problema al permitir que estos dispositivos deleguen tareas de procesamiento a capas intermedias, como los gateways o nodos de niebla, sin necesidad de depender de la nube. Esto no solo optimiza el rendimiento, sino que también mejora la seguridad y la privacidad de los datos, ya que los datos sensibles no necesitan ser enviados a servidores remotos.
En un ejemplo particular, los sistemas de monitoreo de caídas en pacientes, que dependen de datos inerciales de sensores en tiempo real, pueden lograr una precisión superior al 90% sin necesidad de transmitir datos a la nube. El uso de computación en el borde y de tecnologías como Bluetooth de baja energía (BLE) y LoRaWAN ha demostrado aumentar la eficiencia energética de los dispositivos y extender su vida útil, permitiendo su operación incluso en áreas con conectividad limitada.
Los gateways inteligentes, ubicados cerca de los dispositivos en ambientes domésticos o hospitalarios, abordan una serie de desafíos, tales como la eficiencia energética, la escalabilidad, la interoperabilidad y la fiabilidad. Un sistema basado en la computación en niebla, como el demostrador UT-GATE, integra múltiples funciones y servicios como procesamiento local, almacenamiento, notificaciones, estandarización y seguridad, mejorando así la eficiencia global del sistema y asegurando una mayor interoperabilidad y fiabilidad.
Además, en contextos de monitoreo de pacientes con enfermedades agudas, los sistemas que combinan la computación en la niebla y en la nube permiten monitorear a los pacientes de manera más efectiva, protegiendo la privacidad de los datos y ofreciendo servicios mejorados en tiempo real. Estos sistemas pueden adaptarse a las condiciones cambiantes del entorno, proporcionando información contextual sobre las actividades diarias de los pacientes, lo que resulta en una atención más personalizada y precisa.
En cuanto a la conectividad, tecnologías como las redes de área amplia de baja potencia (LPWAN) y los protocolos de comunicación de largo alcance (como LoRaWAN) están ayudando a superar las limitaciones de infraestructura en áreas con mala cobertura de Internet. Sin embargo, dado que LPWAN no es adecuado para aplicaciones de alta tasa de datos, como el monitoreo electrocardiográfico, la computación en el borde se presenta como la solución más adecuada. En este sentido, los algoritmos de inteligencia artificial y aprendizaje profundo, integrados en estas plataformas, mejoran la capacidad de los sistemas para detectar condiciones de salud y emitir alertas en tiempo real, sin la necesidad de procesar grandes volúmenes de datos en la nube.
Finalmente, la necesidad de redes de monitoreo de salud en el hogar ha llevado a un aumento en la demanda de recursos espectrales y a la sobrecarga de comunicación. La computación en el borde habilitada por 5G y las tecnologías de MEC (computación de borde en la red) se presentan como una respuesta a este desafío. Sistemas como el propuesto por Ning et al. (2021) optimizan la transmisión de datos mediante la asignación de anchos de banda entre dispositivos locales, lo que reduce significativamente los costos operativos y mejora la eficiencia del sistema. Además, el algoritmo DIGITAL, propuesto en este estudio, ha demostrado ser un enfoque eficiente para reducir el costo y aumentar la eficiencia en la gestión de grandes volúmenes de datos de salud.
Es fundamental comprender que, aunque las soluciones de computación en el borde y en la niebla ofrecen numerosas ventajas, todavía existen desafíos importantes en términos de seguridad, privacidad, latencia y confiabilidad que deben ser superados para lograr una implementación generalizada en el monitoreo de la salud. La tecnología de aprendizaje en el borde aún está en sus primeras etapas, y aunque hay avances notables, se requiere más investigación para superar estos obstáculos y asegurar que estas soluciones sean aplicables de manera eficiente en casos de uso médico en tiempo real.
¿Cómo contribuyen las tecnologías IoT y AI a la mejora de los sistemas de salud?
El sector de la salud enfrenta desafíos constantes debido a su nivel de responsabilidad y a la estricta regulación que lo acompaña. Sin embargo, el avance de la tecnología, especialmente en el ámbito de la Internet de las Cosas (IoT) y la Inteligencia Artificial (AI), está ofreciendo soluciones innovadoras que transforman la forma en que se gestionan los diagnósticos y tratamientos médicos.
La incorporación de dispositivos inteligentes y sensores, como bandas y pastillas inteligentes, permite una recopilación de datos continua y precisa. Estos dispositivos no solo monitorean signos vitales como la presión arterial, la frecuencia cardíaca y la temperatura corporal, sino que también envían esta información a bases de datos centralizadas o en la nube, desde donde los médicos pueden acceder a ella para realizar diagnósticos rápidos y bien fundamentados. En situaciones de cuarentena o pandemias, esta tecnología es fundamental para reducir el contacto físico y garantizar que los profesionales de la salud puedan ofrecer atención sin poner en riesgo su seguridad.
El uso de IoT en la atención médica también facilita el monitoreo remoto de pacientes, lo que permite a los médicos mantenerse al tanto de las condiciones cambiantes de los enfermos sin necesidad de visitas físicas constantes. Este enfoque no solo optimiza el tiempo, sino que también es crucial para la predicción temprana de enfermedades. Herramientas como los modelos de aprendizaje automático (ML) y aprendizaje profundo (DL) aplicados a los datos recolectados por estos dispositivos, permiten el desarrollo de sistemas de diagnóstico más precisos y rápidos. La capacidad de predecir enfermedades como cáncer de piel, Alzheimer, enfermedades cardíacas y hasta el COVID-19, a partir de datos recogidos a través de la IoT, muestra el gran potencial de estos avances tecnológicos en la medicina.
Sin embargo, uno de los mayores retos que enfrentan estos sistemas es la seguridad y privacidad de los datos. La información médica es altamente sensible, por lo que su protección es una prioridad. La legislación, como la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA) en los Estados Unidos, regula cómo deben manejarse los datos de los pacientes para garantizar su seguridad. A pesar de los avances, la centralización de los datos en una sola ubicación sigue siendo un punto débil, ya que un solo punto de falla podría comprometer una gran cantidad de información crítica.
La computación en la nube, en este sentido, es un componente esencial, ya que permite el almacenamiento de grandes volúmenes de datos, permitiendo su análisis a gran escala. No obstante, este enfoque también tiene sus limitaciones, particularmente en lo que respecta a la seguridad. Como solución emergente, el aprendizaje federado (FL) ofrece un modelo descentralizado que permite a los dispositivos móviles entrenar modelos de AI sin necesidad de compartir datos sensibles, lo que reduce los riesgos asociados a la privacidad.
A medida que los dispositivos conectados continúan evolucionando, también lo hacen las técnicas de análisis de datos y los modelos predictivos. La integración de AI, ML y DL en la atención médica está abriendo nuevas posibilidades para la predicción y el diagnóstico de enfermedades. Este tipo de innovación no solo mejora la eficiencia de los servicios de salud, sino que también aumenta la precisión y la rapidez con la que los médicos pueden tomar decisiones críticas. Además, la utilización de tecnologías como el blockchain, para el almacenamiento descentralizado de datos, promete solucionar muchos de los problemas asociados con la seguridad de los datos médicos.
A medida que se avanza en la implementación de estas tecnologías, es crucial que se sigan desarrollando modelos que no solo sean eficaces y rápidos, sino también seguros y confiables. La interoperabilidad entre dispositivos, el manejo adecuado de los datos y la protección de la privacidad de los pacientes son cuestiones que deben ser abordadas para que la integración de la IoT y AI en la medicina se realice de manera exitosa y sostenible.
Es fundamental comprender que la transformación digital en el sector de la salud no se limita únicamente a la mejora en los diagnósticos. La inteligencia artificial y el Internet de las Cosas también tienen el potencial de revolucionar la forma en que se gestionan los cuidados a largo plazo, la prevención de enfermedades y el monitoreo continuo de la salud de los pacientes. Los sistemas de IoT permiten la creación de entornos de salud más personalizados, donde los pacientes pueden recibir un monitoreo constante sin necesidad de estar en un hospital. Este enfoque proactivo tiene el potencial de reducir la carga de trabajo en los hospitales y permitir que los recursos se asignen de manera más eficiente, mejorando la atención general y reduciendo costos.
Además, la utilización de sistemas automáticos basados en IoT y AI en lugar de métodos manuales también representa un ahorro significativo de tiempo y recursos. La automatización de los procesos médicos no solo incrementa la eficiencia, sino que también minimiza los errores humanos, proporcionando un nivel adicional de confiabilidad en el diagnóstico y tratamiento.
¿Cómo mejora el uso de la pintura en imágenes médicas y qué desafíos persisten?
La pintura de imágenes, o inpainting, se ha consolidado como una herramienta fundamental en la mejora de la calidad de las imágenes médicas, incrementando su capacidad para proporcionar diagnósticos más precisos. Este proceso consiste en rellenar las áreas faltantes o dañadas de una imagen, lo que permite una visualización más completa de las estructuras anatómicas. La técnica se emplea ampliamente en imágenes afectadas por artefactos de movimiento, fallos del equipo o problemas derivados de la posición del paciente, lo que resulta en imágenes más claras y detalladas. A través de algoritmos avanzados, el inpainting se ha integrado a la radiología y a la medicina en general para permitir una mejor planificación de tratamientos y diagnósticos.
Un estudio realizado por Jiménez-Martín et al. (2021) resalta el uso de la metodología GLCIC para la eliminación de reflejos especulares en imágenes colposcópicas. Esta técnica difiere de otros métodos al utilizar una estructura de codificador-decodificador, lo que permite reducir la resolución de la imagen antes de procesarla. Esta reducción de resolución ayuda a disminuir el uso de memoria y el tiempo de cómputo, para luego restaurar la imagen a su resolución original mediante capas de deconvolución. Aunque el uso del inpainting para la eliminación de artefactos de reflejos especulares o para la mejora de las imágenes médicas es prominente, su aplicación se extiende también a la ampliación de bases de datos médicas, y en la mejora de imágenes provenientes de ultrasonidos, tomografías por emisión de positrones (PET), imágenes endoscópicas, entre otras.
El inpainting ha demostrado ser esencial para los radiólogos, pues les permite ver estructuras completas y detalles anatómicos, facilitando la toma de decisiones. No obstante, uno de los principales problemas asociados a estos algoritmos es que pueden suavizar detalles sutiles o texturas, especialmente en las imágenes de tomografía computarizada (CT), lo cual podría afectar la capacidad para detectar pequeñas lesiones o detalles importantes. La precisión del inpainting depende de la selección cuidadosa de métricas y funciones de pérdida para garantizar que la información restaurada no distorsione el análisis. A través de funciones de pérdida, como la L1 o L2, o la pérdida adversarial, se logra entrenar los modelos para que generen imágenes más precisas y visualmente agradables, mejorando así la calidad de la imagen restaurada.
Aunque existen diversas métricas y funciones de pérdida que permiten evaluar la efectividad de los modelos de inpainting basados en Deep Learning (DL), como el PSNR, SSIM, o el MSE, es crucial que los modelos se ajusten a las necesidades del diagnóstico médico. La evaluación no se limita a la calidad visual, sino que debe considerar también la fiabilidad del modelo en situaciones clínicas reales. Por ejemplo, la métrica "Fréchet Inception Distance" (FID) se utiliza para evaluar la similitud visual entre imágenes generadas y originales en el contexto de redes generativas, mientras que el "Universal Image Quality Index" (UQI) compara la calidad entre las imágenes procesadas.
Sin embargo, uno de los mayores retos que enfrentan los investigadores y desarrolladores es la disponibilidad y diversidad de los datos médicos. Los conjuntos de datos son a menudo pequeños debido a restricciones de privacidad, lo que dificulta el entrenamiento eficaz de los modelos de DL. Además, la variedad de imágenes médicas es considerable, abarcando diferencias en anatomía, modalidades de imagen, artefactos de imagen y condiciones patológicas, lo que agrega complejidad al proceso de entrenamiento. La falta de datos representativos de todas estas variaciones puede limitar la capacidad del modelo para generalizar y producir resultados precisos en una amplia gama de condiciones.
Otro desafío importante radica en la complejidad computacional de los algoritmos de inpainting. Aunque los avances en hardware y algoritmos han permitido mejorar la eficiencia en el procesamiento, los modelos más sofisticados requieren grandes recursos computacionales, lo que puede llevar a tiempos de procesamiento más largos, especialmente cuando se trabaja con imágenes de alta resolución. La optimización de estos algoritmos es esencial para garantizar que el uso clínico de estas tecnologías sea viable y accesible en un entorno real.
El éxito del inpainting en imágenes médicas no solo depende de la precisión técnica, sino también de la interpretación clínica de los resultados. La calibración de los modelos de inpainting debe llevarse a cabo de manera que la información restaurada sea coherente con la realidad clínica, sin inducir a error en los radiólogos o profesionales de la salud. Es esencial que los modelos de DL no solo generen imágenes visualmente atractivas, sino que también mantengan la fidelidad a los detalles que son críticos para un diagnóstico preciso.
¿Cómo los sumadores aproximados mejoran la eficiencia en los sistemas de procesamiento de imágenes y vídeo?
En los últimos años, los sumadores aproximados han ganado relevancia debido a la creciente demanda de sistemas informáticos de bajo consumo energético y alta eficiencia. Estos sumadores, al sacrificar una parte de la exactitud, permiten mejorar el rendimiento y reducir el consumo de energía, lo cual resulta fundamental en aplicaciones de procesamiento de imágenes y vídeo, donde la velocidad y la eficiencia son prioritarias sobre la precisión absoluta.
Una de las áreas clave donde se utilizan los sumadores aproximados es en la computación aproximada aplicada a la extracción de características. Algoritmos de procesamiento de imágenes como SIFT (Scale-Invariant Feature Transform) y SURF (Speeded Up Robust Features) pueden beneficiarse enormemente de este tipo de técnicas, ya que permiten acelerar los cálculos mediante algoritmos aproximados en lugar de exactos. Esto, a su vez, reduce la complejidad computacional y mejora los tiempos de procesamiento sin sacrificar en exceso la precisión necesaria para las aplicaciones prácticas.
De manera similar, en el ámbito de la compresión, los sumadores aproximados desempeñan un papel importante al reducir la cantidad de datos necesarios para representar una imagen o vídeo, sin comprometer en exceso la calidad visual. Por ejemplo, los algoritmos de compresión de vídeo pueden emplear computación aproximada para disminuir la cantidad de bits requeridos para representar cada fotograma, manteniendo un nivel aceptable de calidad visual.
En el proceso de renderizado, la computación aproximada también se utiliza para mejorar el rendimiento de algoritmos como el trazado de rayos, comúnmente empleado en la creación de imágenes y animaciones fotorrealistas. Al permitir cálculos aproximados en el proceso de renderizado, el tiempo total de procesamiento se puede reducir, mejorando así el rendimiento global sin sacrificar la calidad visual.
Este enfoque de computación aproximada no solo se limita al procesamiento de imágenes y vídeo. Su aplicación abarca una amplia gama de sistemas informáticos, especialmente aquellos orientados a aplicaciones que no requieren una precisión perfecta, sino un equilibrio entre rapidez, eficiencia energética y exactitud aceptable.
El diseño de los sumadores aproximados se puede llevar a cabo de diversas maneras. En muchos casos, la aproximación no afecta al resultado final, sino que se centra en las operaciones de suma y acarreo, los cuales son los componentes principales en la mayoría de los sistemas aritméticos. Por ejemplo, en el sumador aproximado 1, tanto la suma como el acarreo se aproximan, lo que reduce el uso de recursos en comparación con los sumadores exactos. En otras variantes, como el sumador aproximado 2, la suma se aproxima mientras que el acarreo se mantiene constante, lo que permite reducir aún más la complejidad computacional.
En términos generales, existen doce tipos diferentes de sumadores aproximados que utilizan el diseño del sumador completo, y cada uno de ellos tiene sus propias características en cuanto a cómo se aproximan la suma y el acarreo. Algunos sumadores se enfocan solo en la suma, mientras que otros sacrifican tanto la suma como el acarreo para mejorar aún más la eficiencia del sistema.
Por ejemplo, el sumador aproximado 3 mantiene la suma constante y aproxima el acarreo, mientras que el sumador aproximado 5 reduce la precisión de ambos, tanto en la suma como en el acarreo. Otros, como el sumador aproximado 12, realizan una aproximación compleja tanto en la suma como en el acarreo, lo que resulta en una mayor reducción de la carga computacional y, por ende, un mayor ahorro de energía.
Además de los sumadores, otro componente esencial en el procesamiento de datos es la unidad de multiplicación y acumulación (MAC, por sus siglas en inglés). Esta unidad, que consta de un multiplicador, un sumador y un acumulador, es crucial en operaciones que involucran grandes volúmenes de datos, como en la computación de imágenes y el aprendizaje automático. A pesar de que la unidad MAC tradicional se basa en números enteros, la incorporación de técnicas aproximadas también puede optimizar el rendimiento de estos sistemas, permitiendo que se manejen más eficientemente las operaciones de multiplicación y acumulación.
Un aspecto importante a tener en cuenta es el uso de la representación de punto flotante en estos sistemas. La representación estándar de punto flotante, que incluye el signo, el exponente y la mantisa, es esencial para representar de manera precisa los números reales en los sistemas computacionales. Sin embargo, la conversión entre formatos de punto flotante y números enteros puede presentar desafíos, especialmente cuando se requiere retroalimentación en tiempo real de los resultados. En estos casos, los sistemas deben convertir los números de punto flotante a enteros antes de volver a procesarlos, lo que agrega una capa adicional de complejidad en el diseño de sistemas de procesamiento de imágenes y vídeo.
El uso de sumadores aproximados, junto con la computación de punto flotante y las unidades MAC optimizadas, es un enfoque prometedor para mejorar la eficiencia energética y el rendimiento de los sistemas de procesamiento digital de imágenes y vídeo. Estos avances no solo tienen aplicaciones en el campo de la computación visual, sino que también pueden extenderse a otros dominios donde la eficiencia es clave, como la inteligencia artificial y el Internet de las Cosas (IoT).
Es importante entender que, aunque la aproximación en los cálculos puede sacrificar algo de precisión, el impacto en la calidad final de la imagen o el vídeo procesado puede ser mínimo, siempre que se mantengan los niveles adecuados de tolerancia al error. Los diseños de sumadores aproximados permiten a los sistemas operar de manera más eficiente sin afectar significativamente el rendimiento visual o funcional de las aplicaciones.
¿Cómo las Redes Neuronales Artificiales están Revolucionando el Diagnóstico Médico?
Las redes neuronales convolucionales (CNN) y sus aplicaciones en la visión por computadora (CV) han demostrado un potencial significativo en diversos campos, con la medicina a la vanguardia. En particular, la implementación de técnicas de aprendizaje por transferencia (TL) ha permitido que modelos previamente entrenados en grandes bases de datos, como ImageNet, puedan aplicarse con éxito a tareas médicas, mejorando la precisión y eficiencia de los diagnósticos. Modelos como DenseNet-121, en combinación con clasificadores como Random Forest (RF), han mostrado una excelente capacidad para realizar predicciones precisas, lo que subraya la importancia de la selección adecuada del modelo y la integración de aprendizaje por transferencia para tareas específicas, como la detección de tumores cerebrales o la clasificación de imágenes médicas en el contexto del COVID-19.
La ventaja principal del aprendizaje por transferencia en la visión por computadora radica en su capacidad para reducir el tiempo de entrenamiento y mejorar la precisión, ya que aprovecha las características generales extraídas de vastos conjuntos de datos heterogéneos antes de enfocarse en las características médicas específicas de datos homogéneos. Este enfoque ha sido crucial en el desarrollo de sistemas de diagnóstico asistido por inteligencia artificial (AI) que permiten un análisis más rápido y preciso de imágenes médicas, como las obtenidas mediante radiografías, tomografías computarizadas (CT) y resonancias magnéticas (MRI).
Además, los avances en la clasificación de cáncer, como el uso de redes neuronales para la clasificación de tipos de cáncer de piel, han demostrado ser una aplicación exitosa de AI en el campo de la dermatología. Métodos como el ShuffleNet y EfficientNet B0–B7, cuando se entrenan en bases de datos como el conjunto HAM10000, pueden clasificar con precisión diversos tipos de cáncer de piel, lo que facilita una detección temprana y un tratamiento más oportuno. Este tipo de clasificación es crucial, ya que las tasas de mortalidad de algunos tipos de cáncer, como el melanoma, dependen en gran medida de la detección temprana.
En el ámbito del diagnóstico asistido por computadora (CAD), las imágenes manuales pueden ser desafiantes y propensas a errores humanos. Aquí es donde las técnicas de AI cobran una relevancia especial, al automatizar el proceso y mejorar la exactitud del diagnóstico, disminuyendo la carga de trabajo de los radiólogos y reduciendo los costos. Las tasas de detección, especificidad y sensibilidad son parámetros clave que los sistemas CAD deben optimizar para ofrecer resultados fiables, especialmente en el diagnóstico de enfermedades complejas como el cáncer.
El cáncer, una enfermedad caracterizada por la proliferación descontrolada de células anormales, puede desarrollarse en casi cualquier parte del cuerpo humano. La detección temprana es crucial para la eficacia de los tratamientos, y en este sentido, las técnicas de AI desempeñan un papel fundamental. Los algoritmos de AI permiten analizar grandes volúmenes de datos y detectar patrones que a menudo son imperceptibles para los humanos. Así, el uso de redes neuronales profundas, como MLP, SVM y ANFIS, ha sido ampliamente explorado para la clasificación y detección de cánceres como el de mama y el de pulmón.
El cáncer de mama, por ejemplo, es un tipo de tumor que se forma en los tejidos mamarios y que puede extenderse rápidamente a otras partes del cuerpo. La mamografía sigue siendo una herramienta clave en su diagnóstico, especialmente en etapas tempranas, y cuando se complementa con modelos de AI, la precisión de los resultados mejora significativamente. Sin embargo, las tecnologías de AI no solo mejoran el diagnóstico inicial, sino que también se utilizan para predecir la progresión del cáncer, ayudando a personalizar los tratamientos y hacerlos más efectivos.
El cáncer de pulmón, por otro lado, es una de las principales causas de mortalidad en el mundo, y su detección temprana sigue siendo un desafío. Aunque técnicas como la tomografía computarizada y la radiografía son efectivas, son costosas y requieren de un análisis exhaustivo. Los algoritmos de AI, como las redes neuronales y el modelo ANFIS, se utilizan para detectar cáncer de pulmón con mayor precisión y a menor costo, mejorando las tasas de diagnóstico y reduciendo los falsos positivos y negativos. La detención temprana es crucial, ya que el cáncer de pulmón suele no presentar síntomas en sus etapas iniciales, lo que dificulta su diagnóstico sin tecnologías de vanguardia.
A pesar de estos avances, es importante señalar que la aplicación de AI en la clasificación y detección de cáncer no está exenta de desafíos. A medida que las tecnologías avanzan, los modelos deben ser ajustados para adaptarse a nuevos tipos de datos y a la variabilidad inherente en las imágenes médicas. Los modelos de AI deben ser entrenados y validados continuamente para mantener su precisión a lo largo del tiempo y en diferentes entornos clínicos.
Es crucial que los profesionales de la salud, junto con los desarrolladores de AI, trabajen estrechamente para asegurar que estas herramientas se utilicen de manera ética y efectiva, con un enfoque en mejorar los resultados de los pacientes y no sustituir el juicio médico humano. El papel de la AI es complementario al de los profesionales, proporcionando apoyo y aumentando la precisión de los diagnósticos, pero no reemplazando la experiencia clínica.
¿Cómo se optimiza la refrigeración y gestión térmica en los centros de datos modernos?
¿Cómo influye la temperatura generada por descargas eléctricas en el proceso de mecanizado por descarga eléctrica (EDM)?
¿Cómo los semiconductores de óxido metálico (MOS) están transformando la tecnología?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский