Big Data: una exploración de investigaciones, tecnologías y casos de aplicación

Es necesario entender y dimensionar el hecho de que la técnica de análisis de grandes cúmulos de datos no solo afecta la privacidad de los individuos, sino que también hay otros derechos humanos que pueden verse afectados con un manejo irresponsable de esta información. Como resultado, se encontró que la mayoría de las investigaciones bajo estos parámetros centran el análisis en las distintas normas jurídicas en materia de privacidad y protección de datos, tendientes a regular la manera en que se realiza la minería de datos. Sin embargo, se debe considerar que no solo el derecho a la privacidad se pone en riesgo, sino que existen otros derechos humanos que pueden ser vulnerados al hacer un mal uso de estas tecnologías; por ejemplo, al generar discriminación a partir de la elaboración de listas negras que segreguen a las personas o promuevan el racismo, o al constituir un obstáculo a la libertad de expresión, por mencionar solo algunos casos. En los últimos años, podemos encontrar diferentes tipos y denominaciones de periodismo vinculados a esta esfera. Esta realidad afecta directamente las tareas de los gobiernos, las empresas o los
investigadores y reafirma la importancia de las operaciones de recopilación,
análisis y representación de la información, asociadas con técnicas basadas en el
cálculo y la cuantificación, y en donde adquieren mayor trascendencia la
intersección entre medios de comunicación, tecnología y sociedad.

Cabe aclarar que existen un mayor número de tecnologías que soportan Big Data, tanto libres como propietarias, pero para efectos de este documento se ha acotado de acuerdo con lo anteriormente expuesto y tomando las tecnologías que dieron las bases iniciales al ecosistema Big Data. Sin embargo, se presenta aún una marcada tendencia https://voxpopulinoticias.com.mx/2023/12/un-bootcamp-de-programacion-que-te-prepara-para-tu-nueva-profesion/ hacia los aportes de tipo conceptual, son pocos los resultados y hallazgos que permitan realmente vislumbrar de forma tangible sus beneficios frente a otras tendencias o tecnologías tradicionales. Los trabajos se concentran, en su gran mayoría, en asociar Big Data a grandes volúmenes de datos o a la distribución de procesamiento.

Los casos en los que la Inteligencia Artificial nos salvó la vida

Con este tipo de desarrollo, estos algoritmos pueden extenderse a ser aplicados a otro tipo de enfermedades, contribuyendo de esta manera a mejorar el servicio sanitario. Para el caso de análisis de datos robustos se requiere de una gran infraestructura tecnológica, como superordenadores dedicados específicamente para trabajar con IA, donde empresas como Microsoft e IBM están apostando con el objetivo de encontrar tratamientos que permitan combatir la COVID-19 en un tiempo relativamente corto. La particularidad de trabajar con este tipo de tecnología es que puede ejecutarse desde diversos lugares del mundo, facilitando el acceso al código abierto a grupos de investigadores que trabajan en diversas áreas Un bootcamp de programación que te prepara para tu nueva profesió de la IA, el Big Data y ciencia de datos. Con respecto a la pandemia del COVID-19 el sistema sanitario a nivel mundial demostró no dar abasto para realizar pruebas diagnósticas a corto plazo, sumado a problemas económicos, logísticos, de infraestructura tecnológica y falta de personal hospitalario. La IA está ayudado a minimizar estos problemas a través del uso de técnicas de aprendizaje profundo, mediante el reconocimiento de imágenes para pruebas de radiodiagnóstico que, a diferencia de las pruebas clínicas estándar, arroja resultados en pocos minutos, y en ellos se infiere si los pulmones de un paciente están o no enfermos por neumonía asociada específicamente con la COVID-19 (Öner, 2020).

Una distinción notoria para el autor está en que estos datos no han sido creados con el objetivo directo de crearlos, como por ejemplo las encuestas o trabajos encaminados a recopilar cierta información; sino que estos datos son “resultado de otra acción” (p. 32), de cualquier actividad cotidiana en interacción con cualquier dispositivo interconectado digitalmente. La especialista explica que cuando la información es de baja calidad porque está incompleta, no está actualizada o los datos son incorrectos, se corre el riesgo de hacer predicciones equivocadas y tomar malas decisiones. Si bien, explica, no todo depende de la tecnología, pues el factor humano puede llevar a que se capture mal la información, lo que afectaría el resultado. Desde el 2007, cuando comenzó a popularizarse
la web 2.0, se ha ido produciendo la transformación, si bien vertiginosamente pero
de forma paulatina y aún, hoy en día, se sigue desarrollando. Los factores de este
cambio han sido diversos aunque la mayoría de ellos se deben a una modificación de
las actitudes en la audiencia. Con la continua incorporación de las tecnologías disruptivas en el campo de la salud, las normativas en cuanto a la preservación de los derechos del paciente deberán ir cambiando y adaptándose a pesar de la incertidumbre que trae consigo, que como señala López (2019) no solo subestimamos los efectos de la tecnología a corto plazo, sino que ni siquiera somos capaces de pronosticar, predecir o intuir sus efectos a largo plazo.

Expertos hablarán sobre la regulación europea de la IA en el AI Business Congress

Ha sido genial porque justo he podido estar testeando de primera mano el producto que va a salir al mercado. Creo que este tipo de tecnología es un apoyo, te empodera, te hace ver que tú crees que el niño está llorando por equis razón, y lo chequeas a modo ya casi que gamificación, o sea juego. Entonces, por un lado, está ese momento en el que llora, tú crees que le pasa esto y te lo confirma, es muy chulo. Un artículo de Forbes afirma que los datos no dejarán de multiplicarse y que para el próximo año se generarán en torno a 1,7 megabytes de datos por segundo. Crea, prueba y despliega aplicaciones con la aplicación gratuita de procesamiento de lenguaje natural. Los usuarios de Facebook envían 31.25 millones de mensajes y miran 2.77 millones de videos por minuto.

articulos cientificos de big data

Independientemente de la denominación, una sociedad en la que aumenta la información y en la que crece la necesidad de transparencia se postula como el marco ideal para que los periodistas utilicen y expliquen los datos, aunque sean complejos, por técnicas como la visualización. En el momento actual, en muchos países se está expandiendo el término periodismo de datos, que sugiere una forma especializada de recogida y análisis de datos en la línea del trabajo realizado por analistas o investigadores, en donde el componente informático es una parte central de la elaboración, en ocasiones automatizada, de la producción de noticias. Con base en lo anterior, el estudio del COVID-19 empleando Big Data puede valerse de la analítica retrospectiva y descriptiva avanzadas (Mohamed et al., 2019) expresas en la inteligencia de negocios (Business intelligence) (Chahal, Jyoti y Wirtz, 2019); ya que esta permite focalizar el estudio mediante indicadores y tendencias en el tiempo, lo que incluye predicciones a futuro. Bajo estos criterios, entra a formar parte la ciencia de datos empleando técnicas estadísticas y matemáticas caracterizadas en las variables de estudio que permiten ampliar las técnicas y modelos representados como clusters (Mohebi et al., 2016) a través de patrones o correlaciones de datos, que a la vez pueden ser integrados con la IA para mejorar los resultados. Desde la perspectiva empresarial Big Data no representa solo grandes volúmenes de datos, se deben considerar los patrones extraídos a partir de los datos y que pueden generar procesos de innovación. Desde la perspectiva tecnológica se presenta Hadoop como la principal herramienta desarrollada para el tratamiento de Big Data, incluyendo el manejo de sistemas de archivos distribuidos y el paradigma de programación Map Reduce.

Big Data Research

Los Macrodatos o Big Data, hasta ahora no tiene una definición muy precisa, pero hay cierta coinciden cia en definirlos como aquella información recopilada electrónicamente que, por su volumen, formato y di versidad, no puede ser procesada con las herramientas informáticas comunes, por lo que requiere de solucio nes computacionales de alta complejidad8,9,10,11. De esta forma se puede afirmar que la “datificación” en el ámbito de la salud es una tradición muy antigua en cambio, la digitalización ha llegado de la mano con la incorporación de las TI en la atención de salud. Éstas han permitido, entre otros, la generación del Registro Electrónico de datos de Salud (RES o en inglés EHR) o Ficha Clínica Electrónica (FCE), los cuales compilan las historias clínicas de una persona5 y que pueden ser consultados por personal de salud6.

  • Se trata de una realidad importante que hemos de tener en cuenta y que debe hacernos reflexionar sobre la efectividad de alguna de las normas vigentes en materia de datos personales ENT#091;…ENT#093; (2016, p. 29).
  • Existen tecnologías disruptivas como la inteligencia artificial y la computación inteligente, manifiestas a través del aprendizaje máquina (Machine Learning) y el aprendizaje profundo (Deep Learning).
  • En segundo lugar, Big Data trae consigo datos “sucios”, con errores potenciales, incompletos o de diferente precisión, la IA puede ser usada para identificar y limpiar estos datos sucios.
  • Esta discusión informada es un primer paso para facilitar la amplia adopción de estas técnicas en la práctica clínica y para que los profesionales de la salud no sólo sean generadores de datos, sino que, con el apoyo de las tecnologías emergentes, los datos, con su correcto análisis e interpretación, apoyen a los equipos hacia mejores decisiones médicas.

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *