Si los datos son la nueva materia prima de las empresas como Facebook, el acceso a la información para fines privados permanece un tema central en la discusión pública. La red social Twitter, por ejemplo, ha puesto a disposición la totalidad de sus datos para que equipos de investigadores puedan analizar la difusión de noticias falsas. Mientras que la red Facebook, ante los reiterados cuestionamientos a la venta de espacios publicitarios que permitió la difusión de información por parte de cuentas falsas, ha ido en la dirección de bloquear las entradas que hasta ahora habían tenido los investigadores.

articulos cientificos de big data

Otro de los esfuerzos documentales es el de la normalización de
prácticas para representar e integrar datos, dentro de los que se puede destacar la
integración de la web semántica y los Linked Open data. Por último,
y en su vinculación con los social media, sobresalen las
herramientas, técnicas y teorías bibliométricas, que también cuentan https://psicocode.com/miscelanea/curso-ciencia-datos-tripleten/ con nuevas
perspectivas como la altmetrics. Basado en estas características, en un estudio de bases de datos estructuradas y no estructuradas, se buscan correlaciones recurrentes por medio del cruce de información hasta llegar a una solución plausible, que por lo general permite anticiparse a un evento, como caso particular la COVID-19.

Información legal

Se decide presentar estas tecnologías ya que son software de libre uso y que permite la generación de soluciones de Big Data de acuerdo con las necesidades particulares de un dominio de datos u organización. Cabe aclarar que existen un mayor número de tecnologías que soportan Big Data, tanto libres como propietarias, pero para efectos de este documento se ha acotado de acuerdo con lo anteriormente expuesto y tomando las tecnologías que dieron las bases iniciales al ecosistema Big Data. El big data ha dado lugar a la creación de tecnologías como la inteligencia artificial o el machine learning, que consiguen capacidades sobrehumanas sin la intervención del hombre. Los Emiratos Árabes Unidos ya han nombrado a su primer ministro de Inteligencia Artificial y varias organizaciones han creado el nuevo perfil del chief artificial intelligence officer (CAIO). Estas tecnologías se usan en diferentes ámbitos, como el diseño de infraestructuras, minimizando el riesgo de accidentes. Con metodologías y plataformas tecnológicas como Esri, la figura del científico de datos demuestra las oportunidades que ofrecen las tecnologías de big data tanto al sector privado como al público.

  • También la ejecución redundante disminuye el impacto de las máquinas lentas, pérdida de datos y fallos de máquina.
  • Mientras que en Estados Unidos se debate fuertemente sobre el rol que tuvo la plataforma de Facebook en facilitar la difusión de publicidad pro-Trump a partir de anuncios comprados por cuentas falsas vinculadas a Moscú.
  • La transformación de estos datos, por medio del análisis y la reorganiza ción, en información susceptible de ser utilizada en cualquier área del conocimiento (medicina, aeronáu tica, física, astronomía, etc.), es lo que se podría llamar “datificación”.
  • Es preciso, por otra parte, considerar también el valor periodístico real que entraña la difusión sin filtros de los datos frente a una interpretación de la información derivada del manejo de aquellos.
  • Junto a esto, aparece paulatinamente la necesidad de poner en funcionamiento aplicaciones de noticias como sistemas continuos, normalmente gracias al uso de API en su faceta de fuentes de datos.

En el presente artículo se muestran algunos proyectos de investigación relacionados con el aprendizaje profundo, el aprendizaje automático, el Big Data y la ciencia de datos, tendientes a dar soluciones plausibles bien en el monitoreo, detección, diagnóstico y tratamiento de las enfermedades asociadas con el virus. Con esto en mente, se muestra la correspondencia entre las tecnologías disruptivas y la información crítica, creando sinergias que permiten elaborar sistemas más avanzados de estudio y análisis facilitando la obtención de datos relevantes para la toma de decisiones sanitarias. Cabe señalar que el Big Data se caracteriza por tres adjetivos propios para el desarrollo de un proyecto de investigación, que son “Volumen”, “Variedad” y “Velocidad”, conocidos como las 3 V del Big Data; otros autores (Ishwarappa y Anuradha, 2015) adicionan la “Veracidad” y “Valor”. El volumen en el campo del Big Data demanda grandes recursos de procesamiento y almacenamiento de información, que están representados en la “Variedad” de los datos, que pueden ser de tipo estructurados y no estructurados. Con respecto a la “Velocidad”, hace referencia a la cantidad de datos que se generan periódicamente y requieren de una infraestructura tecnológica escalable que permita su disponibilidad y acceso en cualquier momento. Sobre la “Veracidad” y “Valor”, es imprescindible que los datos almacenados sean veraces, de lo contrario se estarían dilapidando recursos computacionales valiosos en información poco confiable o inservible, que derivan en resultados y toma de decisiones incorrectas.

¿TE GUSTARÍA RECIBIR IE INSIGHTS?

En consecuencia, ya se han emprendido iniciati vas como para generar registros de datos médicos que puedan servir para investigaciones futuras, donde en el presente no se tiene claridad de la pregunta de in vestigación a la que pueden dar respuesta. Los temas tratados en esta contribución son la pun ta de iceberg, puesto que son una ínfima parte de los desafíos y oportunidades que involucra la puesta en valor de la producción de datos en el ámbito de la sa lud. Sin embargo, da luces sobre el avance tecnológi co de tratamiento y análisis de datos Una profesión para el futuro: Qué hay detrás del curso de ciencia de datos de Tripleten a gran escala, así como también de sus aplicaciones en la pediatría. Pero es importante tener en cuenta que estos promisorios avances también conllevan situaciones de conflicto o de riesgos potenciales, algunas de las cuales se discuti rán a continuación. En otro orden, el aprendizaje profundo se refiere a la forma en que la máquina va obteniendo la “respues ta correcta”. El procedimiento se va realizando por ca pas o nodos, de menor a mayor complejidad, el cual se puede realizar con sistemas de aprendizaje supervisa dos o no supervisados.

articulos cientificos de big data

Se planteó la necesidad de que las aplicaciones de software tuviesen una rápida escalabilidad y que los sistemas de hardware fuesen diseñados a escala de contenedor [9]. Siguiendo los lineamientos para la construcción de artículos de revisión [5], este artículo tiene como objetivo presentar una visión general acerca de Big Data incluyendo un análisis cienciométrico de las publicaciones en este campo y haciendo una exploración cuidadosa de una serie de trabajos en el tema, que contemplan aplicaciones, oportunidades, desafíos y retos de Big Data. A su vez, se hace una breve introducción de algunas tecnologías y técnicas adoptadas para la implementación de soluciones a problemas de Big Data. Desde la perspectiva empresarial Big Data no representa solo grandes volúmenes de datos, se deben considerar los patrones extraídos a partir de los datos y que pueden generar procesos de innovación.