BigData Magazine Revista especializada en Big Data e Inteligencia Artificial

Una de las herramientas que se utilizan para prevenir y contrarrestar los efectos adversos del uso de las tecnologías es el derecho nacional, pero este se ve influenciado por los avances y lineamientos que se dictan en el contexto internacional, entre ellos los documentos emitidos por organismos internacionales, o bien las sentencias dictadas por tribunales nacionales, regionales o internacionales como las presentadas en el apartado anterior. La calidad de los datos es otro factor que incide y debe de ser considerado pues hay tres situaciones en las que la pureza de los datos puede afectar los resultados. Esto influye por la manera en que se realiza el análisis de los grandes cúmulos de datos; por ello, es preciso entender que, por un lado, se encuentra quien recoge los datos de manera bruta y los vende.

  • En el rubro de la distribución de autores verificamos que ninguno repite autoría; la mitad de las publicaciones se registraron en el periodo 2015 y lo que va de 2018 al momento de ejecutar la búsqueda y recuperación de la información.
  • Otro ejemplo nacional deja ver cómo el Ministerio de Hacienda de Colombia y el DNP desarrollaron una metodología, a partir de datos de Google Trends, para analizar estadísticamente los términos de búsqueda con el objetivo de predecir y obtener tendencias económicas de ciertos sectores más rápido que a través de la estadística tradicional (Karisma, 2016).
  • Es interesante anotar que, aunque la mayor producción sobre la temática se asocia con países del continente asiático, las revistas más relevantes no están necesariamente asociadas a ellos.

No obstante, como lo afirma Kusi-Sarpong et al. (2021), en la era actual se ha convertido en un requisito fundamental el uso eficaz del análisis de big data, pues ofrece oportunidades de desarrollo sostenible. Sin embargo, su aplicación conlleva riesgos, y es importante conocerlos y tenerlos ¿Qué es la ciencia de datos y cómo se relaciona con la inteligencia artificial? presentes para poder generar estrategias innovadoras para superarlo. La adaptabilidad es la capacidad de la organización para ajustar todos sus procesos al cambio que implica el uso de big data, iniciando por el liderazgo de la gestión directiva y una toma de decisiones oportunas.

¿Necesita más información?

Para crear significado, lo más relevante es extraer información interpretable a partir de cantidades masivas de datos, por lo que nos enfocaremos en los métodos de análisis que usa la Ciencia de Datos, dejando de lado las dificultades, los desafíos, y las técnicas computacionales y algorítmicas asociadas a las tres primeras Vs de Big Data. La presentación y discusión tendrá un punto de vista estadístico, teniendo similitudes con la disciplina del Aprendizaje Estadístico de la que la Ciencia de Datos se nutre; ver, por ejemplo, (34-38) siendo referencias útiles para aprender más de esta disciplina34-40. En el ámbito de los derechos humanos, por su parte, desde hace varias décadas se ha ido perfilando una suerte de nuevo derecho, en lo que se ha denominado la “comunidad internacional”. Este nuevo derecho no atiende a ésta en cuanto formada por Estados, sino que reconoce directamente a la persona o a la personalidad humana, y no es parte del derecho internacional tradicional, sino que, de alguna manera, ha tenido la misión globalizadora de que los distintos Estados reconozcan la necesidad de la protección humana.

articulos cientificos de big data

La especialista explica que cuando la información es de baja calidad porque está incompleta, no está actualizada o los datos son incorrectos, se corre el riesgo de hacer predicciones equivocadas y tomar malas decisiones. Si bien, explica, no todo depende de la tecnología, pues el factor humano puede llevar a que se capture mal la información, lo que afectaría el resultado. Hadoop es una librería de Apache definida como un framework que permite hacer procesamiento de datos distribuido sobre volúmenes de datos de considerable tamaño sobre clúster. Está diseñado pensando en brindar poder de escalamiento desde un par de servidores hasta cientos de máquinas o nodos, las cuales manejan almacenamiento y procesamiento local [17].

Bravent e IndesIA impulsan la innovación empresarial a través de la IA

Mahout ofrece una suite de algoritmos para clustering, categorización, filtrado colaborativo, clasificación y programación evolutiva. Algunas de sus principales aplicaciones prácticas se enmarcan en la realización de clúster de documentos, recomendaciones y organización de contenidos [32]. El machine learning o aprendizaje máquina es el trasfondo principal de https://ssociologos.com/2024/04/09/diferencia-entre-las-bases-de-datos-nosql-y-las-bases-de-datos-relacionales/ Mahout y corresponde a un subcampo de la inteligencia artificial que se centra en el mejoramiento de procesamientos computacionales a partir del análisis de experiencias previas. Grant Ingersoll en [33] presenta una descripción de algunos de los más recientes algoritmos implementados en Mahout, resumiéndolos en la Tabla 3, la cual se presenta a continuación.

articulos cientificos de big data